Още един AI риск: чатботове подбуждат терористични нагласи

Чатботовете с изкуствен разум създават риск от подбуждане към тероризъм. Поради това държавите по света спешно се нуждаят от нови регулации в областта на антитероризма, препоръчват специалисти. Законодателството традиционно изостава спрямо развитието на технологиите, но в случая е много важно тенденцията да бъде изпреварена.

Изкуственият интелект би могъл да се използва за вербуване на ново поколение екстремисти и терористи, предупреди наскоро британският правителствен съветник по законодателството в областта на тероризма. Неговият коментар отекна като ехо след предупрежденията на други експерти за съшия проблем.

В чатбот експеримент, в който Хол се представя като обикновен човек, специалистът взаимодейства с няколко разговорни алгоритъма, които използват AI, симулирайки най-обикновено човешко взаимодействие. Резултатът? Хол установява, че един чатбот без колебание прославя “Ислямска държава” – доскоро немислим акт, за който все още не са предвидени каквито и да е законодателни мерки, тъй като авторът на подбуждащото изказване не е човек. Хол казва, че откритието демонстрира спешната необходимост от преразглеждане на действащото законодателство срещу тероризма.

Съгласно сега действащите закони по света, „само човешки същества могат да бъдат извършители на терористични престъпления“, отбелязва Хол, Затова е трудно да се идентифицира човек, който от правна гелдна точка може да се счете за отговорен за изявления, генерирани от чатбот, които насърчават тероризма.

Всички нови, по-усъвършенствани системи с изкуствен интелект правят законодателството за кибернетична безопасност неадекватно, според Хол. В него не се взема предвид предвид съдържанието, създадено от разговорните алгоритми.

Разследването и преследването на анонимни оператори представлява комбинация от сериозни трудности, според Хол. „Ако лица, чиито намерения са съмнителни или откровено опасни, усърдно насърчават и „обучават“ терористични чатботове, тогава ще са необходими и нови закони“, казва експертът. По неговите думи както създателите на подобни радикализиращи чатботове, така и технологичните фирми, които ги развиват и хостват, следва да бъдат държани отговорни – съгласно всяко потенциално ново законодателство.

Други специалисти споделят разсъжденията, изразени от Хол. Главният изпълнителен директор на RiverSafe Суид Адеянджу неотдавна подчерта значителната заплаха, която AI чатботовете представляват за националната сигурност на държавите, особено когато законовите мерки и процедурите за сигурност изостават. „Ако подобни инструменти попаднат в неподходящи ръце, те могат да дадат възможност на хакерите да култивират следващото поколение киберпрестъпници“, предупреди Адеянджу. Той призова бизнеса и правителствата да разпознаят надигащата се опасност от развитието на изкуствения интелект. Вече е спешно необходимо да наложат необходимите защити за гражданите и националната сигурност.

Джош Боер, директор на технологичната консултантска компания VeUP, също намира за предизвикателство да се разпознае този проблем. Не по-малко сложна задача е да се осигури необходимото законодателство, без да се задушават иновациите. Когато една държава има политика да насърчава технологичните компании и да подкрепя новостартиращите технологични предприятия, тя обичайно осигурява финансиране, инфраструктура, данъчни облекчения, за да могат компаниите от сектора да просперират.

Усилия се влагат и в развитието на набора от таланти, разгръщането на дигитални умения, стимулирането на интереса на младите хора към кариера в областта на технологиите и насърчаването на AI бизнесите. Това обаче се оказва нож с две остриета при липсата на адекватна защита от злонамерено развитие на AI механизми. Неуспехът да се обърне внимание на този въпрос може да бъде пагубeн за бъдещето на всяка страна. Нещо повече, може да превърне една страна от технологична „силициева долина“ в родина на най-новата генерация киберпрестъпност.

Източник: technews.bg

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини