Експертите по киберсигурност се опасяват, че съдържанието, генерирано от изкуствен интелект, може да изкриви представата ни за реалността - проблем, който е още по-тревожен в годината, изпълнена с важни избори по цял свят.

Но един от водещите експерти не е съгласен с това, заявавайки, че заплахата, която дълбоките фалшификати (deepfake) представляват за демокрацията, е силно „преувеличена“.

Мартин Лий, технически ръководител на групата за изследвания на сигурността Talos на Cisco, коментира пред CNBC, че според него дълбоките фалшификати - макар и сами по себе си да са мощна технология - не са толкова въздействащи, колкото фалшивите новини. Въпреки това новите инструменти за генеративен изкуствен интелект „заплашват да улеснят генерирането на фалшиво съдържание“, добавя той.

Материалите, генерирани от AI, често могат да съдържат разпознаваеми индикатори, които да подсказват, че не са създадени от реален човек. Визуалното съдържание, по-специално, се оказва много уязвимо за недостатъци. Изображенията, генерирани от AI, могат да съдържат визуални аномалии, като например човек с повече от две ръце, който се е слял с фона на изображението.

По-трудно може да се разкрие синтетично генериран глас, базиран на звука от клипове на реални хора. Но експертите твърдят, че AI на практика е толкова добър, колкото са добри данните, върху които е обучен.

„Машинно генерираното съдържание често може да бъде разпознато като такова, когато се разглежда в дълбочина", казва Лий, въпреки че много негови колеги нееднократно са предупреждавали, че очакват генерираната от изкуствен интелект дезинформация да бъде ключов риск при предстоящите избори по света.

„Ограничена полезност“

Мат Калкинс, главен изпълнителен директор на компанията за корпоративни технологии Appian, която помага на бизнеса да създава по-лесно приложения със софтуерни инструменти, също посочва, че AI има „ограничена полезност“. По думите му много от съвременните генеративни инструменти могат да бъдат „скучни“.

„Един ден AI може да се превърне от невероятен в полезен инструмент, но засега просто не може да премине тази граница“, акцентира той. „Щом станем готови да поверим на AI знанията за нас самите, той ще бъде наистина невероятен“.

Това може да го превърне в по-ефективен - и по-опасен - инструмент за дезинформация в бъдеще, предупреждава Калкинс и добавя, че не е доволен от напредъка, постигнат в усилията за регулиране на технологията в САЩ.

Може да се наложи изкуственият интелект да произведе нещо изключително „обидно“, за да предприемат действия американските законодатели, предполага той и продължава:

„Дайте ни една година. Изчакайте, докато AI ни обиди. И тогава може би ще вземем правилното решение. Просто демокрациите са реактивни институции“.

Независимо от това колко напреднал е AI, Лий от Cisco казва, че има някои изпитани начини за откриване на дезинформация - независимо дали е направена от машина или от човек.

„Хората трябва да знаят, че тези манипулации се случват, и да се съобразяват с техниките, които могат да бъдат използвани. Когато се сблъскваме със съдържание, което предизвиква емоциите ни, трябва да спрем, да направим пауза и да се запитаме дали подадената ни информация изобщо е правдоподобна", съветва Лий. „Публикувана ли е от авторитетен медиен източник? Други реномирани медии съобщават ли за същото нещо? Ако отговорите са „не“, вероятно става въпрос за измама или дезинформационна кампания, която трябва да бъде пренебрегната или докладвана.“