От Холивуд и Вашингтон до социалните медии и интернет пространството, дийпфейковете — комбинация от „дълбоко обучение“ и „фалшиво“ — и други синтетични медии, генерирани с изкуствен интелект (ИИ), се разпространяват по-бързо, отколкото повечето от нас биха могли да си представят.
През 2023 г. , поне 95 820 дийпфейк видеа бяха открити в интернет.
Може да е забавно и интересно да гледате как Кендрик Ламар се превръща в Кание Уест, Уил Смит и Нипси в сингъла на носителя на Пулицърова награда The Heart Part 5 от 2022 г. Може дори да изпитате катарзис, като гледате рендериран клип на Джон Сноу, който се извинява за финала на Игра на тронове, ако сте сред тези (все още), които не са доволни от начина, по който завърши легендарната поредица.
Но какво се случва, когато тези манипулации с ИИ се използват за по-зловещи цели? Данни и проучвания показват, че повечето хора не могат надеждно да разпознаят дийпфейковете, като някои признават, че са гледали видеа, които първоначално са смятали за истински, само за да разберат по-късно, че са фалшиви.
Обикновено основното внимание върху опасностите, които дийпфейковете представляват, се фокусира върху дезинформацията, свързана с политиката. Но тази технология се използва и за тормоз и злоупотреба с жени, включително с такива като Тейлър Суифт, чийто статус на поп звезда не я спаси от жертвите на неосъгласено порнографско съдържание.
„Не трябва да сме изненадани, че дийпфейковете се използват за унижаване на жени“, казва доц. Софи Тупин от катедрата по информация и комуникации в Университета Лавал пред TRT World.
След като сексуално експлицитни дийпфейкове с Тейлър Суифт станаха вирусни в социалните медии в края на януари, лоялните й фенове, известни като Swifties, реагираха веднага. Феновете бързо заляха X (бивш Twitter) с позитивни изображения на Суифт и докладваха акаунти, които разпространяваха дийпфейковете, като в резултат на това хаштагът #ProtectTaylorSwift стана тренд.
Реакцията на Swifties има огромно социално и културно значение, казва Тупин, тъй като тя помага да се установят норми относно приемливото и неприемливото използване на синтетични медии, създадени с ИИ — независимо дали сте една от най-големите поп звезди в света, или не.
„Докато бързата реакция беше успешна, важно е да признаем, че не всички имат достъп до такава солидна подкрепа от общността“, казва Тупин. „Феновете на Тейлър Суифт са пример за феминистка реакция, която твърдо заявява: 'Това не е приемливо.'
„Надявам се всяка жена и момиче, подложено на подобна унижаваща практика, да получи същата бърза реакция. На ниво общност, солидарността, проявена от Swifties, е точно това, което ни е нужно, за да се противопоставим на мизогинисткото и расисткото фалшиво съдържание, генерирано от ИИ“, добавя Тупин.
В основни линии, дийпфейковете представляват синтетични медии, които използват ИИ, за да заменят лицето на един човек с това на друг в видеа.
Технологията започна да придобива популярност чрез потребител в Reddit, който използва псевдонима Deepfakes и през 2017 г. започна да публикува неосъгласени и дигитално променени възрастни видеа, в които лицата на знаменитости бяха поставени върху телата на жени в порно филми.
Говорейки пред Vice’s Motherboard, потребителят обяснява, че е използвал множество библиотеки с отворен код, включително TensorFlow на Google, който е безплатен за използване.
„От техническа гледна точка, е важно да се има предвид, че леснотата, с която много хора могат да създават дийпфейкове с ИИ, зависи от наличния софтуер за генериране на ИИ“, обяснява Тупин. „Тези софтуери са обучени с огромни количества съдържание, генерирано и споделяно от нас, потребителите на интернет, през последните две десетилетия. Това е важно да се осъзнае.“
След случилото се със Суифт, законодатели и граждани поискаха по-силна защита срещу изображения, създадени с ИИ, които, от Австралия до Испания и навсякъде между тях, се разпространяват с ускоряваща се скорост, като основно вредят на жени и деца.
Наскоро депутатът от Виктория Джорджи Пърсел отправи критика към местни медии, които са манипулирали нейното тяло, за да изглежда по-голям бюстът й и за частично премахване на части от дрехите й, наричайки го пример за „постоянното, коварно“ отношение към жените в политиката и медиите.
Според доклад от 2023 г., дийпфейк порнографията съставлява 98 процента от всички дийпфейк видеа в интернет, като 99 процента от засегнатите лица в тези видеа са жени, което подчертава нуждата от по-строга регулация.
„Нека не забравяме, че ако консумираме синтетични медии, създадени без съгласието на изображеното лице, ние също ставаме част от проблема“, заявява Тупин. „Важно е да осъзнаем, че се наслаждаваме на цифрово насилие, основано на пол.“
Макар и революционна, ерата на дийпфейковете създава нови предизвикателства и страхове за законодателите и правителствата, които се опитват да регулират тази технология, която позволява на всеки да изглежда като че ли казва и прави каквото и да е по всяко време.
Нарастващото разпространение на дезинформация и дийпфейкове, посочва доклад на Европейската агенция за правоприлагане (Europol) от 2022 г., ще „окажат дълбок ефект върху начина, по който хората възприемат властта и медийната информация“, като същевременно подкопават доверието в властите и официалните факти.
„Експертите се опасяват, че това може да доведе до ситуация, в която гражданите вече няма да имат обща представа за реалността или ще възникне объркване относно кои източници на информация са надеждни; такава ситуация понякога се нарича „информационен апокалипсис“ или „апатия към реалността“, се посочва в доклада на Europol.
Дълго време хората разчитаха на снимки и видеа, за да подкрепят всяко твърдение, което четат, преди да го приемат за факт, следвайки принципа „Не вярвай, докато не го видиш“.
С наближаващите президентски избори през ноември, последните данни показват, че американците са „сериозно загрижени“ за използването на ИИ и дийпфейкове за манипулации с кандидати и политически фигури. Силно мнозинство от избирателите от всички политически спектри смятат, че технологията трябва да бъде правилно регулирана.
Тревогата им не е неоснователна. Точно през януари, фалшив робообаждане, което звучеше като глас на изкуствен интелект на президента Джо Байдън, призова жителите на Ню Хемпшър да не гласуват на демократичните първични избори в щата.
През септември 2023 г. губернаторът на Флорида Рон Десантис стана жертва на вирусен дийпфейк, който обявяваше, че той се отказва от президентската надпревара през 2024 г., след като няколко месеца по-рано бе пуснато видео, манипулирано с ИИ, на бившия президент Доналд Тръмп и Антъни Фаучи, които се прегръщат.
„Инструментите и системите, необходими за създаване на тези фалшиви материали, са лесно достъпни“, казва Чарлс Кинг, анализатор на технологичната индустрия от Pund-IT пред Forbes. „Също толкова важно е, че текущият политически климат в САЩ е толкова разкъсан и напрегнат, че има големи и готови аудитории от хора от двете страни, които лесно са склонни да вярват в най-лошото за другите.“
В журналистиката и разследващата работа аудио- и видеозаписите, както и снимките и текстовете, не само често се приемат като надеждни доказателства, но също така помагат на журналистите и разследващите да разпознават кое е истинско и кое не е.
Други форми на цифрова манипулация, като Photoshop, съществуват отдавна, но обикновено се изисква определено ниво на експертиза, за да се скрият следите от редактиране. Освен това резултатите не са били толкова сложни, колкото тези, създавани чрез ИИ технологии.
С нарастващото влияние на ИИ, потенциалът за разпространение на фалшива информация нараства експоненциално, особено в условията на конфликти и войни, заявява д-р Калев Ханес Лийтару, основател на проекта GDELT – глобална база данни за събития, език и тон в реално време.
„Сега има огромен потенциал за лоши актьори – независимо дали става въпрос за Газа, Украйна или всеки друг конфликт – да използват тези инструменти, за да създават хиперперсонализирани, мащабни лъжи“, казва Лийтару, чиято работа е съсредоточена върху използването на напреднали технологии и разбирането на тяхното въздействие върху глобалното общество, в интервю за TRT World.
„Представете си ситуация, в която социална медийна платформа или лош актьор може да разгледа цялото население на дадена страна и след това да таргетира всеки човек, като му поднесе нещо, за което те знаят, че ще го възбуди толкова много, че ще разкъса обществото“, обяснява той, добавяйки: „Или обратно, когато се появят легитимни документи за военни престъпления от конфликтна зона.“
През 2022 г. се появи фалшиво видео, на което украинският президент Володимир Зеленски нарежда на своите войници да се предадат срещу Русия, но много хора успяха да забележат признаци на цифрова манипулация, включително как лицето му не беше напълно синхронизирано с главата му и акцентът му звучеше странно.
През следващата година, през юни, няколко руски медии се подведоха от подобно фалшиво видео, но по-убедително, с президента на Русия Владимир Путин. А през декември дийпфейк видео със самия него изненада руския президент по време на годишната му пресконференция.
Войната на Израел срещу Газа, която от 7 октомври насам е убила над 27 800 палестинци и е ранила над 67 000 души, също повиши страховете относно възможността ИИ да се използва за манипулации, съобщава Асошиейтед Прес.
В момента има много реални изображения и разкази за жестокостите, които идват от обкръжените територии, но те често се съпътстват с множество фалшиви твърдения и изкривени истини. В началото на войната генерирани от ИИ изображения, включително едно вирусно изображение на бебе, плачещо сред руините на бомбардировка, бяха разпространени в социалните медии, докато снимки и видеа от други конфликтни зони бяха представени като доказателства за събитията в Газа.
С времето ИИ само продължава да се усъвършенства и ще продължава да го прави, както компютърната анимация или софтуерите за редактиране като Photoshop. Почти всеки може да създаде убедителен фалшив материал, като въведе текст в лесно достъпни ИИ генератори като DALL-E или Midjourney, за да генерира изображения, видео или аудио.
Експерти като Лийтару посочват, че самото съществуване на дийпфейкове може да обърка хората или да ги накара да поставят под въпрос истински новини или автентични изображения. „Сега изведнъж наводняваш средата с известна фалшива информация, така че можеш да кажеш: 'Това изображение за военни престъпления, това е просто фалшиви новини като другото.'“
С други думи, възможността да се създават убедителни фалшиви доказателства е тревожна, а това също така позволява на хората да отхвърлят истински доказателства, подкопавайки доверието в записаните изображения и видеа като обективни изобразявания на реалността.
Президентът и изпълнителен директор на Университета по логистика Kühne в Германия, Андреас Каплан, който е и професор по дигитална трансформация, отбелязва, че няма съмнение, че съдържанието, генерирано от ИИ, включително дийпфейкове и подобни технологии, играе важна роля в формирането на наративи, влиянието върху общественото мнение и усилването на определени перспективи. Въпреки това, той подчертава, че въздействието на разпространението на фалшива информация не е толкова силно.
„С други думи, генеративният ИИ основно улеснява доставката на дезинформация и манипулиране на факти, вместо да създава търсене за тях или да ускорява разпространението им“, казва Каплан пред TRT World, добавяйки, че истинският проблем възниква, когато хората разчитат на ИИ инструменти за информация, което „не се различава много от приемането на информация от Wikipedia като факт или вярата в робообаждания по време на политическа кампания“.
Докато признава, че регулаторните органи често изостават от настоящото състояние на нещата, Каплан подчертава, че все още се предприемат усилия за справяне със злоупотребите и неправомерното използване на съдържание, генерирано от ИИ, включително дийпфейкове. „Забележително е проектозаконодателството на Европейската комисия за изкуствен интелект, което изисква маркиране на съдържанието, създадено чрез технологии за дийпфейк.“
Това, на което Каплан се позовава, е Закона за ИИ, по който беше постигнато предварително споразумение на 9 декември 2023 г. Първоначално предложен през април 2021 г., този текст трябва да бъде официално приет от Парламента и Съвета, за да стане закон в ЕС. След като бъде одобрен, законът ще предостави насоки за първите в света правила за ИИ.
„По подобен начин, Съединените щати наскоро засилиха усилията си да въведат законодателство за борба с дийпфейковете, стъпка, която вероятно е предизвикана от наближаващите президентски избори през ноември.“
Канада също разглежда законопроект, който ще започне да регулира някои ИИ системи. В Обединеното кралство пък Законът за онлайн безопасност, приет през октомври 2023 г., цели да направи страната „най-сигурното място в света да бъдеш онлайн“ чрез нови закони, които приемат нулева толерантност към защитата на деца от онлайн вреди.
Според Каплан, за обикновения потребител на социални медии, определянето дали нещо е достоверно означава да бъдеш внимателен със съдържанието, което консумираш, и да го оценяваш критично, вместо да го приемаш за чиста монета.
„Също така е важно да осъзнаем собствените си предразсъдъци, тъй като често имаме склонност да вярваме на информация, която съвпада с нашите предварителни възприятия“, казва Каплан. „Осъзнаването на тези предразсъдъци може да помогне за по-обективен анализ на информацията“, добавя професорът, чиято изследователска област включва напредъка в ИИ, цифровизацията и социалните мрежи.
„В заключение, колкото по-сензационна изглежда новината, толкова по-важно е да проверим източника й.“