Резултатите покажаа дека прецизноста на препознавањето на фабрикувани материјали се зголемува кога има пристап до дополнителни информации од медиумите или други комуникации на оној што го држи говорот. Што повеќе информации, тоа подобро се препознава модификувана содржина, пишува Вистиномер Различните фактори што влијаат врз препознавањето на разликите меѓу фабрикувани и вистински политички говори во различни медиумски формати се предмет на новообјавено научно истражување.
Резултатите покажаа дека прецизноста на препознавањето на фабрикувани материјали се зголемува кога има пристап до дополнителни информации од медиумите или други комуникации на оној што го држи говорот. Што повеќе информации, тоа подобро се препознава модификувана содржина.
Но, од друга страна, истражувањето покажува дека потешко се препознаат фабрикуваните видеа, чиј глас е генериран од софистицирана и хипер-реалистична text-to-speech алатка наспроти видеата со гласовни актери. Сознанијата од вакви истражувања се истражувањето се критични во борбата против дезинформациите, пишува Вистиномер.
Текстот го пренесуваме во целост: Минатата недела во престижното научно списание Nature Communications беше објавено ново истражување каде, во неколку експериемтни, беа разгледувани различните фактори што влијаат врз препознавање на разликите меѓу фабрикувани и вистински политички говори во различни медиумски формати. Конкретно, Метју Грох и неговите соработници ги истражуваа разликите во распознавање на автентичноста на политички говори создадени со помош на дипфејк технологија во три различни формати – аудио, видео и текстуални.
Двете главни истражувачки прашања што ги интересираше авторите се:
1. Колку добро луѓето можат да разликуваат вистински и лажни видеа од говори на познати политичари?
2. Како луѓето ја вреднуваат содржината (што е кажано) со аудио-визуелните знаци (како нешто се кажува) во оценувањето на дали содржината е вистинита или лажна?
За почеток, авторите одбраа вистински видеа од јавни говори од моменталниот претседател на САД, Џо Бајден и поранешниот претседател Доналд Трамп. Понатаму, тие ги рекреираа овие видеа со најсовремена визуелна и аудио дипфејк технологија, како и со помош на гласовни актери. Овие видеа ја формираат основата за ескпериментите. Во првиот експеримент, централното прашање е дали типот на медиум (или медиумки модалитет) влијае врз способноста на учесниците да препознаат дали политичкиот говор е вистински и фабрикуван.
На учесниците им биле прикажани 32 политички говори — половина реални и половина фабрикувани — од двајцата претседатели. А, по случаен избор им се прикажани 7 можни пермутации на текст, аудио и видео од политичкиот говор: транскрипт, аудио клип, видео без звук, аудио со титлови, видео без звук со титлови, видео со аудио, и видео со аудио и титлови. Како што може да се види од сликата, прецизноста на учесниците се зголемува кога имаат пристап до дополнителни комуникациски, односно медиумски информации.
Конкретно, најмалку прецизни беа учесниците кога читаа само транскрипти (со 57 отсто точност — малку попрецизно од фрлање на паричка), проследено со видеа без аудио и титлови (64 отсто точност), видеа со титлови и без аудио (69 отсто). Најпрецизни беа при слушање на аудио со и без титлови (81 отсто), како и со гледање на видео со аудио и титлови (85 отсто) и видео со аудио, но без титлови (86 отсто). Во вториот експеримент, на учесниците им беа прикажани 4 вистински видеа, 4 видеа чии глас е изменет со text-to-speech (текст прочитан од компјутер) дипфејк технологија, и 4 видеа чие аудио е од врвен гласовен актер.
Резултатите покажаа дека отсуствува статистички значајна разлика во прецизноста на учесниците при идентификување на вистинските видеа како вистински, и фејк видеата со гласовни актери како фабрикувани. Односно, учесниците може да препознаат кое видео е вистинско, а кое фабрикувано. Од друга страна, на учесниците им беше потешко да ги препознаат фабрикуваните видеа чии глас е генериран од софистицирана и хипер-реалистична text-to-speech дипфејк алатка, отколку видеата со гласовни актери.
Со други зборови, без разлика колку и да е убедливо видеото со гласовниот актер, она во кое се користи дипфејк технологија е далеку потешко да се препознае како фабрикувано. Подолу се прикажани две видеа што истражувачите ги користеа во своето истражување. И двете видеа се фабрикувани — првото е направено со text-to-speech дипфејк технологија, второто со познат гласовен актер: Коментирајќи ги податоците, главниот истражувач Грох пишува на Х (поранешен Твитер): „овој [експеримент] ја открива моќта (и проблемите) на звукот од text-to-speech дипфејк да генерира аудио што звучи повеќе слично на вистинската личност отколку дури и светски познатиот гласовен изведувач.“
Менувајќи ги експерименталните ситуации, во следните експерименти истражувачите наоѓаат слични податоци, т.е. дека со зголемување на визуелните и аудитивните информации, се зголемува способноста на луѓето да разликуваат автентични од фабрикувани политички говори. Поточно, Грох и соработниците покажуваат дека учесниците се значително попрецизни во разлување меѓу автентичните и фабрикуваните политички видеа отколку транскриптите (говорите во текстуална форма).
Политичката опасност од фабрикувани видеа можеби нема да биде од просечното дифејк видео, туку од добро изработено, иполирано и крајно убедливо видео. На пример, хипер-реалистичните дифејк видеа како оние од Том Круз на ТикТок (@deeptomcruise) се произведени од артисти по визуелни ефекти кои користат алгоритми за вештачка интелигенција (ВИ) и традиционален софтвер за уредување на видеа, како и високо обучени актери слични на познатиот глумец, пишуваат Грох и соработниците во истражувањето.
Дипфејк видеа во македонскиот контекст
Откако започна пролиферацијата на дипфејк содржини генерирани со помош на вештачка интелигенција (ВИ), имаше не така мал број инциденти каде што малициозни актери ја злоупотребија оваа технологија. Пример за ова е кога банкарски агент бил измамен и платил 25 милиони долари откако измамници со помош на дипфејк технологијата се претставиле како финансиски директор во видео-конференција. Други примери се секојдневните слични скемови чиишто централен процес се темели оваа технологија.
Не може ни да се изостават и политичките измамнички видеа, за кои дури и американскиот Пентагон алармира. Но, типот на инциденти не беше само во насока на измами. Се појавија еден куп други фабрикувани видеа и слики од политичари чијашто цел не е изнудување или крадење на пари, туку влијаење на пошироката публика и јавното мислење и подршка.Ваквата содржина неретко стигнува и на македонските социјални мрежи. Вистиномер има рецензирано манипулирани слики Емануел Макрон, Камала Харис, повеќе манипулирани видеа од, повторно, Макрон и Володоми Зеленски, дневни вести на Франс 24 и слично.
Како што што може да забележи, скоро сите објави чијашто содржина е фабрикувана со дипфејк и ВИ технологија, што Вистиномер ги има рецензирано, се однесуваат на лица од САД или западните земји. Кај нас, до објавата на овој напис, се немаат појавено волку софистицирани видеа или скемови со лица од домашната политичка сцена. Скоро сите се преземени од странство и се за странски политичари или јавни лица.Една од причините зошто е тоа така е бидејќи технологијата базирана на ВИ бара огромен корпус на материјали на кои може да се тренираат моделите коишто потоа ќе ги генерираат или модификуваат ваквите содржини.
Покрај материјалите, исто така, потребен е и пристап до самите алатки и знаење како истите да се искористат за да се направат овие видеа. И прашање е колку тоа би се исплатело, имајќи превид колку време и ресурси се потребни за креирање на фабрикуваните содржини. Затоа, може да се каже дека иако сознанијата од истражувањето се критични во борбата против дезинформациите и повеќе ги се однесува на западните политичари и јавни лица, заканата по македонската политичка сцена сè уште е мала.
Барем засега. Без разлика, тоа што во моментов не се домашните јавни лица и политичари не се мета на дипфејк содржина не значи дека никогаш нема тоа да се случи. Затоа, потребна е широка едукација за да се крене свеста за можностите и границите на оваа технологија.
Напишано од Матеј Тројачанец, МЕТА.МК