С усъвършенстването на технологията изчезват отличителните знаци на изображенията с генеративен изкуствен интелект, а експертите търсят нови методи за борба с дезинформацията.
С повече от 4000 споделяния, 20 000 коментара и 100 000 реакции във Facebook снимката на възрастната жена, седнала зад домашно приготвената торта за 122-ия си рожден ден, безспорно стана вайръл. "Започнах да украсявам торти от петгодишна", гласи надписът, "и нямам търпение да се разрасне моето пекарско пътешествие".
Снимката безспорно е и фалшива. Ако любопитните свещи - една от тях сякаш се носи във въздуха, прикрепена към нищо - или странните аморфни петна върху тортата на преден план не издават това, то фактът, че празнуващият ще бъде най-възрастният човек в света с почти пет години, би трябвало да го издаде.
За щастие, залогът за декораторите на вирусни торти за свръхстари хора е нисък. Което е добре, тъй като с усъвършенстването на генеративния изкуствен интелект дните, в които трябваше да се търсят предупредителни знаци, за да се разпознае фалшификатът, почти отминаха. И това създава надпревара с времето: можем ли да разработим други начини за откриване на фалшификати, преди те да станат неразличими от реалността?
"Времето, в което все още можем да откриваме фалшификати ръчно, изтича", казва Майк Спиърс от консултантската компания за изкуствен интелект Faculty, където ръководи работата на компанията по противодействие на дезинформацията. "Моделите се развиват със скорост и темпове, които са, ами, невероятни от техническа гледна точка и доста тревожни.
"Съществуват всякакви ръчни техники за откриване на фалшиви изображения - от грешно изписани думи до нелепо гладка или набръчкана кожа. Ръцете са класическа такава, а след това очите също са доста добър показател. Но дори и днес това отнема много време: Не е нещо, което може да се увеличи. А времето изтича - моделите стават все по-добри и по-добри".
От 2021 г. насам генераторът на изображения на OpenAI, Dall-E, е пуснал три версии, всяка от които е радикално по-способна от предишната. Независимият конкурент Midjourney е пуснал шест за същия период, докато безплатният модел с отворен код Stable Diffusion е достигнал третата си версия, а Gemini на Google се присъедини към фразата. Тъй като технологията става все по-мощна, тя става и по-лесна за използване. Последната версия на Dall-E е вградена в ChatGPT и Bing, а Google предлага на потребителите свои собствени инструменти безплатно.
Технологичните компании започнаха да реагират на настъпващия поток от генерирано съдържание. Коалицията за доказване и автентичност на съдържанието, в която членуват BBC, Google, Microsoft и Sony, разработи стандарти за водни знаци и етикетиране, а през февруари OpenAI обяви, че ще ги приеме за Dall-E 3. Сега изображенията, генерирани от инструмента, имат видим етикет и воден знак, който може да се чете от машината. В края на дистрибуцията Meta започна да добавя свои собствени етикети към съдържанието, генерирано от AI, и заявява, че ще премахва публикации, които не са етикетирани.
Тези политики биха могли да помогнат за справяне с някои от най-вирусните форми на дезинформация, като шеги или сатира, които се разпространяват извън първоначалния си контекст. Но те могат да създадат и фалшиво чувство за сигурност, казва Спиърс. "Ако обществеността свикне да вижда изображения, генерирани от изкуствен интелект, с воден знак, означава ли това, че тя се доверява безрезервно на такива без воден знак?".
Това е проблем, тъй като маркировката в никакъв случай не е универсална - нито пък има вероятност да стане. Големи компании като OpenAI могат да се съгласят да поставят етикети на своите творения, но стартъпи като Midjourney нямат капацитета да отделят допълнително инженерно време за този проблем. А за проектите с "отворен код", като Stable Diffusion, е невъзможно да се наложи прилагането на воден знак, тъй като винаги има възможност просто да "разклоните" технологията и да създадете своя собствена.
И не е задължително да видим воден знак, за да постигнем желания ефект, казва Хенри Паркър, ръководител на отдела за правителствени въпроси в групата за проверка на факти Logically. Компанията използва както ръчни, така и автоматични методи за проверка на съдържанието, казва Паркър, но маркировката може да стигне само дотам. "Ако кажете на някого, че гледа фалшиво видео, преди още да го е гледал, социалната психология на гледането на това видео е толкова силна, че той все още ще се позовава на него, сякаш е факт. Така че единственото, което можете да направите, е да се запитате как можем да намалим времето, през което това съдържание е в обращение".
В крайна сметка това ще изисква автоматично откриване и премахване на съдържание, генерирано от изкуствен интелект. Но това е трудно, казва Паркър. "Опитваме се от пет години в тази насока и съвсем честно казваме, че сме стигнали до около 70% по отношение на точността, която можем да постигнем". В краткосрочен план въпросът е надпревара във въоръжаването между откриването и създаването: дори генераторите на изображения, които нямат злонамерени намерения, ще искат да се опитат да победят детекторите, тъй като крайната цел е да се създаде нещо толкова вярно на реалността, колкото е снимката.
Логически отговорът е да се огледаме в образа, казва Паркър: "Как всъщност се опитвате да разгледате начина, по който се държат участниците в дезинформацията?". Това означава да се наблюдават разговорите в мрежата, за да се уловят злонамерените лица в етапа на планиране в сайтове като 4chan и Reddit, и да се следи роевото поведение на подозрителни акаунти, които са били кооптирани от държавен актьор. Дори тогава проблемът с фалшивите положителни резултати е труден. "Гледам ли кампания, която Русия провежда? Или гледам група фенове на Тейлър Суифт, които споделят информация за билети за концерти?".
Други са по-оптимистично настроени. Бен Колман, главен изпълнителен директор на стартъпа за откриване на изображения Reality Defender, смята, че винаги ще има възможност за откриване, дори ако заключението е просто маркиране на нещо като възможно фалшиво, а не достигане до окончателно заключение. Тези признаци могат да бъдат всякакви - от "филтър при по-високи честоти, показващ твърде голяма гладкост", до - за видеосъдържание - невъзможност да се предаде невидимото, но откриваемо зачервяване, което всеки показва всеки път, когато сърцето му бие свежа кръв около лицето.
"Нещата ще продължат да се развиват от страна на фалшивите, но реалните не се променят", заключава Колман. "Вярваме, че ще се доближим до един модел, който е по-вечен".
Разбира се, техниката е само част от решението. Ако хората наистина вярват, че снимка на 122-годишна жена с торта, която сама е изпекла, е истинска, тогава няма да са необходими най-съвременни генератори на изображения, за да ги накарат да повярват в други, по-вредни неща. Но това е начало.
Алекс Хърн, технологичен журналист, The Guardian. Преводът и заглавието са на редакцията на ФрогНюз.