2-годишно момче е убито от инфекция, която разяжда мозъка. Пациенти в болница са изгорени живи, вързани за болничните легла. Жена е намерена мъртва на пътя. 5-годишно момиче умира пред очите на родителите си.
Постове във Facebook, съдържащи връзки към таблоидни истории за смърт, злополуки и тревожни здравословни симптоми, се появяват многократно в социалната мрежа полякиня на 30 година, която отскоро е майка. Йоанна, чието име е променено, за да се защити личното ѝ пространство, също наскоро е загубила близък човек и посещава терапевт заради депресия и тревожност, разказва POLITICO.
"Този вид съдържание е един от най-класическите задействащи фактори, които по принцип подхранват тревожността ми и по принцип много затрудняват лечението ми", казва тя.
Повече от половината от публикациите, придвижени до Йоана от алгоритъма на Facebook, са свързани с нейните страхове. Това показва анализ, направен в продължение на два месеца от фондация Panoptykon - организация с нестопанска цел за защита на цифровите права, с участието на академик, специализиран в одита на алгоритмите, Пьотр Сапиенски. Да кажеш на Facebook да скрие предложените публикации изглежда е довело само до леко увеличаване на количеството на обезпокоителните публикации, казва организацията.
През последните години алгоритмите на компаниите за социални мрежи са подложени на все по-голям контрол. Платформата Meta Platforms е в центъра на вниманието, откакто Франсис Хауген обвини бившата си компания, че не е успяла да ограничи вредното съдържание в платформата си - твърдения, които Meta отрича.
Алгоритъмът на TikTok също е обект на безпокойство заради начина, по който предоставя пристрастяващи и потенциално опасни препоръки.
През последните няколко месеца - от ноември, Европейската комисия започна да прилага закона на ЕС за регулиране на съдържанието, Законодателния акт за цифровите услуги (DSA) - насочен към Meta, TikTok и YouTube.
Meta вече е получила четири отделни искания за разясняване на това как спазва няколко задължения по DSA, включително как алгоритъмът ѝ в Instagram се справя с разпространението на вредно съдържание. Глобите могат да достигнат до 6% от глобалните приходи на компанията.
В Съединените щати 33 щата обединиха усилията си в края на октомври, за да съдят Meta, твърдейки, че алгоритмите на нейните платформи подмамват потребителите да влизат в дълбоки "заешки дупки", за да увеличат максимално ангажираността си.
Новият анализ, фокусиран върху Йоанна, показа "последиците от оптимизирането на алгоритмите за ангажираност, без да се дават на хората почивки", каза Катаржина Шимилевич, ръководител на Panoptykon.
През юни 2023 г. близо 54% от публикациите, които алгоритъмът на Facebook сервира на Йоанна, включват съдържание за внезапна смърт на млади хора, тревожни физически признаци, болести, злополуки и смъртни случаи. През юли около 57% от тези публикации се появяват дори след няколко дни щракване върху "скрий публикацията, да виждаш по-малко подобни публикации" на 122 предложени публикации. През двата месеца Джоанна е видяла 1 416 тревожни публикации.
"Разстроих се, защото се почувствах експлоатирана и хваната в капан", казва тя и си спомня, че съдържанието, което предизвиква тревога, продължава да ѝ се предлага, дори когато е казала на Facebook, че иска да вижда по-малко такъв тип съдържание.
Бен Уолтърс, говорител на Meta, заяви, че полското проучване е погрешно. "То е с размер на извадката от един човек, погрешно приема, че хората нямат влияние върху това, което виждат и разглежда само един инструмент, докато ние предлагаме много други начини хората да контролират видовете съдържание, които виждат", каза той.
Компанията не отговори на въпросите на POLITICO за мерките, предприети, за да се гарантира, че алгоритмите за препоръчване на Facebook не предлагат токсично съдържание, нито коментира подробно как спазва изискванията на DSA.
Публикация на Клотилд Гужар в POLITICO. Преводът и заглавието са на ФрогНюз.