БИЗНЕС & ТУРИЗЪМ


Кенийци работили по $2 на час, за да направят ChatGPT по-безопасен, след това получили тежки травми

0 4627 20.01.2023
Кенийци работили по $2 на час, за да направят ChatGPT по-безопасен, след това получили тежки травми
Pixabay

ChatGPT на американската компания OpenAI, подобно на други чатботове с изкуствен интелект, беше обучен на текстове от отворени източници - почти безкрайна база данни с примери за това как човек комуникира. Проблемът е, че интернет е пълен с расистко, токсично и като цяло съдържание с насилие - и очевидно трябва да бъде филтриран за по-ефетнивната и чисто етична работа на невробота. Разследване на Time показва, че създателите на ChatGPT са наели външни работници срещу заплата от $1,32 на час. 


ChatGPT е може би най-известният чатбот с изкуствен интелект в света. И това е изключително успешен OpenAI проект, който спечели първия милион потребители още през първата седмица. Венчър фондовете оценяват компанията на 29 милиарда долара.

 

 Ръководството на Microsoft, което вече го контролира частично, възнамерява да инвестира още 10 милиарда.


За да може ChatGPT да комуникира убедително и правдоподобно с потребителя, му беше подадена огромна колекция от текстове. Въпреки това чатботът на настоящия етап прави много грешки - ентусиастите многократно са привличали вниманието към примери за дезинформация, безсмислено или потенциално вредно съдържание, до токсичност, подбуждане към омраза и съвети за извършване на престъпления. И въпреки че ChatGPT не е програмиран да съветва как се нарушава закона, потребителите постоянно намират вратички.


.

За да намалят значително незаконното или просто насилственото съдържание, авторите на ChatGPT трябва предварително да филтрират данните от интернет. Невъзможно е това да се направи ръчно. Най-очевидното решение е да се създаде допълнителна невронна мрежа за автоматично филтриране: подобен инструмент се използва например от Facebook за модериране.

 

Вграденият „детектор“ на ChatGPT ще помогне за премахването на неетичен текст, преди крайният потребител да го види.


В статията на Time се казва, че OpenAI е използвала нископлатени служители извън Съединените щати, за да обучат този детектор. Тази работа обаче повлияла изключително негативно на тяхното физическо и психологическо здраве.


За маркиране на текстови описания OpenAI се е обърнала към компанията Sama: централата й е в Сан Франциско, но за работа с клиенти от Силиконовата долина - например Google, Meta и Microsoft - работят с хора от Индия, Кения и Уганда. В списъка на най-бедните страни в света според версията на финансовото издание Global Finance, Уганда заема 25-то място, Кения - 52-ро, Индия - 66-то. Sama нарича себе си привърженик на етичната употреба на AI и твърди, че е помогнала на повече от 50 000 души да се измъкнат от бедността.


.

За разследването журналистите разговаряли с четирима служители на компанията, които са работили по проекта за ChatGPT, а също така са проучили вътрешни документи на OpenAI и Sama.


Проверката на Time установява, че от ноември 2021 г. OpenAI, с посредничеството на Sama са изпратили десетки хиляди текстови фрагменти „от най-тъмните ъгли на Интернет“ : „Някои от тях описват подробно сексуално насилие над деца, зоофилия, убийство, самоубийство, изтезания, самонараняване и кръвосмешение“. 


Задачата на служителите била да открият и маркират по подходящ начин такива текстови фрагменти. Един от служителите на Sama твърди, че по време на работа е прочел описание за секс между мъж и куче в присъствието на дете, след което е сънувал непрестанни кошмари. 


Според разследването наетите служители са получавали между 1,32 и 2 долара на час, а нивото на заплатата зависело от трудовия стаж и нивото на производителност. 


Изнесените служители трябвало да четат по 150–250 текстови фрагменти и да ги маркират в рамките на десет часова смяна. Всеки фрагмент съдържа от 100 до повече от 1000 думи.


.

Служителите на Sama имали право да посещават индивидуални консултации и „здравни програми за облекчаване на стреса“. 


Четиримата от събеседници на Time са споделили, че работата ужасно ги е травмирала. 


През февруари 2022 г. OpenAI и Sama прекратиха преждевременно сътрудничеството си, осем месеца по-рано от предвиденото в договорите. Според Time, преди това OpenAI е започнала да работи по проект, който не е бил свързан с ChatGPT, и беше помолен да обработи 1400 изображения с потенциално незаконно съдържание, като изнасилване, сексуално робство, малтретиране на деца и изображения на смърт. 


OpenAI обяснява, че това е „необходимо“ за повишаване на сигурността на своите AI проекти.


Веднага щом от ръководството на Sama научили за такова искане, обявили края на съвместните проекти с OpenAI. 


В разговор с Time представител на Sama обяснява: „Тези, които са работили с клиента, не са проверили заявката по необходимите канали. След проучване на ситуацията някои хора бяха уволнени, въведени бяха нови правила и ограничения“. 


OpenAI потвърждава заявките на такова искане, но отбелязва, че никога не е било планирано да събира данни за сексуално насилие срещу деца:


 „Такова съдържание не се използва в нашите филтри и ние молим служителите да го избягват. Веднага щом Sama съобщава, че се опитва да обработи съдържанието на тази категория, ние обяснихме, че е станало недоразумение и че не ни е нужно."


Според събеседниците на Time друга причина Sama да спре да работи с OpenAI е февруарското разследване на изданието за модераторите на съдържание във Facebook в Африка, които трябвало да гледат снимки и видеоклипове на изнасилвания, екзекуции и други жестоки неща срещу $1,50 на час. Тези модератори също бяха наети от Sama.


По данни на Time, Между Open AI и Sama са сключени три договора за общо 200 хиляди долара — всичките в края на 2021 г. OpenAI заявява, че към момента на предсрочното прекратяване на споразумението услугите са били извършени за 150 хиляди долара. Последната партида от данни на Samaе била предоставена на OpenAI през март 2022 г.


Един от модераторите на Sama разказва за среща с HR през февруари 2022 г.: „Казаха ни, че те [ръководството] не искат да подлагат подчинените си на гледане на такова [опасно] съдържание отново. Отговорихме, че така осигуряваме семействата си“. Според публикацията повечето от трите дузини служители са били прехвърлени към други нископлатени проекти, а останалите напълно са загубили работата си.

 

Превод и редакция Констанца Илиева


Препоръчай Сподели
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Ads / Реклама
Ads / Реклама