Европейският съюз ще се нуждае от още поне една година, за да реши как да прилага своите нови дигитални правила спрямо ChatGPT и рисковете от изкуствения интелект, съобщава Politico.
Използването на чатбота расте лавинообразно в Европа, а OpenAI обяви този месец, че над 120 милиона души месечно използват функцията му за търсене. Това автоматично поставя ChatGPT над прага от 45 милиона активни потребители, определен от Закона за цифровите услуги (DSA), което го прави обект на най-строгите регулаторни изисквания в ЕС.
Въпреки това Европейската комисия все още не е решила как точно да класифицира ChatGPT — дали като търсачка, онлайн платформа или цялостна услуга с интегрирани алгоритми. Решение се очаква едва през средата на 2026 г., казва високопоставен източник от Комисията.
Закон, писан преди ерата на изкуствения интелект
DSA влезе в сила в началото на 2024 г., но не предвижда конкретно модели като ChatGPT. Това поставя Брюксел в неудобна позиция — рискува да изостане в контрола над най-бързоразвиващата се AI технология.
„OpenAI ще трябва сериозно да повиши стандартите си — вече няма да става с копи-пейст от досегашните политики,“ коментира Матиас Вермеулен от брюкселската консултантска агенция AWO.
				
Компанията не отговори пряко на критиките, но посочи страниците си с информация за спазване на DSA.
Възможни глоби и регулаторен сблъсък
ChatGPT вече попада под обхвата и на Закона за изкуствения интелект (AI Act), който изисква от компаниите да оценяват и ограничават рисковете, с глоби до 15 милиона евро при неспазване.
Ако бъде официално класифициран като „много голяма онлайн платформа“ (VLOP) или „търсачка“ (VLOSE) по DSA, OpenAI ще бъде подложен на още по-строг контрол и може да понесе глоби до 6% от глобалния си оборот.
Решението какво точно ще се изисква от компанията зависи от тълкуването на Комисията – дали ще се отнася само до функцията за търсене или до целия модел на ChatGPT.
Сблъсък между два закона
Въпросът как ще се съчетаят двете ключови регулации – DSA и AI Act – остава открит.
DSA е насочен към рисковете за обществото (дезинформация, избори, обществено здраве), докато AI Act класифицира самите модели по нива на риск – „висок“, „ограничен“ или „минимален“.
Според експерти двата режима не са напълно съвместими, което може да доведе до пропуски в оценката на рисковете и дори до двойно регулиране.
„Някои аспекти като дезинформацията и дълбоките фалшификации ще бъдат покрити от DSA, но други – например използването на ChatGPT при наемане на работа – остават под AI Act,“ обяснява Жоао Педро Кинтайш от Амстердамския университет.
				
Екзистенциален тест за ЕС
За Брюксел случаят с ChatGPT е тест за способността на ЕС да прилага собствения си регулаторен модел в свят, където изкуственият интелект вече замества традиционните търсачки и социални платформи.
Докато решенията се бавят, ChatGPT се превръща в ежедневен инструмент за милиони европейци, а институциите тепърва се опитват да разберат дали законите им изобщо могат да го обхванат.