Новото законодателство на ЕС за изкуствен интелект гарантира сигурност и насърчава иновациите в сферата на AI
На 1 август тази година официално влезе в сила знаковия Европейски закон за изкуствен интелект (AI Act), с което ЕС става първата юрисдикция в света с всеобхватно регулиране на изкуствения интелект. Целта на този акт е да гарантира, че ИИ, разработен и използван в ЕС, е надежден и предлага защита на основните права на гражданите. Регулацията е насочена към създаване на хомогенен вътрешен пазар за Artificial Intellegence в ЕС, насърчавайки приемането на тази технология и създавайки подкрепяща среда за иновации и инвестиции.
AI Act предлага напредничава дефиниция на изкуствения интелект, базирана на подход за безопасност на продукта и оценка на риска:
- Минимален риск: Повечето системи, като системи за препоръки и филтри за спам, попадат в тази категория и не подлежат на задължения по AI Act. Компаниите могат доброволно да приемат допълнителни кодекси на поведение.
- Специфичен риск от прозрачност: Системи като чатботове трябва ясно да информират потребителите, че взаимодействат с машина. Определено ИИ генерирано съдържание, включително дълбоки фалшификати, трябва да бъде маркирано, а потребителите трябва да бъдат информирани за използването на биометрична категоризация или системи за разпознаване на емоции.
- Висок риск: ИИ системи с висок риск ще трябва да спазват строги изисквания, включително системи за управление на риска, високо качество на данните, регистрация на дейността, подробна документация и високи нива на сигурност и надеждност. Регулаторни пясъчници ще улеснят отговорната иновация и развитието на съответстващи на регулацията ИИ системи. Примери за високо рискови ИИ системи включват тези, използвани за подбор на персонал или оценка на правото на заем.
- Неприемлив риск: ИИ системи, които представляват ясна заплаха за основните права на хората, ще бъдат забранени. Това включва ИИ системи, които манипулират човешкото поведение и приложения за социално оценяване от правителства или компании.
Прилагане и изпълнение на правилата
Държавите членки имат срок до 2 август 2025 г. за назначаване на национални компетентни органи, които ще наблюдават прилагането на правилата за ИИ и ще извършват пазарен надзор. AI Office на Комисията ще бъде ключовият орган за прилагането на AI Act на ниво ЕС и ще осъществява контрола върху правилата за общопотребителските ИИ модели.
Три консултативни органа ще подпомагат прилагането на правилата. Европейският комитет по изкуствен интелект ще осигурява равномерно приложение на AI Act в ЕС и ще действа като основно звено за сътрудничество между Комисията и държавите членки. Научна комисия от независими експерти ще предоставя технически съвети и информация за изпълнението, а форум на заинтересованите страни ще предлага насоки.
Какви са рестрикциите и в какво се състои контрола при неспазване на регулациите?
Компаниите, които не спазват правилата, ще бъдат санкционирани с глоби, които могат да достигнат до 7% от глобалния годишен оборот за нарушения на забранени ИИ приложения, до 3% за нарушения на други задължения и до 1.5% за предоставяне на неверни данни. Повечето от правилата на AI Act ще влязат в сила на 2 август 2026 г., но забраните за ИИ системи с неприемлив риск ще се прилагат след шест месеца, а правилата за общопотребителските ИИ модели – след 12 месеца.
За да се преодолее преходния период преди пълното прилагане, Комисията стартира AI Pact – инициатива, която насърчава разработчиците на ИИ да приемат ключови задължения от AI Act преди законовите срокове. Комисията също така разработва насоки и улеснява сътрудничеството чрез стандарти и кодекси на практика, и обяви покана за участие в съставянето на първия кодекс на практика за общопотребителските ИИ модели.