Регулиране на изкуствения интелект: Правен анализ на Акта за изкуствения интелект на ЕС и глобалните тенденции

09.01.2026

Корпоративни клиенти

Две скорошни развития в регулирането на изкуствения интелект—влизането в сила на Акта за изкуствения интелект на Европейския съюз и ускоряващите се национални регулаторни инициативи в множество юрисдикции—изясниха няколко ключови правни въпроса, релевантни за практикуващи юристи и организации, работещи с AI системи. В ЕС Актът за изкуствен интелект създава цялостна хоризонтална правна рамка, регулираща разработването, разпространението и използването на AI системи. Паралелно, други юрисдикции, включително Обединеното кралство и Южна Корея, приеха национални закони и регулаторни рамки за AI, които както отразяват, така и се отклоняват от подхода на ЕС. Тези развития носят важни задължения за съответствие, въпроси за разпределение на риска и измерения на правоприлагането за субекти, разработващи или използващи AI в световен мащаб.

Европейски съюз: Актът за изкуствен интелект (Регламент (ЕС) 2024/1689)

Актът за изкуствен интелект на ЕС, публикуван на 13 юли 2024 г., е първата цялостна правна рамка, регулираща AI системите въз основа на риск, защита на основните права и изисквания за управление. Регламентът се прилага не само към субекти в ЕС, но и към доставчици извън ЕС, чиито AI системи засягат физически или юридически лица в региона.

Правна рамка и обхват

Съгласно Акта за изкуствен интелект, AI системата се дефинира широко и обхваща софтуер, използващ машинно обучение, логически или статистически техники за генериране на резултати за вземане на решения или създаване на съдържание. Законодателството приема екстериториален обхват: AI системи, разработени, предоставени или използвани извън ЕС, подлежат на неговите задължения, когато съществено засягат лица или пазари в ЕС. Правната дефиниция на „доставчик“ обхваща физически или юридически лица, пускащи AI система на пазара, независимо от местоположението.

Рисковата категоризация на Акта разделя AI системите на:

  • Системи с неприемлив риск, които са забранени при всички обстоятелства (например социално оценяване от публични органи, AI, който манипулира поведението по начини, съществено вредни за правата).
  • Системи с висок риск, които задействат строги правни изисквания, включително оценки на риска, мерки за управление на данните, човешки надзор и задължителни оценки на съответствието преди навлизане на пазара на ЕС.
  • Системи за изкуствен интелект с обща цел (GPAI), подлежащи на градуирани задължения като повишена прозрачност и изисквания за документация, особено когато са предлагани или адаптирани за приложения с високо въздействие.
  • Системи с ограничен/минимален риск, които подлежат на пропорционални задължения за прозрачност.

Задължения за висок риск и прозрачност

За AI системи с висок риск Актът предписва детайлен режим на съответствие, който включва:

  • Системи за управление на риска през целия жизнен цикъл на AI системата, включително предварителна оценка преди внедряване и непрекъснат мониторинг след пускане на пазара.
  • Техническа документация, позволяваща на компетентните органи да оценят съответствието, включително записи на проектни решения, използвани набори от данни, показатели за ефективност и протоколи за управление.
  • Механизми за човешки надзор за предотвратяване или смекчаване на рискове за здравето, основните права, безопасността и други защитени интереси.

GPAI моделите—особено големите езикови модели и други системи с широки възможности—са изправени пред специфични, системни изисквания за прозрачност, включително публично достъпна документация за източници на данни за обучение, известни ограничения и оценки за безопасност.

Управление на данни и пресичане с GDPR

Актът за изкуствен интелект изрично интегрира задълженията за защита на данните, като изисква съответствие с Общия регламент за защита на данните (GDPR), когато лични данни се обработват от AI система. Това включва провеждането на оценки на въздействието върху защитата на данните (DPIA), когато е необходимо, прилагането на подходящи технически и организационни мерки и съответствие с принципите за защита на личните данни по проектиране и по подразбиране. Разпоредбите на Акта за управление на данни допълват, но не заместват изискванията на GDPR, укрепвайки правното задължение за стабилни механизми за защита на личните данни в жизнения цикъл на AI.

Правоприлагане и санкции

Националните компетентни органи (NCA) и Европейската служба за изкуствен интелект са оправомощени да налагат спазване, разследват потенциални нарушения и налагат административни санкции. Актът за изкуствен интелект разрешава глоби до значителен процент от глобалния годишен оборот за сериозни нарушения, отразявайки възпиращата цел на законодателството. Правомощията за правоприлагане включват надзор на пазара, коригиращи мерки и заповеди за спиране на несъответстващи системи.

Ключови правни заключения за практикуващи

Субектите трябва да:

  • Оценка на обхвата: Субектите трябва да анализират дали техните AI системи се квалифицират като „AI“ според Акта и дали се предлагат, внедряват или засягат интереси в ЕС.
  • Рискова категоризация: Необходима е задълбочена правна оценка, за да се определи дали системата е с висок риск, GPAI или подлежи на други специфични задължения.
  • Оценка на съответствието: Преди пускането на AI системи с висок риск на пазара на ЕС, доставчиците трябва да завършат оценки на съответствието и да могат да демонстрират спазване на всички съществени и процедурни задължения.
  • Документация и прозрачност: Задължителни са изчерпателни записи, подкрепящи съответствието, намаляването на риска и прозрачността, както за вътрешно управление, така и за потенциална проверка от NCA.
  • Забранени практики: Доставчиците и внедрителите трябва да гарантират, че AI системите не се ангажират с практики, категоризирани като неприемлив риск, тъй като такива нарушения подлежат на строга забрана и значителни санкции.

Обединено кралство: Регулиране и насоки за AI

Въпреки че Обединеното кралство вече не е обвързано от законодателството на ЕС след Брексит, британските власти активно са преследвали рамки за управление на AI, които „огледалят и модифицират“ концепциите на ЕС, като същевременно запазват регулаторната автономия. Подходът на ОК подчертава секторно-специфични регулаторни принципи, а не единствен хоризонтален закон.

Регулаторна архитектура

В Обединеното кралство регулаторният надзор е разпределен между съществуващите секторни регулатори с допълнителни насоки, издадени от Центъра за етика и иновации в данните (CDEI) и политически изявления от Департамента за наука, иновации и технологии (DSIT). Регулаторните инструменти и насоки се фокусират върху:

  • Пропорционално регулиране, калибрирано спрямо риска.
  • Подходи, благоприятстващи иновациите чрез регулаторни пясъчници.
  • Принципи за прозрачност и безопасност, съответстващи на целите за обществено доверие.

За разлика от Акта за изкуствен интелект на ЕС, рамката на ОК не налага единствен законов режим с наказателни или административни санкции, специфични за AI системи във всички сектори. Вместо това правоприлагането обикновено възниква чрез съществуващи правни механизми—като законодателство за защита на потребителите, законодателство за защита на данните (UK GDPR) и секторно-специфични регулаторни правила (например изисквания за поведение във финансовите услуги).

Поверителност, обществен интерес и съдебен надзор

Британската юриспруденция е подчертала взаимодействието между договорна или регулаторна поверителност и обществения интерес от прозрачност, особено когато регулаторна проверка или съдебен надзор са включени. Това е релевантно в AI контексти, където собствени данни за обучение, изходен код или архитектура на модела могат да се третират като поверителна информация. Съдилищата могат да претеглят очакванията за поверителност спрямо принципите на откритото правосъдие и регулаторния надзор, особено в случаи, когато възникват съдебни спорове или правоприлагане, включващи фундаментални правни въпроси, които засягат по-широки обществени интереси.

Национални закони за AI и глобална регулаторна конвергенция

Извън ЕС и ОК, няколко държави и региона развиват AI регулаторни рамки, които влияят върху пейзажа на управлението за мултинационални организации:

  • Южна Корея е напреднала със своя AI Basic Act, установяващ широки задължения за безопасност, прозрачност и етично използване на AI, с механизми за правоприлагане, планирани да влязат в сила в началото на 2026 г.
  • Съединените щати: регулатори на федерално и щатско ниво издават насоки и правила, насочени към специфични AI приложения—като защита на потребителите, практики при наемане на работа и алгоритмична справедливост—черпейки от, но отклонявайки се по подход от рисковата категоризация на ЕС.
  • Страни от Азиатско-тихоокеанския регион и Близкия изток издават секторно-фокусирани AI политики, често в области като автономни превозни средства, приложения във финтех и AI в здравеопазването.

Тези разнообразни регулаторни модели подчертават фрагментиран, но все по-конвергентен глобален подход към управлението на AI, като много юрисдикции включват рискови принципи, мандати за справедливост и изисквания за документация и човешки надзор.

Възникващи правни въпроси и тенденции в съответствието

Етични гаранции и антидискриминация

Регулаторите подчертават намаляването на предубежденията и дискриминационните резултати от AI системите. Правните практикуващи трябва да гарантират, че одитите за справедливост и протоколите за смекчаване на предубеждения са интегрирани в работните процеси на проектиране и внедряване като въпроси на правно съответствие и управление на риска.

Отговорност и подотчетност

С нарастването на автономността и сложността на AI системите, правните рамки могат да въведат по-ясни стандарти за отговорност за продукти и механизми за подотчетност—включително потенциални изисквания за задължително застраховане или финансови гаранции за внедрявания на AI с висок риск.

Адаптивно и отзивчиво регулиране

Предвид бързото темпо на иновациите в AI, регулаторните рамки все повече включват механизми за итеративни актуализации, адаптивни стандарти и структурирани обратни връзки, включващи индустрията, гражданското общество и технически експерти.

Заключение

Актът за изкуствен интелект на ЕС представлява знаково правно развитие и служи като еталон за управлението на AI в глобален мащаб. Съответствието с рисковите задължения на Акта, задълженията за прозрачност и механизмите за правоприлагане е правен императив за субекти, опериращи на или засягащи пазара на ЕС. В същото време националните AI регулаторни рамки в ОК, Южна Корея и други юрисдикции демонстрират възникващ глобален модел, който интегрира намаляване на риска, етични гаранции и подотчетност в жизнените цикли на AI.

За вътрешни юридически съветници, служители по съответствието и практикуващи в областта на AI, настоящата регулаторна среда налага строг правен анализ, структурирани рамки за управление и проактивно ангажиране с развиващите се правни норми. Бъдещето на регулирането на AI вероятно ще бъде дефинирано от взаимодействието на хоризонтални правила, секторни мандати и усилия за трансгранична хармонизация—всички проектирани да балансират иновациите, конкурентоспособността и защитата на основните права.

© New Balkans Law Office 2026

Дейността на българските и международно квалифицирани адвокати на New Balkans Law Office се регулира от съответната адвокатска колегия по регистрация. New Balkans Law Office е търговска марка на „Лигъл сървисиз“ ЕООД, дружество, регистрирано по българското законодателство с ЕИК 202331677. Допълнителни подробности можете да откриете тук.

© New Balkans Law Office 2026