Какво да очакваме от новия Акт за изкуствения интелект?

pexels-pavel-danilyuk-8294629

На 21 април 2021 г. Европейската комисия публикува своя дългоочакван Акт за изкуствения интелект (ИИ). Това е най-амбициозният опит за регулиране на ИИ към момента и очакванията са, че той ще служи за пример на законодателите по цял свят. От Цифрова република следим отблизо работата върху предложението и вижданията за неговото бъдеще, изразени от различни заинтересовани страни. За подробен преглед на съдържанието на първоначалното предложение на Комисията, можете да слушате участието на Ана Лазарова в тематичния епизод на Етикаст по-рано тази година.  

В момента Актът за ИИ се обсъжда от Европейския съвет и Европейския парламент като част от обикновената законодателна процедура на ЕС.1 Целите и подхода на регламента се ползват с широка подкрепа, но въпреки това набор от въпроси остават спорни, между които дефиницията на ИИ, обхватът на регулацията и изискванията за високорисковите системи с ИИ.

В настоящата статия ще разгледаме накратко какво точно предвижда т.нар. Акт за ИИ, кои са неговите най-спорни аспекти, какво следва за регулацията на изкуствения интелект в Европа и как се отразяват на процеса скорошните скандали около непрозрачността на алгоритмите на социалните мрежи, като Facebook files

Какво предвижда предложението?

С предложението си Европейската комисия цели да въведе хоризонтални правила за ИИ, които да гарантират високо равнище на защита на основните човешки права на гражданите на ЕС. Предвидените правила обаче няма да са еднакви за всички системи с ИИ. Регламентът следва основан на риска подход, който разграничава употребите на ИИ според следните нива на риск:

  1. Неприемлив риск – Комисията цели изцяло да забрани определени употреби на ИИ, които представляват съществена заплаха за основните права на европейските граждани. Забранено ще е използването на:
    1. Системи с ИИ, които използват подсъзнателни техники или се възползват от човешки уязвимости, за да манипулират човешкото поведение по начин, който може да причини физически или психологически вреди.
    2. Системи с ИИ, използвани от публични органи или от тяхно име, с цел оценка или класифициране на надеждността на физически лица на база на тяхното социално поведение или личностни характеристики (social scoring, подобен на този в Китай).
    3. Системи с ИИ за дистанционна биометрична идентификация в реално време в обществено достъпни места за целите на правоприлагането (освен ако не става въпрос за борба с тежки престъпления като тероризъм).
  2. Висок риск – това са системи с ИИ, които могат да повлияят на безопасността или основните права на хората и затова следва да бъдат строго регулирани. Списъкът на този вид системи се намира в Приложение 3 към регламента. Част от основните задължения за доставчиците на високорискови ИИ системи включват:
    1. създаване и поддържане система за управление на риска през целия експлоатационен срок; 
    2. спазване на критерии за качество на обучителните, валидационните и изпитвателните данни;
    3. поддържане на техническа документация и автоматично записване на събития (logging);
    4. прозрачност и предоставяне на информация на ползвателите;
    5. разработване, така че върху системата да може да бъде упражняван ефективен надзор от физически лица.
  3. Нисък риск – за тези системи ще се прилагат основно изисквания за прозрачност. Потребителите ще трябва да бъдат информирани, че разговарят с машина (бот) или че тя ги обслужва.
  4. Mинимален риск – това са всички останали системи с ИИ, които могат да бъдат свободно разработвани и изполвани в ЕС без допълнителни задължения. 

Проектът за регламент предвижда не само задължения за доставчиците и ползвателите на ИИ системи, но и определени мерки в подрепа на иновациите в Европа. Актът цели да създаде регулаторни лаборатории в областта на ИИ (regulatory sandboxes), които предоставят контролирана среда за изпитване на иновативни технологии за ограничен период от време. 

Предложението на Комисията определя също и системите за управление на европейско и национално равнище. Предвижда се създаването на Европейски съвет по изкуствен интелект, съставен от представители на държавите членки и на Комисията. На национално равнище, национален надзорен орган ще отговаря за прилагането и изпълнението на регламента. 

За заинтересованите от повече детайли – тук може да откриете отлично обобщение на предложението с коментар на Mauriz Kop. 

Debatable: кои са най-спорните въпроси в регламента?

Една от най-проблематичните теми по време на преговорите в Брюксел е предложената от Комисията дефиниция на термина “система с изкуствен интелект”,2 която много от държавите членки смятат за твърде широка. Според сегашното определение много системи биха попаднали в дефиницията на “ИИ” – от невронни мрежи до по-елементарни статистически формули, които генерират резултати. Важно е да се отбележи, че настоящото определение би обхванало софтуерни автоматизирани системи, дори и да не се основават на сложни технологии за машинно обучение. По-широката дефиниция би гарантирала, че регламентът няма да остави опасни ‘вратички’ за високорискови автоматизирани системи, които могат да застрашат основните права на гражданите.3 

Другата голяма спорна тема е обхватът на забраната за използване на дистанционна биометрична идентификация (като лицево разпознаване) на обществени места от правоприлагащите органи. Европейският надзорен орган по защита на данните препоръчва пълната забрана на технологията, т.е. премахване предвидените в момента изключения в случай на сериозни престъпления като тероризъм. Журналисти от Политико, сдобили се с писмени коментари на държавите членки, съобщават, че България е една от няколкото държави членки, които искат ограничението за дистанционната биометрична идентификация да бъде приложимо и за частни компании.4 

Още повече от същия документ става ясно, че България, Словакия и Австрия искат частните компании да спазват и забраната за ‘social scoring’, предвидена към момента единствено за публичните органи. Българската позиция по тези въпроси е изключително похвална, тъй като разпростирането на предвидените задължения към частните компании ще допринесе значително за защитата на неприкосновеността и правата на гражданите.

Е, и?: последиците на практика и какво следва за регулацията на ИИ

Фокусът на регламента е от една страна да ограничини масовото наблюдение, а от друга – да стимулира иновацията и ИИ стартъпите в Европа. На практика, за дистрибуторите на ИИ системи Актът въвежда повече документация и прозрачност, както и куп изисквания за пускането на продуктите им на европейския пазар. 

Това, за което всички питат след т. нар. Facebook files и което предложението на Комисията обаче не предвижда, е режим за отговорност при вреди. Именно затова, както наблюдава Политико, въпреки нажежените дебати в Съвета и Парламента, големите технологични компании са сравнително спокойни относно приемането на бъдещия регламент. По-особено е положението с предложението за Законодателен акт за цифровите услуги (Digital Services Act, DSA). Това е регламентът, който ще урежда процедурите за модериране на съдържание при цифровите услуги и очакванията са, че именно той ще адресира проблемите на Facebook, за които Frances Haugen съобщи през септември.

За да запълни законодателната дупка относно вредите, причинени от системи с ИИ, Европейската комисия вече започна консултация за актуализиране на Директивата за отговорността за вреди, причинени от дефект на стока. Комисията обмисля създаването на отделни правила за обективна отговорност за вреди, причинени от продукти или услуги с ИИ, „когато използването на ИИ… излага обществото на риск от увреждане на важни ценности като живот, здраве и имущество„. Предложението най-вероятно ще бъде представено през следващото лято.

Отговорността за ИИ може да донесе на технологичните компании, разработващи ИИ, скъпо главоболие, особено в съчетание с новата директива на ЕС за колективни искове. Разходите за привеждане в съответствие и самооценка, следващи от Акта за ИИ, в крайна сметка могат да окажат почти нищо в сравнение с потенциалните съдебни искове за милиарди евро за вреди, причинени от ИИ алгоритми. 

Във всеки случай, походът за регулация на изкуствения интелект и Big Tech тепърва започва. Следете блога на Цифрова република за повече информация относно най-новите законодателни развития в сферата на технологичното право в Европа. Следваща ни статия ще разгледа по-подробно темата за Актът за цифровите услуги (DSA), модерирането на съдържание и регулирането на социалните мрежи във връзка с the Facebook files.


[1]  Виж разписанието на ‘законодателното влакче’ на Акта за ИИ тук.
[2] „Система с изкуствен интелект“ означава софтуер, разработен с една или повече от техниките и подходите, посочени в приложение I, който може по отношение на даден набор от цели, определени от човек, да генерира резултати, като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат (чл. 3. ал. 1 от Предложението).
[3] Защо е важно дефиницията на ИИ да остане широка, виж тук.
[4] Статията е с ограничен достъп и е публикувана в Politico PRO на 19-ти ноември 2021.

Снимка на Pavel Danilyuk от Pexels.

Leave a comment