Root NationСтатииАнализЗащо ЕС иска да стане регулатор на ИИ и как планира да го направи

Защо ЕС иска да стане регулатор на ИИ и как планира да го направи

-

Европейският парламент одобри проектозакона, който ще стане основата на бъдещия закон за правилата за регулиране на ИИ. Нека се опитаме да разберем какво е то Закон за ИИ на ЕС.

На първо място, Законът за ИИ на ЕС трябва да стане първият закон в света, който цялостно регулира проблемите, свързани с ИИ. Засега е одобрен само проектът, а не самият закон. Сега той ще бъде представен на парламентите на 27 страни членки на ЕС за приемане на окончателния вариант. Тоест, ЕС се опитва да се превърне в своеобразен регулатор на AI, да установи определени рамки и ограничения при разработването и внедряването на AI алгоритми и машинно обучение.

Също интересно: Роботите на бъдещето: ще получи ли изкуственият интелект тяло?

Европейският съюз иска да регулира изкуствения интелект

Европейският съюз има за цел да сложи край на хаоса на пазара за използване на AI алгоритми и поема регулирането на нови разновидности на изкуствения интелект. Европейският парламент ускори работата по предложения закон за изкуствения интелект, който трябва да въведе правила за прилагането на нови програми за изкуствен интелект и дори да забрани използването им в определени области от живота.

В момента се водят дискусии за формата на такава регулация с оглед на текущото развитие на ИИ. По същество евродепутатите искат да запишат в закона разликата между изкуствения интелект с общо предназначение и фундаменталните модели, като се очаква законите да се прилагат по-стриктно към вторите. Това изменение на предложените по-рано разпоредби е причинено от бързото развитие на ИИ през последните месеци. И двете форми на изкуствен интелект се различават една от друга по мащаба на обучителните данни, адаптивността и вероятността за използване за непредвидени цели.

Закон за ИИ на ЕС

Всички тези параметри са по-високи именно във фундаменталните модели, особено в генеративния AI, който е в основата на такива модели като GPT-3 и GPT-4. Те обработват огромно количество данни, което непрекъснато се разширява в процеса на работа. Следователно те могат бързо да научат нови данни, които могат да бъдат използвани по напълно различен начин от предвидения от създателите.

Въз основа на новите насоки ще бъде разработена тристепенна класификация на групите въз основа на потенциалните заплахи, до които AI може да доведе. Най-високите степени на риск ще означават ограничаване на използването на технологии за машинно обучение в чувствителни сектори, а в някои случаи дори пълната им забрана.

След въвеждането на Закона за изкуствения интелект, разработчикът на технологията ще трябва да изпълни редица условия, преди да я пусне на пазара, като например да я тества за заплахи за демокрацията или сигурността под наблюдението на независими експерти, да отговаря на изискванията за прозрачност, или разкриване на изчислителната мощност на модела. В същото време фундаменталните модели не могат да се използват за създаване на системи за социално оценяване (както в Китай) или биометрична идентификация.

Също интересно: Какво представляват 6G мрежите и защо са необходими?

- Реклама -

Какво представлява Законът на ЕС за изкуствения интелект?

Законът за ИИ на ЕС е предложеният от Европейския съюз закон за изкуствения интелект и е първият закон за ИИ, приет от голям регулаторен орган. Законът регламентира използването на ИИ според три рискови категории. Първо, програми и системи, които създават неприемливи социални рискове, ще бъдат забранени, като държавната социална оценка, използвана в Китай. Второ, има високорискови програми, като например инструменти за сканиране на автобиографии, които класират кандидатите за работа, които трябва да отговарят на определени законови изисквания. И накрая, програми, които не са изрично забранени или посочени като високорискови и които до голяма степен са нерегулирани.

Закон за ИИ на ЕС

Европейският съюз работи върху Закона за изкуствения интелект, т.е. закони и разпоредби за използването на изкуствен интелект, насочени към ограничаване на вредите, които може да причини на хората.

Това е подход, основан на общи етични ценности, важни за Съюза, което го противопоставя на китайския подход - основан на пълен държавен контрол и малко значение за индивидуалните права - и в опозиция на американския модел, който пренебрегва правата от най-уязвимите граждани.

Европейската комисия има за цел да създаде европейска регулаторна среда за принципите на изкуствения интелект. Целта на Закона за изкуствения интелект е да регулира технологичния пазар не по вид услуга или продукт, а по нивото на риск, който AI може да причини.

Също интересно: Дневникът на един сърдит стар гийк: Bing срещу Google

Защо се нуждаем от правила за AI?

Предложеният регламент за ИИ гарантира, че европейците могат да се доверят на това, което ИИ може да предложи. Докато повечето системи с изкуствен интелект представляват малък или никакъв риск и могат да допринесат за решаването на много обществени проблеми, някои системи с изкуствен интелект представляват заплахи, които трябва да вземем предвид, за да избегнем нежелани резултати.

Например, често е невъзможно да се разбере защо системата за изкуствен интелект е взела определено решение, е дала прогноза или е предприела подходящо действие. По този начин може да стане трудно да се прецени дали дадено лице е било несправедливо ощетено, например при решение за наемане или кандидатстване за програма за социални помощи.

Закон за ИИ на ЕС

Въпреки че действащото законодателство осигурява известна защита, то е недостатъчно за справяне със специфичните проблеми, които системите с ИИ могат да създадат.

Бяха предложени следните правила:

  • елиминирайте рисковете, създадени специално от AI програми
  • предложете списък с високорискови програми
  • задайте ясни изисквания за AI системи за високорискови приложения
  • определяне на конкретни задължения за потребителите на AI и доставчиците на високорисков софтуер
  • предлагат оценка на съответствието, преди дадена AI система да бъде пусната в експлоатация или пусната на пазара
  • предложи области на приложение след пускането на такава AI система на пазара;
  • предложи структура на управление на европейско и национално ниво.

Също интересно: Най-добрите инструменти, базирани на изкуствен интелект

Четири нива на риск в AI

Юристите на Европейския съюз определиха правна рамка, която определя 4 нива на риск в AI:

  • Неприемлив риск
  • Висок риск
  • Ограничен риск
  • Минимален или никакъв риск

Нека анализираме всеки от тях по-подробно.

Закон за ИИ на ЕС

- Реклама -

Неприемлив риск

Както подсказва името, тази степен на риск е неприемлива при разработването и използването на AI алгоритми. Това означава, че всички системи с изкуствен интелект, считани за явна заплаха за сигурността, поминъка и правата на хората, ще бъдат забранени, от социалните оценки от правителствата до играчките с гласова помощ, които насърчават опасно поведение.

Висок риск

AI системите, използвани в следните области, бяха класифицирани като високорискови:

  • критична инфраструктура (например транспорт), която може да застраши живота и здравето на гражданите
  • образователно или професионално обучение, което може да определи достъпа до образование и професионалния път на дадено лице (например изчисляване на резултатите от изпитите)
  • компоненти на безопасността на продукта или прилагането на изкуствен интелект, например в хирургията
  • заетост, управление на работната сила и достъп до самостоятелна заетост (напр. софтуер за проверка на CV за процедури за набиране на персонал)
  • основни частни и обществени услуги (например кредитна оценка, която лишава гражданите от възможността да получат заем)
  • действия на правоприлагащите органи, които могат да ограничат основните права на хората в областта на правосъдието (например оценка на достоверността на доказателствата)
  • управление на миграцията, убежище и граничен контрол (напр. проверка на автентичността на документите за пътуване)
  • администрирането на правосъдието и демократичните процеси (напр. прилагането на закона към определен набор от факти).

Беше определено, че високорисковите AI системи ще отговарят на строги изисквания, преди да могат да бъдат пуснати на пазара:

  • адекватни системи за оценка и смекчаване на риска
  • висококачествени набори от данни, захранващи системата, за минимизиране на рисковете и дискриминационните резултати
  • регистриране на активността, за да се осигури проследяване на резултатите
  • подробна документация, съдържаща цялата необходима информация за системата и нейното предназначение, така че властите да могат да оценят нейното съответствие с изискванията
  • ясна и адекватна информация за потребителя
  • подходящи мерки за човешки надзор за минимизиране на рисковете
  • високо ниво на надеждност, безопасност и точност.

Сега за един от най-важните аспекти, които плашеха почти всички. Всички системи за дистанционна биометрична идентификация се считат за високорискови и подлежат на строги изисквания. Използването на дистанционна биометрична идентификация на обществени места за целите на правоприлагането е принципно забранено.

Предвидени са строго определени и регламентирани изключения, например когато е необходимо да се издири изчезнало дете, да се предотвратят конкретни и непосредствени терористични заплахи или да се открие, локализира, идентифицира или преследва престъпник или заподозрян в тежко престъпление.

Такова използване изисква разрешение от съдебен или друг независим орган и има подходящи ограничения по отношение на време, географско покритие и търсени бази данни.

Ограничен риск

Ограниченият риск се отнася до AI системи с определени задължения за прозрачност. Когато използват системи с изкуствен интелект като chatbots, потребителите трябва да знаят, че взаимодействат с машина, за да могат да вземат информирано решение да продължат или да се оттеглят.

Това означава, че никой няма да забрани ChatGPT, но разработчиците трябва да разкрият подробности за своята работа и бъдещи планове. Потребителите трябва да разбират рисковете, които ги очакват, ако разчитат на надеждността на информацията, получена от чатботове.

Минимален или никакъв риск

Европейската комисия позволява безплатно използване на AI с минимален риск. Това включва приложения като видеоигри с активиран изкуствен интелект или филтри за спам. По-голямата част от AI системите, използвани в момента в ЕС, попадат в тази категория.

Закон за ИИ на ЕС

Когато AI система навлезе на пазара, властите са отговорни за надзора на пазара, потребителите осигуряват човешки надзор и мониторинг, а доставчиците разполагат със система за постмаркетингово наблюдение. Доставчиците и потребителите също ще докладват за сериозни инциденти и неизправности.

Прочетете също: 7 най-готини употреби на ChatGPT

Защо трябва да те интересува?

Програмите за изкуствен интелект влияят на информацията, която виждате онлайн, предвиждат какво съдържание ви интересува, събират и анализират данни за прилагане на закони или персонализиране на реклами и се използват за диагностициране и лечение на неща като рак. С други думи, AI засяга много области от живота ви.

Закон за ИИ на ЕС

Подобно на Общия регламент за защита на данните на ЕС (GDPR) от 2018 г., Законът за ИИ на ЕС може да се превърне в глобален стандарт, който определя дали ИИ ще има положително, а не отрицателно въздействие върху живота ви, където и да сте. Регулирането на изкуствения интелект в ЕС вече предизвиква известен международен резонанс. В края на септември 2021 г. Бразилският конгрес също прие законопроект, който създава правна рамка за използването на изкуствен интелект. Все още трябва да бъде одобрен от Сената на страната.

Законодателство, ориентирано към бъдещето

Тъй като изкуственият интелект е бързо развиваща се технология, предложението възприема подход, насочен към бъдещето, който позволява правилата да се адаптират към технологичните промени. Приложенията за изкуствен интелект трябва да останат надеждни дори след пускането им на пазара. Това изисква непрекъснато управление на качеството и риска от доставчиците.

Закон за ИИ на ЕС

Подобен закон трябва да принуди производителите и доставчиците на AI алгоритми да бъдат по-отговорни към своите разработки. Да бъдем по-социални, а не да мислим само за ръст на приходите и неконтролирани експерименти.

Законът за ИИ на ЕС е първата регулация на изкуствения интелект

Законът на ЕС за изкуствения интелект трябва да се превърне в първия закон в света, който цялостно регулира въпросите, свързани с изкуствения интелект.

Това е революционно решение за регулиране на изкуствения интелект въз основа на неговия потенциал да причинява вреда. Ще бъде забранено да се използва, например, в системи за социално оценяване, биометрична идентификация в реално време или подсъзнателна манипулация. Идентифицирана е и група от програми с висок риск, например в медицинската диагностика или съдебната система. В групата на системите с ограничен риск трябва да се установят само задължения за прозрачност.

Закон за ИИ на ЕС

В предложения законопроект има няколко вратички и изключения. Тези недостатъци ограничават способността на Закона да гарантира, че ИИ остава сила за добро в живота ви. В момента, например, разпознаването на лица от полицията е забранено, освен ако изображението не е заснето със закъснение или ако технологията се използва за намиране на изчезнали деца.

Освен това законът е негъвкав. Ако след две години опасно AI приложение бъде използвано в непредвидена област, законът не предвижда механизъм, който да го маркира като "висок риск".

Действието на ИИ е преди всичко прозрачност, способността да се обясняват събитията и способността да се носи отговорност за тях, тоест способността да се определи кой или какво е отговорен за това или онова събитие. Законът за изкуствения интелект също трябва да се превърне в правна основа за създаването на нов орган за изкуствен интелект, който да подпомага държавите членки по технически въпроси.

Прочетете също: От CUDA до AI: Тайните на успеха NVIDIA

Технологичните гиганти ще платят скъпо за нарушаването на законодателството на ЕС за изкуствения интелект

Предложената директива ще се прилага само за искове за щети, произтичащи от използването на AI или когато системата AI не е в състояние да произведе резултат поради вина на лице, като например доставчик или потребител. Директивата обаче не се прилага за искове за гражданска отговорност, ако щетите са причинени от човешка оценка и последващи действия или пропуски, докато системата AI предоставя само информация или съвет, които са взети предвид от съответния участник. В последния случай щетите, произтичащи от човешки действия или бездействия, могат да бъдат проследени, тъй като изходът на AI системата не е поставен между човешките действия или бездействия и щетите.

Закон за ИИ на ЕС

Нарушаването на забраната ще доведе до финансови санкции за доставчиците на определени технологии. Те могат да достигнат 30 милиона евро или 6 процента от годишните глобални приходи на компанията.

Разбира се, приемането на такива решения ще зависи от решенията на страните-членки на Европейския съюз, но вече можем да кажем, че това е наистина историческа стъпка. Технологията за изкуствен интелект има огромен потенциал, който може да се използва положително за развитието на икономиката. В същото време има много рискове. Затова законодателството се опитва да ги ограничи, но не и да ги забрани.

В допълнение към приемането на ново законодателство относно изкуствения интелект, ЕС също така възнамерява да работи със САЩ върху доброволен кодекс за поведение относно технологията, който се очаква да бъде готов скоро и може да бъде предложен на други страни, които следват подобни принципи.

Законът за изкуствения интелект също трябва да формира основата за създаването на Службата за изкуствен интелект. Той има за цел да подпомогне държавите членки и техните органи при прилагането на новия регламент чрез техническа експертиза, както и да улесни координирането на решения в случай на проблеми, които ще засегнат повече от една държава.

Прочетете също:

Yuri Svitlyk
Yuri Svitlyk
Син на Карпатите, непризнат гений на математиката, "адвокат"Microsoft, практичен алтруист, ляво-дясно
- Реклама -
Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари