Root NationСтатииАнализШестте заповеди на изкуствения интелект

Шестте заповеди на изкуствения интелект

-

Следващите години ще бъдат белязани от бързото развитие на технологиите за изкуствен интелект. Може би е необходимо да се въведат ясно дефинирани рамки за създаване и използване на AI? Достатъчни ли са 6 месеца опит, за да регулирате технология, която дори още не е напуснала лабораторията? Този въпрос все по-често идва от устата на експерти и журналисти, когато става дума за изкуствен интелект. Все по-често се чуват гласове и призиви за предприемане на мерки за регулиране на изкуствения интелект – както на потребителско ниво, така и на ниво разработка на проекти. Историята на подобни призиви започва доста отдавна.

Повсеместното присъствие на изкуствения интелект в дигиталното пространство и най-вече на модели, способни да създават съдържание, което няма да се различава от създаденото от хората, предизвиква много различни емоции. От една страна, имаме група ентусиасти, които виждат бъдещето в AI и въпреки сравнително ограничените му възможности (тъй като AI не мисли, а често просто взема информация от интернет), не се страхуват да му поверят много задачи . От другата страна на барикадата е група, която изразява своя скептицизъм и загриженост относно текущите тенденции в развитието на изкуствения интелект.

AI постулат

Мостът между двете групи са изследователите на изкуствения интелект, които, от една страна, цитират множество примери за това как изкуственият интелект е повлиял положително на околната реалност. В същото време те разбират, че е твърде рано да почиват на лаврите си, а огромният технологичен скок носи много предизвикателства и голяма отговорност. Ярък пример за това отношение е международна група от изследователи на изкуствения интелект и машинното обучение, ръководени от д-р Озлем Гарибай от Университета на Централна Флорида. Публикацията от 47 страници, написана от 26 учени от цял ​​свят, идентифицира и описва шест предизвикателства, с които изследователските институции, компаниите и корпорациите трябва да се справят, за да направят своите модели (и софтуера, който ги използва) сигурни.

Да, това е сериозна научна работа с важни обяснения за разбирането на бъдещето на изкуствения интелект. Който се интересува, може самостоятелно прочетете този научен доклад и си направете изводите. С прости думи учените идентифицираха 6 заповеди на изкуствения интелект. Всички разработки и действия на AI трябва да отговарят на тях, така че да са безопасни за хората и света.

AI постулат

В моята статия, написана именно въз основа на този научен труд, ще се опитам да формулирам основните постулати, закони, според които трябва да съществува и да се развива изкуственият интелект. Да, това е моя почти свободна интерпретация на изводите на учените относно развитието на изкуствения интелект и опит да ги представя в, така да се каже, библейски вариант. Но така исках да ви запозная с този научен труд на уважавани учени.

Също интересно: Изграждане на AI: Кой води в надпреварата?

Първият закон: Човешкото благополучие

Първият постулат на изследователите е да се фокусира работата на изкуствения интелект върху благосъстоянието на хората. Поради липсата на "човешки ценности, здрав разум и етика", изкуственият интелект може да действа по начин, който ще доведе до значително влошаване на човешкото благосъстояние. Проблемите могат да бъдат резултат от свръхчовешките способности на AI (например колко лесно AI побеждава хората - и не само на шах), но също и от факта, че AI не мисли самостоятелно и следователно не е в състояние да "филтрира" пристрастия или очевидни грешки.

AI постулат

- Реклама -

Изследователите отбелязват, че прекомерното доверие в технологиите за изкуствен интелект може да повлияе негативно на благосъстоянието на хората. Общество, което има малко разбиране за това как всъщност работят алгоритмите за изкуствен интелект, има тенденция да му се доверява прекалено много или, напротив, има негативно отношение към съдържанието, генерирано от определен модел, по-специално чатботове. Имайки предвид тези и други фактори, екипът на Garibay призовава за поставяне на човешкото благополучие в центъра на бъдещите взаимодействия между ИИ и човека.

Прочетете също: ChatGPT: просто ръководство за потребителя

Втори закон: Отговорност

Отчетността е термин, който продължава да се появява в света на AI в контекста на това, за какво използваме машинно обучение и как точно моделите и алгоритмите на AI се разработват и обучават. Международният екип подчертава, че проектирането, разработването и внедряването на изкуствения интелект трябва да се извършва изключително с добри намерения.

AI постулат

Според тях отговорността трябва да се разглежда не само в технически, но и в правен и етичен контекст. Технологията трябва да се разглежда не само от гледна точка на нейната ефективност, но и в контекста на нейното използване.

"С въвеждането на усъвършенствани техники за машинно обучение става все по-важно да се разбере как е взето решението и кой е отговорен за него” - пишат изследователите.

Трети закон: Поверителност

Поверителността е тема, която се появява като бумеранг във всеки дискурс за технологиите. Особено когато всичко се обсъжда в социалните мрежи. Това обаче е изключително важно за изкуствения интелект, защото той не съществува без база данни. И какво представляват базите данни?

Учените ги описват като „абстракция на основните градивни елементи, които изграждат начина, по който виждаме света“. Тези блокове обикновено са обикновени стойности: цветове, форми, текстури, разстояния, време. Докато тесният AI, фокусиран върху една цел, като например степента, до която затворът се отваря при даден интензитет на светлината, използва публично достъпни обективни данни, AI в по-широки приложения (тук, например, модели от текст към изображение като Midjourney, или езикови модели като ChatGPT ) могат да използват данни за и създадени от хора. Трябва да се споменат и статии в пресата, книги, илюстрации и снимки, публикувани в интернет. Алгоритмите на изкуствения интелект имат достъп до всичко, защото ние самите сме им го дали. В противен случай той няма да знае нищо и няма да даде отговори на нито един въпрос.

AI постулат

Потребителските данни засягат основно както хората, за които се събират тези данни, така и хората в системата, където ще бъдат внедрени алгоритмите за изкуствен интелект.

Следователно третото предизвикателство е свързано с широкото разбиране на неприкосновеността на личния живот и предоставянето на такива права като правото да останеш сам, правото да ограничиш достъпа до себе си, правото на тайна на личния живот или бизнеса, правото да контролираш личните информация, тоест правото на защита на личността, индивидуалността и достойнството. Всичко това трябва да бъде записано в алгоритмите, в противен случай поверителността просто няма да съществува и AI алгоритмите могат да се използват в измамни схеми, както и в криминални престъпления.

Прочетете също: 7 най-готини начина за използване на ChatGPT

Четвърти закон: Структура на проекта

Изкуственият интелект може да бъде изключително прост и с едно предназначение, но в случай на по-големи модели с широк и многозадачен характер, проблемът не е само в поверителността на данните, но и в структурата на дизайна.

Например GPT-4, най-новият модел на изкуствен интелект на OpenAI, въпреки неговия размер и въздействие върху света на ИИ (и извън него), няма напълно публична документация. Тоест, ние нямаме разбиране какви са крайните цели на разработчиците, какво искат да получат в крайния резултат. Поради това не можем да оценим напълно рисковете, свързани с използването на този модел на ИИ. GPT-3, от друга страна, обучен на данни от форума на 4chan, е модел, с който определено не искате да взаимодействате. Форумът на 4chan е едно от най-интересните явления в интернет. Това е пример за абсолютна, тотална анархия, която на практика не е ограничена от никакви рамки. Това е мястото, където са създадени хакерски групи като Anonymous или LulzSec. Той е източник на много от най-популярните мемета, място за обсъждане на спорни теми и публикуване на още по-противоречиви мнения. Въпреки че англоезичният имиджборд отбелязва, че „засега е законно“, това е донякъде съмнително, като се има предвид, че 4chan понякога се ангажира с медиите, включително расистко, нацистко и сексистко съдържание.

AI постулат

- Реклама -

Екипът на професор Гарибей иска всеки модел на изкуствен интелект да работи в ясно дефинирана рамка. Не само заради благосъстоянието на човека, с когото AI взаимодейства, но и поради способността да се оценят рисковете, свързани с използването на модела. Структурата на всеки проект трябва да включва уважение към нуждите, ценностите и желанията на различни културни групи и заинтересовани страни. Процесът на създаване, обучение и фина настройка на ИИ трябва да бъде фокусиран върху благосъстоянието на хората, а крайният продукт – моделът на ИИ – трябва да бъде фокусиран върху повишаване и подобряване на производителността на самата човешка общност. Моделите, при които рисковете не могат да бъдат идентифицирани, трябва да имат ограничен или контролиран достъп. Те не трябва да бъдат заплаха за човечеството, а напротив, да допринасят за развитието на човека и обществото като цяло.

Прочетете също: Twitter в ръцете на Илон Мъск – заплаха или „подобрение“?

Петият закон: управление и независим надзор

Алгоритмите за изкуствен интелект буквално промениха света само за една година. Bard от Google и премиерите на Bing от Microsoft повлия значително на акциите и на двата гиганта на борсата. Между другото, те допринесоха за ръста на акциите на тези компании дори на фона на акциите Apple. ChatGPT започна активно да се използва от учениците, те общуват с него, разглеждат го и задават въпроси. Най-важното е, че той има способността да се самообучава, да коригира грешките си. Изкуственият интелект дори започва да работи в правителствата на някои страни. Такъв е случаят с министър-председателя на Румъния Николае Чука нае виртуален асистент, който ще го информира за нуждите на обществото. Тоест, изкуственият интелект играе все по-важна роля в живота ни.

AI

Като се има предвид непрекъснато нарастващата взаимозависимост между изкуствения интелект, хората и околната среда, учените смятат за необходимо създаването на органи за управление и независим надзор върху неговото развитие. Тези органи ще контролират целия жизнен цикъл на изкуствения интелект: от идеята до разработването и внедряването. Властите ще дефинират правилно различни модели на AI и ще разгледат случаи, свързани с изкуствения интелект и субектите на социалния живот. Тоест изкуственият интелект може да стане обект на съдебни дела, както и съдебни дела. Въпреки че, разбира се, не той лично, а неговите разработчици.

Прочетете също: Всичко за Neuralink: Началото на киберпънк лудостта?

Шестият закон: Взаимодействието на човека и изкуствения интелект

В програмите за изкуствен интелект всеки може да намери нещо за себе си: генерира текст, открива съдържание в изображения, отговаря на въпроси, генерира изображения, разпознава хора в снимки, анализира данни. Тези многобройни употреби не са само проблем за хората, които се опитват да адаптират изкуствения интелект към законовите и етичните стандарти. Мнозина се опасяват, че ще бъдат изместени от пазара на труда от модели на ИИ. Защото алгоритмите за изкуствен интелект ще могат да правят същото по-бързо, по-евтино и може би дори по-добре от човек. В същото време има хора, които разчитат на AI в работата си, т.е. изкуственият интелект вече е незаменим помощник за тях днес.

AI

Но от проучванията, на които се позовават учените, става ясно, че замяната на хората с евтина изкуствена работна ръка е все още доста далеч. Въпреки това те вече настояват за необходимостта от установяване на строга йерархия на взаимодействие между хората и изкуствения интелект. Според тях хората трябва да бъдат поставени над изкуствения интелект. Изкуственият интелект трябва да бъде създаден с уважение към когнитивните способности на човек, като се вземат предвид неговите емоции, социални взаимодействия, идеи, планиране и взаимодействие с обекти. Тоест във всички ситуации човекът е този, който трябва да стои над изкуствения интелект, да контролира поведението и съдържанието, създавано от модела, и да носи отговорност за него. С прости думи, дори и най-напредналият AI трябва да се подчинява на човек и да не надхвърля позволеното, за да не навреди на своя създател.

Прочетете също: Как Украйна използва и адаптира Starlink по време на война

Visnovki

Да, някой ще каже, че учените не са посочили нищо важно и ново в своя доклад. Всички отдавна говорят за това. Но вече е необходимо AI да се постави в някаква рамка от закони. Да посягаш към GPT-4 е като да посягаш към нож сляпо. Те крият ключова информация от нас. Всички разработки в областта на изкуствения интелект и по-специално проекта ChatGPT от Open AI често ми напомнят за отглеждането на малко дете. Понякога изглежда, че това е дете от извънземен произход. Да, извънземно, но все пак е дете, което учи, греши, понякога се държи неадекватно, раздразнително е, кара се с родителите си. Въпреки че расте и се развива много бързо.

AI

Човечеството може да не се справи с развитието си и нещата да излязат извън контрол. Затова човечеството вече трябва да разбере защо развиваме всичко това, да знаем крайните цели, да бъдем „отговорни родители“, защото в противен случай „детето“ може просто да унищожи своите „родители“.

Прочетете също: 

Yuri Svitlyk
Yuri Svitlyk
Син на Карпатите, непризнат гений на математиката, "адвокат"Microsoft, практичен алтруист, ляво-дясно
- Реклама -
Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари
Абонирайте се за актуализации