Root NationНовиниIT новиниЩе бъде невъзможно да се управлява супер интелигентен изкуствен интелект

Ще бъде невъзможно да се управлява супер интелигентен изкуствен интелект

-

Идеята изкуственият интелект да събори човечеството се обсъжда от десетилетия и през януари 2021 г. учените дадоха своята присъда дали можем да контролираме компютърен суперинтелект на високо ниво. Отговор? Почти със сигурност не.

Проблемът е, че контролирането на свръхразум, далеч отвъд човешкото разбиране, би изисквало симулация на този свръхразум, която можем да анализираме. Но ако не сме в състояние да го разберем, е невъзможно да създадем такава симулация.

Правила като „не наранявайте хората“ не могат да бъдат установени, освен ако не разберем какви сценарии ще измисли изкуственият интелект (AI), смятат авторите на документ от 2021 г. Веднага след като компютърната система работи на ниво, което надхвърля възможностите на нашите програмисти, ние вече няма да можем да задаваме ограничения.

Изкуствен интелект

„Свръхинтелигентността е фундаментално различен проблем от тези, които обикновено се изучават под знамето на „етика на роботите“, пишат изследователите. „Това е така, защото суперразумът е многостранен и следователно потенциално способен да мобилизира различни ресурси за постигане на цели, които са потенциално непостижими за хората, да не говорим за контролируеми.“

Част от мотивите на екипа идват от проблеми със спирането, предложен от Алън Тюринг през 1936 г. Предизвикателството е да разберете дали компютърната програма ще стигне до заключение и ще отговори (и ще спре) или просто ще се мотае завинаги, опитвайки се да намери отговора.

Както доказа Тюринг с помощта интелигентна математика, въпреки че може да знаем това за някои конкретни програми, логично е невъзможно да намерим начин, който би ни позволил да знаем това за всяка потенциална програма, която някога би могла да бъде написана. Това ни връща към AI, който в свръхинтелигентно състояние може да съхранява всички възможни компютърни програми в паметта си едновременно.

Също интересно:

Всяка програма, написана например, за да попречи на ИИ да наранява хората и да унищожава света, може или не може да стигне до заключение (и да спре) - математически е невъзможно да бъде абсолютно сигурен и в двата случая, което означава, че не може да бъде ограничен. „Това на практика прави алгоритъма за възпиране неизползваем“, заяви през януари компютърният учен Ияд Рахван от Института за човешко развитие „Макс Планк“ в Германия.

Алтернатива на преподаването на етиката на AI и забраните срещу унищожаването на света, в които нито един алгоритъм не може да бъде абсолютно сигурен, казват изследователите, е да се ограничат възможностите на суперразума. Например, може да бъде отрязан от част от интернет или определени мрежи.

Авторите на скорошно проучване отхвърлят и тази идея, вярвайки, че тя ще ограничи обхвата на изкуствения интелект - те казват, че ако няма да го използваме за решаване на проблеми извън човешките възможности, тогава защо изобщо да го създаваме?

Изкуствен интелект

Ако искаме да развием изкуствения интелект, може дори да не знаем кога ще се появи суперинтелект, който е извън нашия контрол, толкова неразбираемо е това. Това означава, че трябва да започнем да задаваме сериозни въпроси за това накъде сме се запътили.

„Свръхинтелигентна машина, управляваща света, звучи като научна фантастика“, казва компютърният учен Мануел Кебриан от Института за човешко развитие „Макс Планк“. Но вече има машини, които самостоятелно изпълняват някои важни задачи, докато програмистите не разбират напълно как са научили това.

Затова възниква въпросът може ли в един момент да стане неконтролируема и опасна за човечеството...

Прочетете също:

Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари
Абонирайте се за актуализации