Root NationСтатииТехнологииOpenAI Project Q*: какво представлява и защо проектът предизвиква безпокойство

OpenAI Project Q*: какво представлява и защо проектът предизвиква безпокойство

-

Мистериозен Проект Q* от OpenAI предизвиква безпокойство сред експертите. Може ли той наистина да е опасен за човечеството? Какво се знае за него? След като Сам Алтман първоначално беше уволнен миналата седмица и той и екипът почти се преместиха в Microsoft, след което се върна обратно на работното си място (за това писахме тук), OpenAI отново е в новините. Този път заради това, което някои изследователи наричат ​​възможна заплаха за човечеството. Да, правилно прочетохте, заплаха за човечеството.

Истинският катаклизъм в света на технологиите беше предизвикан от Project Q* - неразкрит проект на общ изкуствен интелект (AGI) - произнася се Q-Star. Въпреки че този проект е в ранен етап, той се смята за наистина новаторски в развитието на AGI. Някои обаче го виждат като опасност за човечеството.

Проект OpenAI Q

Таен проект за изкуствен интелект, разработен от известната лаборатория за изкуствен интелект OpenAI, има потенциала да революционизира технологиите и обществото като цяло. Но също така повдига някои етични въпроси относно рисковете. Докато се появяват подробности за удивителните възможности на Project Q*, се появяват все повече спекулации за това какво може да означава това за бъдещето на човечеството.

Също интересно: История на OpenAI: какво беше и какво предстои за компанията

Какво е изкуствен общ интелект (AGI)?

За да разберем шума около Project Q* (Q-Star), нека първо се опитаме да разберем какво представлява концепцията за общ изкуствен интелект (AGI). Докато настоящите системи с изкуствен интелект превъзхождат тесни, специфични задачи като игра на шах или генериране на изображения, общият изкуствен интелект се отнася до машини, които могат да учат и мислят на човешко ниво в много области. Тоест те могат да учат като малки деца в училище, например основите на математиката, химията, биологията и т.н.

Общият изкуствен интелект (AGI) е вид машинен интелект, който може хипотетично да имитира човешкия интелект или поведение, със способността да учи и прилага този потенциал за решаване на различни проблеми. AGI се нарича още силен изкуствен интелект, пълен изкуствен интелект или изкуствен интелект на ниво човек. Общият AI се различава от слабия или тесен AI, който е способен само да изпълнява специфични или специализирани задачи в рамките на дадени параметри. ZHI ще може самостоятелно да решава различни сложни проблеми от различни области на знанието.

Проект OpenAI Q

Създаването на изкуствен интелект е основният фокус на изследванията на изкуствения интелект от компании като DeepMind и Anthropic. CSI е много популярна тема в научнофантастичната литература и може да повлияе на бъдещите изследвания. Някои твърдят, че е възможно да се създаде UCI в рамките на години или десетилетия, докато други твърдят, че може да отнеме век или повече. Но има и такива, които вярват, че това никога няма да бъде постигнато. Някои са виждали началото на URI в GPT-3, но все още изглежда далеч от покриването на основните критерии.

Създаването на изкуствен общ интелект (AGI) се смята от изследователите за светия граал на изкуствения интелект, теоретична възможност, която отдавна е пленила въображението им. Следователно появата на такъв проект като OpenAI Project Q* предизвика голям резонанс в света на изследването на алгоритми за изкуствен интелект. Въпреки че всички разбират, че това са само първите стъпки, почти на сляпо, към свят, в който изкуственият интелект ще има същите възможности като хората или дори по-високи.

- Реклама -

Също интересно: Всичко за Microsoft Вторият пилот: бъдещето или грешният път?

Какво е Project Q*?

Project Q* не е типичен алгоритъм, защото е модел на изкуствен интелект, който все повече се доближава до модела на изкуствен общ интелект (AGI). Това означава, че за разлика от ChatGPT, Project Q* показва по-добро мислене и когнитивни умения в сравнение с други алгоритми. Понастоящем ChatGPT отговаря на запитвания въз основа на огромно количество фактически материали, но с AGI, AI моделът ще се научи на разсъждения и способността да мисли и разбира сам. Вече е известно, че Project Q* е в състояние да решава прости математически задачи, които не са били част от обучителния материал. В това някои изследователи виждат значителна стъпка към създаването на общ изкуствен интелект (AGI). OpenAI определя AGI като системи с изкуствен интелект, които са по-умни от хората.

Проект OpenAI Q

Разработването на Project Q* се управлява от главния учен на OpenAI Иля Суцкевер, а основата му е обоснована от изследователите Якуб Пахотски и Шимон Сидор.

Способността на алгоритъм да решава самостоятелно математически проблеми, дори ако тези проблеми не са част от обучителния набор от данни, се счита за пробив в областта на изкуствения интелект. Разногласията в екипа по отношение на този проект са свързани с временното отстраняване на изпълнителния директор на OpenAI Сам Алтман. Известно е, че преди Алтман да бъде уволнен, група изследователи на компанията са изпратили писмо до борда на директорите, предупреждавайки за откриването на AI, който може да представлява заплаха за човечеството. Това писмо, което според съобщенията обсъжда алгоритъма на Project Q*, беше цитирано като един от факторите, довели до уволнението на Алтман. Въпреки това, възможностите на Project Q* и потенциалните рискове, които може да представлява, не са напълно разбрани, тъй като подробностите са неизвестни. Нищо не е публикувано за широката публика.

Проект OpenAI Q

В основата си Project Q* е метод за обучение без модел, който се отклонява от традиционните модели, като не изисква предварително познаване на околната среда. Вместо това то се учи чрез опит, адаптирайки действия въз основа на награди и наказания. Техническите експерти смятат, че Project Q* ще може да придобие изключителни способности чрез придобиване на способности, подобни на човешките когнитивни способности.

Но именно тази характеристика е най-впечатляващата в новия модел на изкуствен интелект, която тревожи изследователите и критиците и поражда страховете им относно приложенията на технологията в реалния свят и свързаните с нея рискове. От какво толкова се страхуват учените и изследователите? Нека да го разберем.

Също интересно: Как да актуализирате домашните си устройства, за да поддържат Wi-Fi 6

Те се страхуват от неизвестното

Хората винаги са се страхували от неизвестното, непознаваемото. Това е човешката същност, черта на нашия характер и начин на живот.

Светът на технологиите научи за Project Q* през ноември 2023 г. след Reuters докладвани относно вътрешно писмо, написано от загрижени изследователи на OpenAI. Съдържанието на писмото беше неясно, но се съобщава, че сериозно анализира възможностите на Project Q*. Както споменах по-горе, има дори спекулации, че именно това писмо е предизвикало оставката на Сам Алтман.

Проект OpenAI Q

Това експлозивно откритие породи различни хипотези относно естеството на проект Q*. Учените предполагат, че това може да бъде революционен модел на естествен език за AI. Един вид изобретател на нови алгоритми, който ще ги създаде за други форми на AI или нещо съвсем различно в тази област.

Провокативните коментари на Алтман за общия изкуствен интелект като „среден служител“ вече предизвикаха опасения относно сигурността на работата и неудържимото разширяване на влиянието на ИИ. Този мистериозен алгоритъм се определя като крайъгълен камък в развитието на Изкуствения общ интелект (AGI). Всички обаче разбират, че този етап е скъп. И сега не става въпрос за пари. Нивото на когнитивните умения, обещано от новия AI модел, носи със себе си несигурност. Учените от OpenAI обещават, че AI ще има мислене на човешко ниво. А това означава, че не можем да знаем много неща и да предвидим последствията. И колкото по-непознат, толкова по-трудно е да се подготвим да го контролираме или коригираме. Тоест новият алгоритъм е способен на самоусъвършенстване и развитие. Това вече сме го виждали някъде...

Също интересно: Windows 12: Каква ще бъде новата операционна система

- Реклама -

Удивителни подробности за възможностите на Project Q*

Когато започна да се появява повече информация, това шокира много изследователи. Първите индикации бяха, че Project Q* има невероятни умения за математика. За разлика от калкулатор, който извършва механични изчисления, Project Q* може да използва логика и разсъждения за решаване на сложни математически проблеми. Тази математическа способност за обобщаване намеква за развитието на широка интелигентност.

Проект OpenAI Q

Автономното обучение на Project Q*, без специфичните набори от данни, използвани за обучение на типични AI, също ще бъде огромна стъпка напред. Остава неизвестно дали Project Q* е усвоил някакви други умения. Но неговите математически способности са толкова удивителни сами по себе си, че объркват дори опитни изследователи.

Прочетете също: Проект за човешки мозък: опит за имитиране на човешкия мозък

Пътят на Project Q* към господство?

По този въпрос има както оптимистични, така и песимистични сценарии. Оптимистите ще кажат, че Project Q* може да бъде искрата, която води до технологичен пробив. Докато системата рекурсивно се самоусъвършенства, нейният свръхестествен интелект може да помогне за решаването на някои от най-важните проблеми на човечеството, от изменението на климата до контрола на болестите. Project Q* може да автоматизира скучната работа и да освободи свободното ни време за други дейности.

Проект OpenAI Q

Въпреки че има много по-песимистични варианти. Понякога те са доста разумни и имат определено значение.

Загуба на работа

Бързите промени в развитието на технологиите могат да изпреварят индивидуалната адаптация на хората. Това ще доведе до загуба на едно или повече поколения, които няма да могат да придобият необходимите умения или знания, за да се адаптират към новите реалности. Тоест, това от своя страна означава, че по-малко хора ще могат да запазят работата си. Вместо това ще се извършва от машини, автоматизирани системи и роботи. Отговорът обаче не е толкова еднозначен, когато става въпрос за квалифицирани специалисти. Освен това могат да се появят нови професии, свързани конкретно с разработването на алгоритми за изкуствен интелект. Но все още съществуват рискове и човечеството няма право да ги пренебрегва.

Опасността от неконтролирана власт

Ако AI, толкова мощен като Project Q*, попадне в ръцете на хора с нечестиви намерения, рискува да има катастрофални последици за човечеството. Дори и без потенциално злонамерено намерение, нивото на вземане на решения на Project Q* може да доведе до вредни резултати, което подчертава критичното значение на внимателната оценка на неговото приложение.

Ако Project Q* е лошо оптимизиран за човешки нужди, той може да причини вреда със способността си да максимизира някои произволни показатели. Или може да има политическо измерение, като например да бъде използвано за държавно наблюдение или репресии. Открит дебат около анализа на въздействието на проект Q* ще помогне да се определят възможните сценарии за развитието на ZHI.

Предстои ли ни сблъсък "Човек срещу машина"?

Холивуд вече е създал много сценарии на подобна конфронтация в своите филми. Всички помним известния SkyNet и последствията от подобно откритие. Може би изследователите на OpenAI трябва да гледат този филм отново?

Човечеството трябва да приема сигнали и предизвикателства и да бъде подготвено за това, което може да се случи. Един модел на изкуствен интелект, способен да мисли като човек, може някой ден да стане наш враг. Мнозина биха възразили, че в бъдеще учените ще знаят точно как да държат ситуацията под контрол. Но когато става въпрос за машини, не можете напълно да изключите възможността те да се опитат да превземат хората.

Също интересно: Не всичко, което наричаме AI, всъщност е изкуствен интелект. Ето какво трябва да знаете

Защо OpenAI мълчи?

Въпреки лудостта на обществения интерес към Project Q*, ръководството на OpenAI мълчи за спецификата на алгоритъма. Но вътрешното изтичане показва нарастващо напрежение в лабораторията относно приоритетите и откритостта на разработките. Въпреки че много вътрешни хора на OpenAI подкрепят създаването на Project Q*, критиците твърдят, че прозрачността е останала на заден план за ускоряване на научния прогрес на всяка цена. И някои изследователи са загрижени, че невероятна сила се дава на системи, чиито цели не съвпадат непременно с човешките ценности и етика. Тези изследователи смятат, че дебатите около надзора и отчетността са опасно заглушени. Те изискват повече публичност и подробности.

Проект OpenAI Q

Като създатели на Project Q*, OpenAI трябва да разберат, че имат технология, която може или значително да разшири възможностите за развитие на обществото, или безмилостно да го унищожи. Подобни значими иновации заслужават много повече прозрачност за изграждане на обществено доверие. Всеки прогностик на машинната епоха трябва внимателно да прецени рисковете заедно с ползите. И разработчиците на Project Q* трябва да покажат достатъчно мъдрост и грижа, за да въведат безопасно обществото в нова ера на общ изкуствен интелект, която може да дойде по-рано, отколкото някога сме си представяли.

За да бъде общият изкуствен интелект полезен и безопасен за човечеството, трябва да се гарантира, че работи безопасно, етично и в съответствие с ценностите и целите на човечеството. Това налага разработването и прилагането на подходящи регулаторни актове, стандарти, правила и протоколи, които да контролират и ограничават действията и поведението на CSI. Освен това потенциалните заплахи и рискове, свързани със злоупотреби, инциденти, несъвместимости, манипулации и конфликти, които биха могли да доведат до унищожаването на човечеството, трябва да бъдат елиминирани. Междувременно инвеститорите и Microsoft нетърпеливо очакване на продаваем продукт, който може да генерира печалба, което несъмнено противоречи на необходимостта от отговорно поведение. Да се ​​надяваме, че здравият разум ще надделее.

Прочетете също: 

Yuri Svitlyk
Yuri Svitlyk
Син на Карпатите, непризнат гений на математиката, "адвокат"Microsoft, практичен алтруист, ляво-дясно
- Реклама -
Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари