Root NationНовиниIT новиниMicrosoft обяви защитно AI решение, базирано на GPT-4 Security Copilot

Microsoft обяви защитно AI решение, базирано на GPT-4 Security Copilot

-

Системите с изкуствен интелект (AI) вече се използват за създаване на графики, чатботове и дори за управление на интелигентни домове. Компания Microsoft повериха на AI една от най-важните сфери на съвременния живот – защитата срещу кибер заплахи. Инструментът Security Copilot ви позволява да разпознаете кибератака, дори когато няма очевидни признаци и помага за нейното елиминиране.

В ситуации, в които сигурността на вашия компютър е компрометирана по някаква причина, Security Copilot ще ви помогне да определите какво се е случило, какво да направите и как да предотвратите подобни инциденти да се случат на други. Компанията представи ново решение, базирано на модела GPT-4 - Security Copilot помага на корпоративните клиенти да се справят със заплахите.

Microsoft Второпилот за сигурност

Засега инструментът е достъпен само за корпоративни клиенти. Същият голям езиков модел, който захранва приложения като Bing Chat, стои зад Security Copilot. В този случай обаче говорим за вариант, специално обучен върху материалите и терминологията, използвани от ИТ специалистите. В допълнение, Microsoft вече интегрира Copilot с другите си инструменти за сигурност. Компанията обещава, че след време ще може да използва софтуерни решения на трети страни.

Докато повечето персонализирани приложения, базирани на GPT-4, бяха обучени на донякъде остарели набори от данни, Security Copilot получава нови прозрения в реално време, като изучава буквално трилиони сигнали за заплахи, които Microsoft получава ежедневно. Това е предимството на модела - Security Copilot може да разпознава скрити сигнали още преди фактът на атака да е станал явен. Благодарение на това инструментът може да се използва за разпознаване и своевременно премахване на заплахи.

Microsoft Второпилот за сигурност

В същото време преди доста време стана ясно, че AI като ChatGPT, Bing Chat или Google Bard могат да имат „халюцинации“, по време на които напълно недостоверни факти се използват като основа за „разсъждение“. В областта на сигурността това може да се превърне в много опасно явление. IN Microsoft вече потвърдиха, че Security Copilot "не винаги прави нещата както трябва." За щастие, в случая на продукта Microsoft осигурен е механизъм за обратна връзка с потребителите, за да се предоставят все по-подходящи отговори.

Още Microsoft не съобщава какво може да се случи, когато защитният AI се сблъска със злонамерен AI, като например такъв, предназначен да атакува потребители и фирми. Във всеки случай компанията каза, че корпоративните клиенти вече могат да тестват Security Copilot на малък сегмент от своите потребители. Ако експериментът е успешен, той вероятно ще може да помогне на обикновените потребители в бъдеще.

Също интересно:

Dzherelomicrosoft
Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари