Категории: Технологии

Какво е deepfake, колко опасен е и как да го разпознаем

Днес ще говорим за deepfake, което вече е широко разпространено и доста често срещано явление. Благодарение на тази технология манипулирането на информацията достигна ново ниво.

Видяхте ли кралица Елизабет да танцува на масата по време на излъчването на новогодишното послание? Или сте слушали речта на Ким Чен Ун за демокрацията, или сте се възхищавали на Салвадор Дали, който говори за смъртта му (защо не вярва в това)?

Всички тези невероятни видеоклипове имат едно общо нещо - те са фалшиви. Deepfake е техника за създаване и публикуване на невярна информация под формата на видео, аудио и снимки. Става все по-лесно да попаднете на такива материали, затова сме подготвили за вас инструкция за създаване, разпознаване и търсене на deepfake видеоклипове в интернет.

Прочетете също: Блокчейни на утрешния ден: Бъдещето на индустрията на криптовалутите с прости думи

Deepfake - какво е това?

Deepfake (Deepfake) всъщност е снимков, видео или аудио материал, който не е истински, фалшив, т.е. Deepfake (комбинация от две думи - дълбоко обучение „задълбочено обучение“ и фалшив „фалшив“) използва изкуствен интелект (AI) за дълбоко обучение, за да създаде прилика на един човек с друг във видеоклипове и други цифрови медийни материали. Създава се от алгоритми, базирани на реален глас, звук, видео или снимки, които са свързани заедно. Алгоритъмът взема избрана информация от много различни места и след това я комбинира в един материал. В резултат на това се създава нещо ново (фалшиво), което се основава на комбинация от различни реални данни.

Но това не е всичко. Deepfake може също да „нарисува“ снимка от нулата, например като създаде лица на герои, които никога не са съществували.

Каква е целта на подобни действия? Наред с други неща, Deepfake се използва за разпространение на невярна информация в интернет (например за политически фигури или събития), кражба (например фалшифициране на гласови команди) и създаване на порнография (филми с известни личности - deepfake porn). Може да се използва и за образователни и развлекателни цели.

Прочетете също: За квантовите компютри с прости думи

Deepfake - Как работи?

Като цяло има два начина за създаване на deepfake материал. Първият метод използва два алгоритъма. Първо, първият (кодер) търси общи черти на две изображения (тези, които да бъдат комбинирани в едно), след което вторият (декодер) може да ги прехвърли към новосъздаденото изображение. Например, ако искаме да създадем видео, в което актьор да се движи като нас, енкодерът взема движението от видеото, където танцуваме, а декодерът вече ще замени нашето лице с лицето на актьора и ще го накара да възпроизведе нашите движения . Ключът тук са избраните действия, които се копират в новото изображение (например движения, жестове, изражения на лицето).

Вторият начин е чрез генеративни състезателни мрежи (GANs), където два алгоритъма работят заедно. Първият се нарича генератор, защото, използвайки обща информация, той създава изображения (например образ на човек), които съчетават неговите отличителни черти (човек има тяло, лице, очи). Вторият алгоритъм е дискриминатор, който оценява дали изображенията, дадени му от генератора, са верни или не.

С течение на времето и двата алгоритъма стават по-напреднали, така че се учат и подобряват сами. Ако генераторът е обучен по такъв начин, че дискриминаторът да не разпознава фалшива снимка (счита я за истинска), процесът е завършен.

Голямо количество фалшив софтуер може да бъде намерено в GitHub, общност с отворен код за скриптове, програми и код. Някои от тези програми се използват само за развлекателни цели, така че създаването на deepfake не е забранено, но много от тях могат да се използват и за престъпни цели.

Много експерти смятат, че в бъдеще, с развитието на технологиите, deepfakes ще станат много по-сложни и могат да създадат по-сериозни заплахи за обществото, свързани с намеса в избори, създаване на политическо напрежение и престъпни дейности.

Прочетете също:

Заплахата от Deepfake - откога съществува?

За първи път подобна фалшива информация се появи през 2017 г. Тогава потребителят е псевдоним deepfake публикува в Reddit няколко порнографски филма, в които участват известни личности, включително Скарлет Йохансон, Гал Гадот и Тейлър Суифт. Оттогава тази индустрия се развива бързо, защото почти всеки може да заснеме дълбоки фалшиви филми.

През последните години технологията за дълбоко фалшифициране се разви толкова много, че вече е все по-трудно да се определи дали това е изфабрикуван видеоклип или истински запис на реални хора. Пример може да бъде видео с послание от Елизабет II или реч на Барак Обама, което бързо беше публикувано в много различни сайтове. Видеото с изявлението на бившия президент на САЩ се обърна към глобалните заплахи, които могат да бъдат причинени от дезинформация и фалшиви новини, публикувани в интернет. В материала, публикуван от канала BuzzFeedVideos, американският режисьор и актьор Джордан Пийл стана гласът на 44-ия президент на САЩ. В момента обаче изкуственият интелект вече е способен да генерира глас въз основа на архивни записи на човек, който трябва да се появи във фалшив филм.

Такива напреднали технологии могат да се превърнат в опасен инструмент в ръцете на киберпрестъпниците и интернет измамниците в бъдеще. Публикуването на фалшиви видеоклипове с изказвания на важни политици може да причини реални щети на международно ниво. Такива филми, базирани на технологията deepfake, могат да предизвикат дипломатически конфликти и скандали и следователно да повлияят на общественото мнение и поведението на хората.

Друга потенциална заплаха е съдържанието за възрастни, което винаги е генерирало най-много трафик във виртуалното пространство. Не е чудно, че технологията deepfake удари интернет толкова бързо. Според доклад на холандската компания за киберсигурност Deeptrace, 96% от изфабрикуваните видеоклипове, създадени с помощта на технологията deepfake, са със съдържание на такива теми. Най-често за производството на такива материали се използват изображения на филмови звезди, спортисти и дори политици и представители на властта.

Прочетете също: Защо космическа мисия не може да лети в нито един момент: Какво е прозорец за изстрелване?

Как да си направим deepfake?

Ако някой може да прави дълбоки фалшиви видеоклипове, могат ли да се правят и у дома? Определено да, но качеството им, разбира се, няма да бъде перфектно. Създаването на такива видеоклипове изисква големи изчислителни ресурси и мощни видео карти. Тези, които обикновено имаме в домашните компютри не са достатъчни, а самият процес на разработка може да продължи със седмици. Качеството на филмите също ще остави много да се желае - ще има видими грешки, движенията на устата може да не съответстват на звука, ще има видими места, където "старото" съдържание се припокрива с "новото".

Ако обаче искаме леко да „поправим“ снимка или да направим кратко deepfake видео, програмата за това може да бъде изтеглена директно на смартфона. Много лесната за използване програма за няколко минути ще премахне недостатъците на външния вид, ще ви превърне в избраната знаменитост или ще позволи на вашето куче да говори с човешки глас.

Прочетете също:

Как да разпознаем deepfake?

Професионалните дълбоки фалшиви видеоклипове стават все по-трудни за разпознаване. Първоначално алгоритмите имаха проблеми с основното поведение (като мигане на очите) и веднага стана ясно, че филмът е фалшив. Тази грешка вече е коригирана. Фалшивите герои мигат, движат се естествено и говорят гладко. Въпреки това, понякога те все още имат проблеми с естественото движение на очите.

И така, как да забележите deepfake? Ето на какво трябва да обърнете внимание, когато гледате видеото:

  • Звукът поддържа ли се с движенията на устата? Понякога те не съвпадат напълно и човекът във видеото движи устните си със закъснение спрямо звука или артикулира думите неправилно.
  • Всякакви явления, които изглеждат неестествени. Тук говорим, наред с други неща, за положението на цялото тяло или главата спрямо торса, неправилно отразяване на светлината върху предмети, неправилно отразяване на светлината в бижута и т.н. Неестественият цвят на кожата също може да е знак, че филмът е фалшив.
  • Качество на аудио и видео. Разликата между тях ще помогне за откриване на deepfake. Обикновено саундтракът е с по-лошо качество.
  • Нередности в изображението. Най-често те се появяват на кръстопътя на тялото и главата. Когато главата на знаменитост е „залепена“ за друго тяло, може да се появи петно ​​в областта на шията. Понякога има пропускане на кадрите (прекъсвания) и грешки в кадрите (различен ъгъл, вид или посока на светлината).
  • Промяната на хаштага по време на видеото също може да означава, че имаме дълбоко фалшиво видео.

Когато разглеждате материалите от гледна точка на deepfake, също си струва да разчитате на собствените си чувства. Понякога оставаме с впечатлението, че нещо не е наред. Това се случва, наред с други неща, когато емоциите на човека, изобразен на екрана, не съвпадат с това, което ни показва изражението на лицето или тона на гласа. Това също предполага, че видеото може да е фалшифицирано.

Също интересно:

Как да се предпазите от deepfake?

За да избегнете дълбока фалшива измама, експертите съветват следните стъпки:

  • Създайте тайна дума или слоган с близки хора, като членове на семейството или колеги, които ще докажат реалността на ситуацията с видео или запис. Това ще ви позволи бързо да проверите фалшивостта на ситуацията и да избегнете, например, изнудване на пари.
  • Съгласете се с роднини или колеги за списък с информация, която никога няма да бъде задавана чрез съобщения, например в социалните мрежи или SMS. Задължително е всички заинтересовани лица да бъдат информирани за реалния размер на опасността.
  • Внедряване на многофакторни канали за удостоверяване за проверка на всяка заявка. Ако комуникацията започва с текстово съобщение, то най-сигурният начин за потвърждение на информацията е да се свържете с подателя на съобщението под формата на разговор по предварително уговорен и защитен канал за комуникация.
  • Непрекъснато подобряване на компетентността в областта на сигурността, например под формата на обучение на персонала относно сигурността и киберпрестъпността. Повишаване на осведомеността за това какво е deepfake и как да се противопоставим на тази заплаха.
  • Поддръжка и развитие на системи за сигурност в среди на информационни и комуникационни технологии (ИКТ).

Къде можете да срещнете deepfake?

Фалшивите материали могат да бъдат намерени навсякъде, където могат да достигнат до голяма аудитория, т.е. потенциалната аудитория на deepfake. Facebook, Instagram, TikTok и други социални медии са пълни с подобни неща.

Това са не само невероятни видеоклипове, но и "рафинирани" снимки и аудио записи. Някои от автентичните профили на знаменитости понякога са напълно пълни с дълбоки фалшиви неща!

Това не е единственото място, където можете да намерите deepfake. Приложение за смартфон също е базирано на тази технология, което ви позволява да добавите мустаци и брада или други специални ефекти към снимка (например състаряване с няколко десетилетия). Така може да се окаже, че последната снимка, която сте получили от приятелите си, е малко "недорисувана".

Също интересно:

Deepfake филмите не са само порнографски

Използването на deepfake може да бъде както положително, така и отрицателно. Филмите Deepfake могат да бъдат игриви или забавни. Тук трябва да споменем видеото на кралица Елизабет, танцуваща на масата по време на новогодишното послание. Това е и целта на повечето от модификациите на снимките, които правим с приложението deepfake на нашите смартфони. Трябва да е смешно и забавно.

Deepfake материалите могат да играят и образователна роля, например да „възкресяват“ вече мъртви артисти, певци или музиканти. Някои музеи, по-специално Музеят на Салвадор Дали във Флорида, използват тази технология, където посетителите са „представени“ с техните творби от самия художник, с когото можете да говорите и дори да правите снимки.

Технологията Deepfake се използва в гласови генератори - устройства, предназначени за хора, които са загубили способността да говорят. Благодарение на тях такива хора все още могат да ни говорят със собствения си глас. Гласът на Вал Килмър, който той загуби от рак на ларинкса, е моделиран в Top Gun: Maverick.

За съжаление, имаме и много примери за негативни употреби на deepfaking. Политиката е пример, когато този вид невярна информация може да има широкообхватни, глобални последици, като дискредитиране на обществени личности, влияние върху фондовия пазар, икономиката или резултатите от изборите или дори воденето на война по време на война. Добре подготвеният запис улеснява манипулирането на общественото мнение. Прогресивното развитие на технологиите ще направи още по-трудно разграничаването на истинските материали от фалшификатите. Така че това е стъпка към падане на социалното доверие и информационен хаос.

Deepfake видеоклиповете, както вече споменахме, са широко разпространени в порно индустрията. Най-често промените се състоят в замяна на лицето на порно актрисата/актьора с лице на известни личности или филмови звезди, разбира се, без тяхното съгласие.

Прочетете също: Пилотирани космически мисии: Защо завръщането на Земята все още е проблем?

Deepfake е реална заплаха за всички нас

Deepfake не е проблем само за актьори и политици. Всеки може да бъде засегнат от фалшиво съдържание. Елемент на изнудване и изнудване може да бъде изфабрикуван видеоклип, в който извършваме престъпление или попадаме в двусмислена ситуация – или вие плащате, или ние разкриваме. Ако работите в бизнеса, трябва да разберете, че има опасност от използване на deepfake за дискредитиране на компанията сред нейните контрагенти.

Увеличаването на количеството манипулативни материали също може да повлияе на социалното доверие и доверието в предоставената информация. Как можете да вярвате на нещо, когато филм, който е доказателство в съда, може да е фалшив, а новините съобщават за несъществуващи събития?

Технология, която ви позволява да създадете злонамерено изображение, аудиозапис или филм, чиито герои много приличат на други хора, е ново ниво на заплаха от киберпрестъпниците. Особено предвид факта, че в социалните мрежи те могат да черпят почти неограничени ресурси от изходен материал за създаване на deepfakes.

Софтуерът за машинно обучение може да търси Facebook ABO Instagram, например, и да заснемете интересни снимки или видеоклипове на потенциални „актьори“. На тази база може да се създаде много ясен глас, образ и видео на лицето, но със специално създаден фалшив апел, който симулира например изпадане в сериозна беда – като жертва на отвличане или злополука. На следващия етап се генерира фалшива молба за помощ, например финансова, адресирана до близките на „жертвата“.

Прочетете също: Космически телескоп Джеймс Уеб: 10 цели за наблюдение

Борбата с deepfake

Потокът от невярна информация е толкова голям, че много социални мрежи решиха да се борят срещу deepfakes. Facebook і Twitter опитайте се да откриете фалшиви видеоклипове и автоматично да ги изтриете. Големи корпорации (вкл Microsoft или Amazon) инвестират в софтуер, който ще открива фалшиво съдържание. Учените също работят върху решението на този проблем.

Въпреки това, в ситуация, в която приложение за смартфон е достатъчно, за да се създаде фалшив филм, борбата с deepfake е като борба с вятърни мелници. Няма и правни норми, които да определят последствията от манипулиране на информация или използване на чужд образ по този начин.

Deepfake става все по-популярен и е все по-трудно да го различим от истината. Това се дължи на подобряването на технологиите, които могат по-добре да имитират човешки движения и жестове. Deepfakes могат да се използват за добри цели, като създаване на образователни материали или помощ на хора, които са загубили гласа си след операция на ларинкса, но те също са инструмент за хакери, изнудвачи и интернет тролове.

Така че, ако отново попаднете на невероятно видео в интернет, първо проверете дали понякога не е модифицирано или фалшиво. Може би това, което гледате, никога не е било в действителност!

Прочетете също:

Но не забравяйте, че в Украйна се води война. Ако искате да помогнете на Украйна да се бори с руските окупатори, най-добрият начин да го направите е да дарите на въоръжените сили на Украйна чрез Savelife или през официалната страница НБУ.

Сподели
Yuri Svitlyk

Син на Карпатите, непризнат гений на математиката, "адвокат"Microsoft, практичен алтруист, ляво-дясно

Оставете коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани*