DeepFake заменит всех?
Сначала разберём несколько примеров использования Deepfake-технологий.
Париж в огне
В январе этого года все социальные сети взорвала новость с горящей Эйфелевой башней. Но гореть она начала ещё летом 2023 года, когда компания по созданию 3D-эффектов «Augmented One» выложила на свой канал в YouTube 9-секундный видеоролик с горящей достопримечательностью.
В описании ребята указали, что это компьютерная графика. Однако интернет-пользователи проигнорировали это и начали массово постить видео, выдавая его за реальное.
Затем стало появляться всё больше новых фотографий с «места происшествия», и на этот раз так постаралась нейросеть Midjourney. Фото горящей Эйфелевой башни были настолько реалистичны, что набрали миллионы просмотров.
Важное заявление от Олега Тинькова*
Важное заявление от Олега Тинькова*Осенью 2021 года в сети появилось мошенническое видео с основателем одноимённого банка от страницы Tinkоff Вonus. Бизнесмен на видео обещал подарить 50% к сумме вложений при регистрации.
«Например, вы инвестируете 20 тысяч рублей, а на счёт для работы получаете 30 тысяч рублей», — говорит фейковый Тиньков.
Ролик создали мошенники и распространили его в социальных сетях. Главной целью было — получить деньги и личные данные доверчивых пользователей.
*Олег Тиньков выполняет функции иноагента.
Скандал с дипфейковым видео Тейлор Свифт
В январе этого года X, ранее Twitter, заполонило созданное при помощи ИИ порно с певицей Тейлор Свифт. Один из постов с фейками даже набрал 45 миллионов просмотров, прежде чем его удалили модераторы.
В X пообещали активно блокировать запрещённый контент, а для начала просто отключили поиск по запроcу «Taylor Swift».
Фейковая тусовка Папы Римского
Впервые понтифика с помощью всё той же нейросетки Midjorney переодели в прошлом году. СМИ и пользователей не смутило, что фотографии были выложены в сабреддите Midjourney. Но и без этого полно доказательств того, что фото — фейк.К примеру, на одной из фотографий у Папы Римского четыре пальца вместо пяти, а на другой картинке дужка очков заканчивается на уровне ушей, совсем не огибая их, да и крест выглядит не очень правдоподобно.
Статьи с громкими заголовками опубликовали американские New York Post, Forbes и другие, а также российские «Газета.ру», «Афиша Daily» и РБК. Затем пользователи и вовсе ушли в пляс, когда переодели епископа в разноцветные наряды и не ограничились пуховиком Balenciaga.
Как на дипфейки отреагировало государство и заменят ли они реальных людей?
Скандал дошёл и до американского Белого дома. Пресс-секретарь Карин Жан-Пьер выступила с заявлением и призвала Конгресс разработать закон, который защитит людей от дипфейкового порно.
А недавно, 8 февраля, Американская Федеральная комиссия по связи уже запретила компаниям использовать в звонках роботов голоса, которые созданы ИИ. В США пока нет федерального закона, который запрещает дипфейки. Но в некоторых штатах приняты законы о дипфейковой порнографии.
Однако пока какие-то дипфейки стремятся запретить, другие хотят легализовать. Так, Universal Music Group и Google ведут переговоры о том, чтобы лицензировать голоса и мелодии артистов для контента, который создаёт ИИ. Компании рассматривают возможность разработать дипфейк с голосами популярных исполнителей.
Некоторые артисты поддержали развитие музыки, которую генерируют нейросети. В их числе певица Граймс. Она рассказала журналу Rolling Stone, что любой может использовать её голос для создания песен «без каких-либо штрафов» — при условии, что она получит половину гонораров.
Как нам жить в мире дипфейков
Как нам жить в мире дипфейков Есть опасения, что дипфейки со временем станут настолько убедительными, что будет невозможно отличить их от реальности. Только представьте: мошенники делают фальшивые видео с представителями власти, главами компаний и даже вашими близкими. От последнего мурашки по коже.
Обычным потребителям информации и пользователям сервисов остаётся только надеяться, что с развитием искусственного интеллекта будут развиваться не только законы, но и технологии, которые ограничат распространение фейков. Мир уже делает первые шаги в эту сторону.Появилось несколько стартапов, которые разрабатывают технологии обнаружения фейковых видео. Один из таких — Sensity AI из Нидерландов и Sentinel из Эстонии. А популярная корпорация Intel выпустила продукт FakeCatcher, который может обнаруживать фальшивое видео с точностью 96%, наблюдая за тонкими изменениями цвета на коже. А некоторые компании обязались вставлять цифровые водяные знаки в изображения, которые сделаны с помощью ИИ.
Но не стоит надеяться только на технологические решения. Вы и сами можете позаботиться о своей защите от дипфейков уже сейчас.
Проверяйте источники информации. Не верьте сразу сенсационным новостям, даже если их все пересылают, сверяйте факты с надёжными источниками.
Будьте осторожны в социальных сетях. Это основной канал распространения дипфейков, поэтому не распространяйте сомнительный контент, проверяйте его достоверность перед публикацией.
Учитесь распознавать дипфейки. Даже если у вас нет специальных инструментов, можно замечать странные детали на фото и видео.
Предупредите близких. Чтобы вынудить человека сообщить личные данные или перевести деньги, мошенники могут звонить ему от имени знакомых или родных имитируя их голоса с помощью специальных программ. Стоит придумать кодовое слово для родственников на случай, если кто-то позвонит им вашим голосом.
Попробуйте Chad AI — сервис, в котором мы собрали и адаптировали для пользователей из России самые популярные нейросети в новейших версиях. Пользуйтесь сервисом и забудьте о неудобном интерфейсе, зарубежной sim и VPN.