Сегодня: вирусные видео Тома Круза Deepfake вызывают опасения по поводу технологий будущего

Сегодня: вирусные видео Тома Круза Deepfake вызывают опасения по поводу технологий будущего Люди

Созданные искусственным интеллектом видео привлекают внимание к опасностям, связанным с развитием технологий, и тем, как они способствуют распространению фейковых новостей.

Знаменитый TikToker Майлз Фишер выразил обеспокоенность по поводу стремительного развития технологий после того, как он опубликовал дипфейк-видео Тома Круза, в результате чего фанаты не понимали, присоединился ли актер к платформе социальных сетей или нет.

Оказывается, у Фишера был доступ к высокоразвитому программному обеспечению искусственного интеллекта, которое позволило ему создавать дипфейки, представляющие собой видеоролики, в которых существующие изображения обрабатываются посредством глубокого обучения для создания поддельных видеороликов, в которых изображения очень похожи на кого-то.

Том Круз выступает на 10-й ежегодной церемонии награждения Lumiere Awards в Warner Bros. Studios 30 января 2019 г. | Getty Images

СТРАШНОЕ ИЛИ ЛИЦО

Реалистичное воплощение Круза, которое Фишер смог создать, стало причиной появления некоторых красных флажков. Есть опасения по поводу потенциального воздействия, которое эта технология может оказать в будущем.

The Today Show сообщила об этой проблеме, призвав экспертов посоветовать, как отличить настоящие видео от дипфейков. Киберэксперт Тереза ​​Паттон поделилась, что важно смотреть на конкретные движения черт лица, сказав:

«Технология Deepfake с трудом справляется с типичной морщинкой в ​​глазах, когда кто-то улыбается и разговаривает».

ДРУГИЕ ГЛУБОКИЕ ЗВЕЗДЫ

Звезда «Миссии невыполнима» — не единственная знаменитость, которая стала предметом дипфейков с фейковыми новостями, появляющимися в виде видеороликов, на которых Барак Обама называет имена Дональда Трампа, а Марк Цукербург делает крайние признания.

Так называемая журналистка Bloomberg Мейзи Кинсли, скорее всего, была результатом дипфейка.

Однако это AI генерируемое видео в основном не связаны с голливудскими звездами, с твердым выводом AI более 15000 deepfake видео в 2019 году и шокирующие 96% из них были порнографическими.

ОПАСНОЕ ПРЕСТУПЛЕНИЕ

Хотя дипфейк-видео забавны и поразительны, они могут стать одними из самых опасных преступлений, связанных с ИИ, о которых сообщает Университетский колледж Лондона. Доктор Мэтью Колдуэлл, автор исследования, уточнил:

«Интернет-среда, в которой данные являются собственностью и властью информации, идеально подходит для использования в преступной деятельности на основе ИИ».

Отсутствие технологий, используемых для отслеживания дипфейков, является одной из причин, по которой дипфейки считаются такой угрозой. Быстрое распространение поддельных изображений на онлайн-платформах также увеличивает опасность, связанную с этой технологией.

Нет, на самом деле это не Том Круз в TikTok … но все же эти реалистичные #deepfake видео сводят фанатов с ума! https://t.co/vjjokvWwx2

— HollywoodLife (@HollywoodLife) 3 марта 2021 г.

НЕ ТОЛЬКО ВИДЕО

Эта технология была использована не только для обработки видео, но и для создания поддельных фотографий. Эти фотографии созданы из ничего в полностью выдуманного человека.

The Guardian сообщила, что так называемая журналистка Bloomberg Мэйзи Кинсли, скорее всего, была результатом дипфейка, который позволил создать платформы социальных сетей для фальшивого репортера в LinkedIn и Twitter.

Невероятно реалистичные дипфейк-видео Тома Круза стали вирусными в TikTok, вызывая новые вопросы и опасения по поводу стоящей за ними технологии. @tomcostellonbc рассматривает внимательнее. pic.twitter.com/EqiKCf2olu

— СЕГОДНЯ (@TODAYshow) 5 марта 2021 г.

Кто рискует стать объектом дипфейка? Чем больше контента доступно для человека, тем проще точно имитировать его, что подвергает наибольшему риску тех, кто находится перед камерой.

58-летний Круз может быть известен тем, что был достаточно смел, чтобы решать свои собственные трюки на съемках своих боевиков; похоже, что с дипфейком ему не придется выпрыгивать из самолетов, чтобы делать это самому.

Перейти в источник

Оцените статью
Cooboo.ru