Купите сковородку у мертвой тети

Похоже, скоро не только банки смогут делать дипфейки с умершими актерами, но и любой человек получит возможность всего за несколько минут создать фальшивое видео с кем угодно. Видеоплатформа Tavus придумала, как создавать вымышленные видео с участием реальных людей. Подается все под очень красивой оберткой: якобы, массам инструмент для создания реалистичных дипфейков нужен, чтобы поздравлять друг друга живыми открытками. Включаете селфи-камеру, записываете короткое видео, загружаете на сервер, чтобы программа получила образец твоей мимики и голоса, сочиняете любой текст — и вуаля: готово поздравление мамы с именинами. Или дочки — с окончанием школы. Мало ли, может, у вас большая родня, всех не поздравишь. А ведь еще коллеги, контрагенты… В ближайшее время, уверена, и текст писать будет не нужно: GPT-чат станет генерировать любые поздравления. Удобно: потратил 20 секунд, загнал в программу видео, закачал в нее полный сборник «Тосты на все случаи жизни» и идешь на пробежку слушать новый роман модного футуролога, пока машина крутится и поздравляет как сама не своя.

Оставим вопрос о том, каково будет всем вашим родственникам, если узнают, что вы подписались на такой сервис и ленитесь поздравлять их лично. Наверное, человечество как-то приноровится жить в мире, где нет ни дна, ни покрышки, ни верха, ни низа — вообще ничего нет, о чем можно было бы хоть что-то точное сказать. Но вряд ли это будет приятная жизнь. 

Представьте, лучше, что в такой реальности станут предельно персонифицировать рекламу: вероятно, скоро Гугл или Ютьюб смогут вместо записанных блоков показывать каждому свое: домохозяйке средних лет говорить одно, молодому парню из клуба зоозащитников — другое. Одно время разные звезды, типа Валерия Меладзе и Димы Билана, звонили по телефону и приглашали на распродажу в сеть ювелирных магазинов. Причем, голоса подбирали по возрасту и полу абонента, старались, чтобы Билан звонил молодым, Меладзе — женщинам 50! Как они нам тогда надоели! 

Но вообразите, что теперь для таргетирования, то есть прицельного применения рекламы будут мониторить ваши соцсети, деловую переписку, рецепты блюд, содержимое вашей умной мультиварки и на основе этих данных станут записывать видеообращения. Интересно, будет ли запрещена реклама, которая делает человека абсолютно уязвимым для маркетинга, пропаганды, политического пиара. По идее, человечество от нее отделяет только охрана персональных данных. Раньше мы все смеялись: да кому нужно следить за тобой? А тому, кто хочет доставлять рекламу прямо в мозг. Чтобы вы покупали и потребляли, покупали и потребляли, для чего работали бы еще больше.

На днях вспоминали годовщину смерти Эдуарда Лимонова. Он еще в начале 90-х в «Дисциплинарном санатории» писал, что государства разделились на два типа: тоталитарные, практикующие старые способы насилия над личностью, и свободные, которые мягко заставляет человека жить ради потребления.

Возможность полностью дезориентировать человека в мире и принудить его покупать что угодно теперь подается как шаг навстречу ему же самому: дескать, открылись обывателю бескрайние просторы выразить себя. Под видом благого изобретения прямо на наших глазах рождается потенциальный инструмент насилия над человеком. 

Помните ли вы историю с Канье Уэстом, который заказал для Ким Кардашьян поздравление от имени ее умершего отца? Сейчас доступна такая услуга — цифровое восстановление личности покойника. Делают аватары тех, кто нас покинул, в общем. Ну и Ким Кардашьян такой подарили. Вот только мертвый отец вдруг объявил, что Канье Уэст... самый гениальный человек в мире! 

Как иначе? Кто платит, тот песню и включает. 

Между прочим, в Китае, Южной Корее уже есть научные работы о перспективах использования цифровых аватаров в рекламе. Одно дело, когда сковородку тебе рекламирует непонятная тетя, другое — если ты вдруг посреди просмотра фильма увидишь рекламу, в которой уже твоя настоящая тетя, скончавшаяся год тому назад в ДТП, будет склонять тебя купить сразу весь набор посуды... Вопрос таргетирования такой рекламы вообще плевый, пока все упирается исключительно в проблему недостаточно точного сбора данных о связях живых пользователей и умерших. Не исключено, что те, кто в соцсетях и разных генеалогических банках указывали родственные связи, первыми столкнутся со столь жестокой рекламой, если не удастся ее остановить. Сегодня для этого нужно только отследить тесные или родственные связи, иметь в доступе видеозапись человека и несколько его речей: посты в соцсетях, переписку с близкими.

Сейчас мошенники пишут во ВК всем подряд, что школьнику, что профессору, «Кинь до аванса десятку на карту ни в падлу», а смогут от имени взломанного друга и самым интеллигентным языком объяснять, что в командировке на Суринам у них украли багаж с кошельком и нужны деньги, чтобы вернуться к понедельнику на кафедру МГУ. Текстово такую рекламу сети уже способны делать — вопрос лишь в том, что для этого им придется открыто признать тотальную слежку. А если столь мелкую проблему уладят? Убедят общество, будто в его же интересах отказаться от последней приватности ради смешных роликов и «более персонифицированной рекламы». Человек будет считать, что персонифицированный значит исполненный уважения конкретно к нему. А на самом деле это значит, что его станут уговаривать отдать еще больше денег.

Представьте, заходите утром на свою страницу, а там мертвая соседка дарит купон на скидку в супермаркете, тут же живой сосед просит кинуть денег на карту, а видеохостинг ставит политическую рекламу, где голограмма кандидата обещает вам лошадь, потому что накануне вы видели ее во сне и утром тайком решили выяснить, к чему же она приснилась.

У нас давно популярны апокалиптические фантазии по поводу выхода искусственного интеллекта из-под контроля, под которым обычно подразумевают вероятность нанесения намеренного вреда человеку или массовый сбой техники. Со сбоем понятно: если не переводить на управление ИИ красную ядерную кнопку или пассажирские лифты, то все обратимо. 

По поводу возможности причинения человеку ИИ намеренного вреда можно только развести руками. Да, да, первый закон робототехники — не причинять вред человеку. Но закон-то ему должен дать человек. В литературе дали такой, а в реальности ИИ может получить совсем другие установки. Например, заставлять человека тратить все деньги. Или, как было при обучении автомобилей Tesla, при выборе неизбежного причинения вреда всегда убивать и калечить пожилых людей, а не детей и женщин фертильного возраста. В итоге техника может существенно сократить число тех же профессоров. Вреда от ИИ может быть два: или он убивает из-за невозможности обучиться как человек, или человек берет его в свои руки и им убивает (разоряет, разыгрывает, обманывает) другого человека. 

Вряд ли население Земли, обсуждая страхи перед бунтом машин, имеет в виду, что система умного дома станет сама включать дистанционно утюги. 

Жизненно важный выбор в потоковом порядке искусственный интеллект тоже пока не делал, разве что в некоторых странах в пандемию при осуществлении медицинской сортировки. Значит, самое страшное, что нам грозит от ИИ — возможность попадания всего этого в руки мошенников... 

Просто вдумайтесь, что мы стоим в шаге от того, чтобы у преступников, которые просят денег или звонят «с главного управления МВД», появились приложения, которые в долю секунды создают текст, имитирующий речевой лад конкретного пользователя, и создающий видео с ним. Имитацию речи уже делает GPD, раньше это было плодом тяжелых трудов специалистов по корпусной лингвистике, а сейчас любой может быстро получить поэму в стиле Маяковского. Что мешает преступникам вместо дурацких стихов запрашивать пост в манере любого пользователя, образцы текстов и телефонных звонков которого доступны алгоритму? Это реально внедрить в массы уже в конце года. Если люди не окажутся готовы к таким испытаниям, половина населения может лишиться всего и сразу, не дождавшись восстания машин.

#новые_критики #ии #искусственный_интеллект #дипфейк

Подписывайтесь на нас в соцсетях:
  • 1384

Комментарии

Для того, чтобы оставлять комментарии, необходимо авторизоваться или зарегистрироваться в системе.
  • Комментарии отсутствуют