Если несколько лет назад всех поражала способность ChatGPT поддерживать содержательный и, казалось бы, живой диалог, то сегодня это уже никого не удивляет. Возможности искусственного интеллекта (ИИ) позволяют нам генерировать фотореалистичные изображения по короткому описанию, создавать видеоролики с говорящей головой по одному портрету и клонировать голос любого человека без особых усилий. Этим, кстати, стали широко пользоваться телефонные мошенники.

Все эти технологии сегодня объединяют компании, которые предлагают клиентам возможность пообщаться с умершими близкими. Это может быть как простая переписка с усопшим дядей, так и видеозвонок бабушке, которая уже много лет лежит в земле. Project December, например, предлагает такую услугу по стартовой цене, не превышающей ежемесячную абонентскую плату популярных сервисов потокового видео. Люди, которые уже воспользовались услугами компании, рассказывают, насколько правдоподобны эти воскрешенные в цифровом формате собеседники. Другие предупреждают о рисках, которые неизбежно влечет за собой подобный опыт.

Исследователи этики из Кембриджского университета Томаш Холанек и Катажина Новачук-Базинска — не единственные, кто бьет тревогу. Еще в 2022 году, когда ChatGPT был новинкой для широкой публики, риски, которые несут подобные алгоритмы, обсуждались в публикации „Griefbots. A New Way of Communicating With The Dead?“.

В своей последней работе Холанек и Новачук-Базинска задаются несколькими вопросами. Кому принадлежат данные покойного после смерти? Какое психологическое воздействие могут оказать такие „боты скорби“ на живых? Могут ли и как могут использоваться подобные технологии не по назначению, и кто имеет право удалить такого чатбота? В работе, опубликованной в журнале Philosophy and Technology, два исследователя разработали и разобрали три гипотетических сценария. Первый — компания MaNana, которая предлагает людям создать клон своей умершей бабушки с помощью технологий искусственного интеллекта.

Разумеется, без согласия „донора данных“ — бабушка давно умерла. Используя записи голоса, видео и изображения, инструмент генерирует реалистичного цифрового собеседника, копию бабушки. В гипотетическом сценарии взрослый внук вначале пользуется инструментом бесплатно и удивляется тому, насколько правдоподобным оказывается цифровой клон бабушки. Разговоры напоминают о детстве, сердце наполняется теплом. Но как только эмоциональная привязанность к сервису установлена, пробный период заканчивается, и за продукт приходится платить. Или вы можете продолжать пользоваться им без подписки, но за это придется заплатить иначе — ваша цифровая бабушка, которая ведет милые беседы о лучшем рецепте теста для блинов и воспоминаниях об отпуске в Хорватии, время от времени пытается порекомендовать вам тот или иной продукт или услугу.

Бабушка превратилась в мощный рекламный щит. Исследователи отмечают, что эмоциональная привязанность к умершему может открыть более широкие возможности для манипуляций.

А что, если внук не смирится с этим и почувствует, что запятнал память об умершей, которая теперь стала инструментом для рекламодателей? Кто будет иметь право отключить от розетки модель, созданную с помощью цифровых технологий? „Важно обсудить методы и даже ритуалы, позволяющие уважительно выключить таких ботов. Будь то цифровые похороны или какая-то другая церемония, в зависимости от социального контекста“, — цитирует Холанека, соавтора работы, сайт Кембриджского университета.

Изображение было создано с помощью инструмента искусственного интеллекта DALL-E.

Другой, возможно, еще более пугающий гипотетический сценарий — это сервис „Paren’t“. Как следует из названия, это „бот скорби“ для родителей. В сценарии речь идет о смертельно больной женщине, которая, чтобы утешить своего восьмилетнего ребенка, с помощью технологической компании создает говорящего бота — свою копию.

И хотя поначалу это помогает справиться с утратой, со временем алгоритм адаптируется к собеседнику (ребенку) и начинает обещать, например, скорую личную встречу. В зависимости от восприятия, это либо невыполнимое обещание (чатбот не оживит мать), либо даже пугающее (бессознательное указание на то, что ребенок тоже скоро присоединится к матери в потустороннем мире).

Таким образом, Холанек и Новачук-Базинска подчеркивают важность установления возрастных ограничений для подобных сервисов с учетом психологической и эмоциональной зрелости пользователей. Маленького ребенка видеозвонок правдоподобно смоделированного говорящего бота мамы или папы действительно может успокоить, ведь „родители“ говорят, что ничего страшного не произошло — мама или папа все еще живы и скоро, очень скоро смогут встретиться с ним.

Наконец, в третьем сценарии вымышленный сервис под названием „Stay“ позволит человеку тайно создать своего собственного чат-бота, предоставив компании всю необходимую информацию, но не сообщая об этом близким. Как только человек умирает, сервис активируется и начинает поддерживать связь с его близкими. Например, умерший подписывается на сервис на 20 лет после смерти, и теперь сообщения от умершего родственника начинают появляться в электронной почте или чатах социальных сетей тех, кто остался в живых. Если они нежелательны, кто имеет право отказаться от них? Если бабушка заплатила за поздравления для своего внука на ближайшие 20 лет, поставщик услуг обязан соблюдать этот договор.

„Очень важно, чтобы поставщики посмертных услуг учитывали не только права и согласие умершего, но и тех, кто остался после него“, — подчеркивает Холанек. В противном случае такое нежелательное общение может вызвать очень неприятные чувства у еще живых. Любимый человек похоронен, но его цифровой „призрак“ продолжает преследовать вас и общаться на всех цифровых платформах“.

Исследователи предупреждают — об этих и других возможных проблемах цифрового бессмертия нужно начинать думать уже сегодня.

Поделиться
Комментарии