ИИ, КОТОРЫЙ ВРЁТ: ПОЧЕМУ ДОВЕРИЕ В ТУРИЗМЕ СТАНОВИТСЯ ХРУПКИМ

Интернет всё больше и больше наполняется синтетическим контентом, штампуемым ИИ. Сфера туризма, путешествий и гостеприимства пухнет от искусственной информации. «Некачественный контент» (slop) стал настолько распространённым, что назван словом года по версии словаря Merriam-Webster.
Информация и турмаршруты, созданные с помощью нейронки и основанные скорее на конструировании информации, чем на реальных фактах, не только вводят в заблуждение, но и способны нанести серьёзный ущерб репутации туристических брендов и платформ, особенно тех, кто ошибочно принимает опору на «достаточно хороший» контент, генерируемый ИИ, за стратегию.
Неточные данные и несуществующие места назначения — составляющие эпидемии «некачественного» контента, создающей хаос как для потребителей, так и для брендов.
«Некачественный» контент, а точнее — ошибочные рекомендации, влияют на то, куда люди едут, сколько тратят и каким брендам доверяют.
Например, ИИ рекомендовал посетить «мистические бирюзовые бассейны» возле перуанского озера Умантай, побудив туристов искать это завораживающее место. Но его не существует.
Можно вспомнить и испанскую блогершу, чья поездка в Пуэрто-Рико была сорвана из-за того, что ChatGPT ошибочно заявил, что ей не нужна виза.
Местные власти Фукуоки в Японии принесли извинения и отозвали поддержку нового туристического веб-сайта после того, как ИИ одного из поставщиков услуг сфабриковал несуществующие природные чудеса и вымышленные кулинарные деликатесы.
Вирусный ИИ-фейк привёл к тому, что пожилая пара отправилась на поиски замечательной канатной дороги «Каяк Скайрайд» в Малайзии, поверив дипфейк-видео с поддельным персонажем ИИ, выдающим себя за репортёра новостей. Чиновникам пришлось разъяснить общественности, что канатная дорога не существует.
С помощью ИИ был создан воображаемый рынок возле Букингемского дворца, футуристическая панорамная ночная поездка на поезде в Норвегии и мошеннические схемы Airbnb, основанные на поддельных изображениях, сгенерированных ИИ.
Трэвел-брехня — что это: досадные недоразумения, шутка или мошенничество?
Некачественный (мягко говоря) контент появляется, когда ИИ-модели отдают приоритет видимости полезности, а не точности. Фактически они могут выдавать правдоподобно звучащие ответы, чтобы понравиться, а то и угодить пользователю.
«Ловкости рук» ИИ не должна сходить с рук. Вместо того чтобы позволять ИИ искать — или выдумывать — информацию, компаниям необходимо активно направлять алгоритмы к правильным ответам. Использование процессов дополненной генерации [RAG — Retrieval-Augmented Generation] для обеспечения того, чтобы ИИ отвечал только на основе проверенных баз данных в режиме реального времени, должно стать для компаний обязательным, — говорят эксперты.
ИИ-модели также можно программировать так, чтобы они говорили «Я не знаю», а не гадали, когда данные отсутствуют.
Эффективный сценарий основывается на использовании RAG с т. н. MCP* — протоколом, «протоколом контекста модели». RAG обрабатывает то, что должна сказать модель, извлекая правильные факты, а протокол MCP определяет, куда она может обратиться, стандартизируя соединения с внутренними инструментами и базами данных.
*MCP (Model Context Protocol) — открытый протокол, разработанный компанией Anthropic для унификации взаимодействия языковых моделей (LLM) с внешними системами и данными, позволяющий ИИ-агентам выполнять реальные действия — такие, как сбор информации из почты или CRM, — заменяя сложные, разрозненные интеграции одним стандартом. Протокол работает как «универсальный USB-коннектор» для ИИ, позволяя чат-ботам запрашивать данные по мере необходимости, а не загружать всё в один большой промпт, делая работу ИИ более эффективной.
В результате правильно настроенные нейронки получают ответы на запросы из систем управления поездками (от TMC-компаний), а не только из общедоступного (и переполненного «халтурой», slop-ом) интернета.
Очевидно, что ИИ для корпоративных поездок должен использовать проверенные источники данных — глобальные системы дистрибуции, системы управления персоналом, политики в отношении управления рисками, — и каждая рекомендация должна проверяться в режиме реального времени.
Некачественная работа ИИ — это не только технологическая проблема, но и проблема доверия к туристическим и гостиничным компаниям. Когда результаты работы ИИ вводят в заблуждение или мистифицируют информацию, пользователи винят не только алгоритм, но и бренд.
Ещё в 2024 году суд признал Air Canada виновной в том, что её чат-бот ввёл клиента в заблуждение относительно тарифов для лиц, переживших утрату. ИИ посоветовал пассажиру сначала слетать, а затем подать заявку на снижение тарифа, хотя политика Air Canada этого не допускала. Ложный контент — это не только источник досады, но и угроза безопасности людей. Вернёмся к случаю с фальшивыми «мистическими бирюзовыми бассейнами» возле перуанского озера Умантай. По данным BBC, гиды в перуанских Андах видели, как туристы приземлялись в районе озера, получив от ИИ указания, ведущие в никуда. Если бы туристы до конца следовали инструкциям ИИ, они оказались бы в отдалённом районе с плохим покрытием сотовой связи, подверглись бы воздействию высоты, холода и могли получить серьёзные травмы.
В Приморье в начале января искали автора фейкового нейроролика о нападении тигра на человека: ролик привёл к настоящей панике среди местных жителей. В Минприроды края подчеркнули, что подобные ролики вводят людей в заблуждение и создают ложное ощущение угрозы (и могут влиять на спрос со стороны гостей и туристов).
Победителями в борьбе за клиентов и гостей окажутся не те компании, что «выкатили» с громкими заявлениями ботов, а те, что наведут порядок в своих данных и обеспечат правдивую работу систем. Назовём устранение лжи и мистификаций в «продукции» ИИ необходимым техническим обслуживанием. Без такого технического обслуживания сегодня, пожалуй, не обойтись тем, кто желает быть на острие модных трендов.
Это авторский материал. Мнение редакции может не совпадать с мнением автора.
Об авторе
Павел Баскаков

Источник: hotelier.pro




