Калифорния заставляет чатботов признавать, что они не люди

Калифорния приняла закон, который обязывает разговорные ИИ откровенно заявлять о своей природе, меняя правила взаимодействия чатботов с людьми.

Что требует закон

С 2026 года любой разговорный ИИ, который может быть ошибочно принят за человека, должен ясно сообщать, что он не человек. Сенатский билль 243 — первый подобный нормативный акт в США, и он направлен на предотвращение обмана в диалогах человек–машина.

Правило кажется простым, но на практике содержит множество деталей. Если чатбот может ввести разумного человека в заблуждение относительно того, что он общается с реальным человеком, бот обязан идентифицировать себя как искусственный агент.

Защита детей и работа с чувствительными ситуациями

Закон вводит отдельные меры защиты для несовершеннолетних. Системы ИИ, взаимодействующие с детьми, должны периодически напоминать им, что собеседник — искусственный интеллект, причем напоминания требуются каждые несколько часов. Кроме того, закон запрещает ботам выдаваться за врачей или психологов, закрывая возможность для ИИ выступать в роли терапевта.

Компании также обязаны ежегодно отчитываться перед Государственным управлением по предотвращению самоубийств о том, как их системы реагируют на откровения о самоповреждающем поведении, что добавляет новый уровень ответственности за реакцию в кризисных ситуациях.

Применение и правовые вопросы

Применение закона зависит от того, мог бы ли разумный человек быть введен в заблуждение, что порождает сложные юридические вопросы о том, как определять этот стандарт по мере развития разговорного ИИ. Лидеры технологического сектора опасаются, что различия в правилах между штатами приведут к фрагментации регулирования и появлению режимов раскрытия информации в зависимости от местоположения.

Автор закона, сенатор Стив Падилья, настаивает, что речь идет о проведении границ, а не об ограничении инноваций. Наблюдатели отмечают, что подобные инициативы уже предпринимаются в мире, например в ЕС и Индии.

Социальный и философский эффект

Помимо технических требований, закон затрагивает более широкую дискуссию о честности в отношениях человека и машины. Когда чатбот открыто признает, что он ИИ, психологическая динамика меняется. Этот разрыв в иллюзии может уменьшить риск эмоциональной манипуляции и помочь установить более ясные ожидания относительно возможностей и ограничений таких систем.

Шаг Калифорнии может показаться небольшим, но он задает начало общественного соглашения об обеспечении прозрачности и ответственности в использовании ИИ. Разработчикам, регуляторам и пользователям теперь предстоит определить, что значит вести диалог с искусственными, но убедительными агентами.