Калифорния заставляет чатботов признавать, что они не люди
Калифорния приняла закон, который обязывает разговорные ИИ откровенно заявлять о своей природе, меняя правила взаимодействия чатботов с людьми.
Что требует закон
С 2026 года любой разговорный ИИ, который может быть ошибочно принят за человека, должен ясно сообщать, что он не человек. Сенатский билль 243 — первый подобный нормативный акт в США, и он направлен на предотвращение обмана в диалогах человек–машина.
Правило кажется простым, но на практике содержит множество деталей. Если чатбот может ввести разумного человека в заблуждение относительно того, что он общается с реальным человеком, бот обязан идентифицировать себя как искусственный агент.
Защита детей и работа с чувствительными ситуациями
Закон вводит отдельные меры защиты для несовершеннолетних. Системы ИИ, взаимодействующие с детьми, должны периодически напоминать им, что собеседник — искусственный интеллект, причем напоминания требуются каждые несколько часов. Кроме того, закон запрещает ботам выдаваться за врачей или психологов, закрывая возможность для ИИ выступать в роли терапевта.
Компании также обязаны ежегодно отчитываться перед Государственным управлением по предотвращению самоубийств о том, как их системы реагируют на откровения о самоповреждающем поведении, что добавляет новый уровень ответственности за реакцию в кризисных ситуациях.
Применение и правовые вопросы
Применение закона зависит от того, мог бы ли разумный человек быть введен в заблуждение, что порождает сложные юридические вопросы о том, как определять этот стандарт по мере развития разговорного ИИ. Лидеры технологического сектора опасаются, что различия в правилах между штатами приведут к фрагментации регулирования и появлению режимов раскрытия информации в зависимости от местоположения.
Автор закона, сенатор Стив Падилья, настаивает, что речь идет о проведении границ, а не об ограничении инноваций. Наблюдатели отмечают, что подобные инициативы уже предпринимаются в мире, например в ЕС и Индии.
Социальный и философский эффект
Помимо технических требований, закон затрагивает более широкую дискуссию о честности в отношениях человека и машины. Когда чатбот открыто признает, что он ИИ, психологическая динамика меняется. Этот разрыв в иллюзии может уменьшить риск эмоциональной манипуляции и помочь установить более ясные ожидания относительно возможностей и ограничений таких систем.
Шаг Калифорнии может показаться небольшим, но он задает начало общественного соглашения об обеспечении прозрачности и ответственности в использовании ИИ. Разработчикам, регуляторам и пользователям теперь предстоит определить, что значит вести диалог с искусственными, но убедительными агентами.