Чат с ChatGPT — не исповедь: создатель OpenAI предупредил, что конфиденциальности в переписке с ИИ нет
Сэм Альтман впервые озвучил вслух то, о чём многие догадывались: переписка с ChatGPT может быть передана по запросу властей — и даже использована в суде. В отличие от разговора с врачом или адвокатом, общение с ИИ не защищено законом. А значит, личные откровения с чат-ботом — не только уязвимы, но и потенциально опасны.
Терапевт без лицензии
«Люди рассказывают ChatGPT о самых личных мелочах в своей жизни. Сейчас, если вы говорите об этих проблемах с терапевтом, юристом или врачом — существует юридическая привилегия. Но мы пока не продумали, как это будет реализовано при общении с ChatGPT», — признал Альтман в подкасте This Past Weekend w/ Theo Von.
Сегодня ChatGPT активно используется как замена не только поисковой системе, но и реальным специалистам. По словам Альтмана, особенно молодая аудитория прибегает к ИИ как к первому собеседнику в моменты стресса, конфликтов и эмоциональной нестабильности. Проблема в том, что законы не считают ChatGPT защищённым каналом, и разговор с ним не подпадает под статус врачебной или адвокатской тайны.
«Я думаю, у нас должна быть та же концепция конфиденциальности для ваших разговоров с ИИ, что и с терапевтом или кем-то ещё, — но ещё год назад об этом никто не задумывался», — отметил Альтман.
Иными словами, в случае необходимости власти могут запросить у OpenAI все переписки пользователя с ИИ, а те будут обязаны предоставить их.
Можно ли вообще использовать переписку с ИИ в суде
По словам юриста Адвокатского бюро «Соколов, Трусов и Партнеры» Мирославы Бризицкой, теоретически переписка с ИИ может быть признана доказательством, если она получена и оформлена по всем процессуальным требованиям. При этом в уголовном процессе — только с разрешения суда и надлежащим образом заверенная.
«Независимо от вида судопроизводства, доказательство должно отвечать единым требованиям – относимости, допустимости и достоверности», — подчеркивает юрист.
Переписка должна быть получена надлежащим субъектом, оформлена в рамках закона и подтверждена как достоверная. Без этого суд просто не примет её как доказательство. Кроме того, потребуется зафиксировать, что конкретное сообщение отправил именно тот человек, за кого себя выдаёт пользователь. Иначе — это не доказательство, а просто текстовый файл без юридической силы.
Подделать диалог с ИИ проще, чем кажется
К счастью для обычных пользователей, есть и еще одна проблема — невозможность подтверждения достоверности переписки. По словам сооснователя маркетплейса нейросетей ChadAI Артура Кольцова, на текущем уровне развития технологий подтвердить достоверность и неизменность сессии с ИИ — невозможно. Всё, что у нас есть — это доверие к платформе.
«Диалоги хранятся на стороне сервера, доступ к ним имеет сама компания. При этом отсутствуют публичные и независимые системы фиксации, которые могли бы подтвердить, менялось ли содержание диалога с момента его генерации», — говорит Кольцов.
Нет технических механизмов, которые удостоверяли бы не только текст, но и время, участников и содержание общения. Всё, что кажется «зафиксированным», на деле опирается на внутреннюю политику платформы. А это уже зона риска.
Даже OpenAI не может доказать, что сессия — «вчерашняя»
Даже если диалог действительно был, нет гарантий, что он был сгенерирован именно в заявленное время. Сессии могут быть созданы, экспортированы, отредактированы — и редко сопровождаются метаданными. В оффлайн-режиме или даже в браузере можно «нарисовать» любой сценарий — от признаний в совершенном преступлении до завуалированных угроз.
«Ни OpenAI, ни аналогичные платформы не могут юридически гарантировать, что конкретный диалог не был сгенерирован задним числом», — подчёркивает Кольцов.
Этот же тезис подтверждают и эксперты компании QUBOT, специализирующейся на робототехнике и искусственном интеллекте.
«В данный момент отсутствуют цифровые подписи, водяные метки (невидимые спецсимволы) или другие меры, которые обеспечивали бы проверку подлинности. Это означает, что теоретически сессию можно создать позже и выдать за ранее существующую», — подчеркивают эксперты.
По словам эксперта по цифровым технологиям Романа Никифорова, теоретически обеспечить достоверность переписки возможно: для этого необходимо ставить на каждую сессию независимую отметку времени (TSA‑штамп, eIDAS, RFC 3161) и писать ее в журнал, который нельзя переписать.
На практике подобные механизмы пока не используются, поэтому криптографической гарантии подлинности или целостности данных нет.
Что именно будет анализировать суд
Если такие сессии все же попадут в суд в качестве материалов дела, суд вряд ли будет рассматривать ответы бота. По мнению Алексея Корнеева, учредителя экосистемы цифрового управления гостиничным бизнесом Teamje и эксперта в сфере ИИ, сгенерированный текст вряд ли будет учитываться судом по причине его возможной недостоверности. Намного с большей вероятностью правоохранителей будут интересовать запросы пользователя.
«Если, предположим, он настойчиво ищет через ChatGPT способ собрать бомбу в домашних условиях, то, теоретически, история таких запросов может негативно повлиять на его позицию в суд», — рассуждает Корнеев.
В будущем суд действительно может начать учитывать действия пользователя, включая формулировки запросов, контекст взаимодействия с ИИ и намерения генерации материала. Вот только есть еще одна сложность: OpenAI не получает от этих платформ персональные данные пользователя, и потому идентифицировать отправителя запроса крайне сложно. А без верификации авторства, времени и технических условий доказательство теряет юридическую силу.
«Если используются сторонние интерфейсы или агрегаторы, идентификация автора обращения может быть затруднена. Такие платформы, как правило, не передают OpenAI данные о личности пользователя, а значит, подтвердить авторство, время и условия ввода запроса становится сложнее», — размышляет Артур Кольцов из ChadAI.
Рисков — слишком много
Главная угроза — снижение приватности. Пользователь общается с нейросетью так, как будто делится личным — но формально этот разговор может быть извлечён и проанализирован.
«Попытки использовать такую переписку как доказательство в суде создают угрозу тайне переписки. В отличие от коммуникации между двумя людьми, пользователь не получает от ИИ явных гарантий конфиденциальности, но и не ожидает, что его сообщения могут быть интерпретированы и предъявлены против него», — поясняет Кольцов.
Если платформа хранит чаты, она может быть обязана предоставить их по судебному решению — особенно в делах, связанных с угрозами, экстремизмом или планированием преступлений. Но на сегодняшний день у судов нет универсального алгоритма оценки таких материалов.
По мнению эксперта в области ИИ Алексея Корнеева, одна из основных проблем — отсутствие соответствующего законодательства. Пока ни в одной стране мира нет полноценной нормативно-правовой базы, регулирующей консультации с ИИ, из-за этого у судей нет четкого понимания того, как трактовать предоставленные переписки.
Что всё это значит
ИИ стал частью повседневной жизни, но не стал юридическим субъектом. Переписка с нейросетью — это не разговор с врачом или адвокатом. Она не защищена законом, не заверена подписью и может быть использована против вас. А может, и нет.
Как подытожила юрист Мирослава Бризицкая, дать однозначные ответы по поводу использования чата с ИИ как доказательства – нельзя. Можно только предположить, что пока отсутствует специальное правовое регулирование в вопросах ИИ, правоприменителям придется «применять нормы права по аналогии с привычными нам чатами и переписок в мессенджерах и социальных сетях».
Фото: Vertigo3d / Getty Images
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Популярное
Налог на прибыль организаций
Материалы по теме
-
Пройти курс «Как самозанятому стать ИП»
- 1 Вместо друзей и психологов — чат-боты: в России стали в 5 раз чаще разговаривать с ИИ Чат с виртуальным другом — новый способ справиться с тревогой и одиночеством 30 июля 19:04
- 2 15 секунд VS 18 минут: Мосбиржа создала внутренний ИИ-поисковик для ускорения работы в 72 раза Он уже стал частью ИИ-экосистемы, следующий шаг — персональный голосовой ассистент 28 июля 11:35
- 3 Яндекс открыл доступ к крупнейшей нейросети в стране — бизнесу дали конструктор ИИ-агентов Yandex B2B Tech дал доступ к инструменту, который способен изменить правила игры 25 июля 18:31
- 4 21 млрд на нейросетях: у «Авито» появилась должность директора по ИИ Задача руководства — распространить нейросети на все процессы сервиса 25 июля 13:09