Беседы с ChatGPT могут стать уликой в полиции: где проходит грань приватности

Часть переписок пользователей нейросети все же может оказаться у полиции. Об этом впервые прямо заявили в OpenAI.
OpenAI впервые признала, что часть переписок с нейросетью может быть передана в полицию. Разработчики объяснили, какие диалоги считаются опасными, что останется личным и почему правила конфиденциальности вызывают споры, передает Finratings.kz со ссылкой на Futurism
Стало известно, что сервис автоматически анализирует чаты и «подсвечивает» подозрительные разговоры – там, где речь идет о возможной угрозе другим людям или организациям. Такие диалоги направляют во внутренний отдел проверки. Там их просматривают сотрудники-рецензенты, которые работают по правилам компании.
Если спецслужбы видят реальную опасность, то информация уходит дальше – в правоохранительные органы. Одновременно аккаунт нарушителя блокируют.
Речь идет не обо всех разговорах, а только о случаях, связанных с планами насилия, преступлений или других действий, которые несут серьезный риск.
«Когда мы сталкиваемся с угрозой неминуемого вреда другим людям, мы можем передать переписку в полицию», – говорится в заявлении OpenAI.
Любопытная деталь: угрозы самому себе в отчеты не попадают. То есть, если пользователь пишет о самоповреждениях или суицидальных мыслях, такие диалоги компания хранит в секрете. Здесь, как пояснили в OpenAI, действует принцип уважения к приватности и личной жизни.
Тем не менее сама формулировка правил вызывает вопросы. С одной стороны, компания говорит о защите личных данных. С другой – прямо признает, что отдельные переписки при определенных обстоятельствах могут стать уликой.
Четко запрещено использовать ChatGPT для создания оружия, нанесения вреда людям или имуществу, хакерских атак и подталкивания кого-то к самоубийству.
Компания фактически признает: абсолютной конфиденциальности нет. И граница между «личным» и «опасным» остается размытой.
Читайте также: