Профессор растениеводства из Кёльнского университета (Германия) сообщил о потере двух лет академической работы после временного отключения опции «согласие на данные» в сервисе OpenAI. По его словам, сразу после изменения настроек все чаты и папки проектов в ChatGPT были безвозвратно удалены без предупреждения и возможности восстановления.
Работа с ChatGPT
Преподаватель рассказал, что на протяжении нескольких лет он активно использовал ChatGPT в своей профессиональной деятельности — для подготовки лекций, создания экзаменов, анализа ответов студентов, редактирования научных публикаций, написания заявок на гранты и даже в качестве интерактивного инструмента в образовательном процессе. Он был платным подписчиком ChatGPT Plus и воспринимал этот сервис как стабильное рабочее пространство, сохраняющее контекст и предыдущую работу.
По словам профессора, он осознавал риск фактических ошибок, присущий большим языковым моделям, но рассчитывал на другое — непрерывность доступа к материалам и сохранение истории работы. Именно поэтому внезапная потеря данных стала для него неожиданностью.
После исчезновения чатов преподаватель пытался восстановить доступ с помощью разных устройств, браузеров и настроек, но безуспешно. Обращение в службу поддержки OpenAI также не увенчалось успехом: сначала ответил автоматический агент, а позже сотрудник компании подтвердил, что данные удалены безвозвратно и не подлежат восстановлению.
Как отмечает автор, речь шла не об отдельных заметках, а о структурированных папках с проектами — интеллектуальной «рамке» двухлетней работы, которая использовалась в научной и преподавательской деятельности.
Ситуация привлекла внимание общественности после того, как ее описание было опубликовано в журнале Nature. В комментарии к публикации OpenAI подтвердила представленную версию событий и заявила, что удаление данных соответствует принципу «задуманная конфиденциальность».
В компании пояснили, что после окончательного удаления чатов их невозможно восстановить — ни через пользовательский интерфейс, ни через API, ни через службу поддержки. По мнению OpenAI, это соответствует лучшим практикам защиты персональных данных и применимым законодательным требованиям.
Компания также посоветовала пользователям самостоятельно создавать резервные копии своего контента, если они используют ChatGPT в профессиональных целях.
Автор статьи подчеркивает, что его случай раскрывает системную проблему: инструменты генеративного ИИ активно внедряются в науку и образование, но не соответствуют академическим стандартам надежности и подотчетности. По его мнению, если годы работы можно потерять «в один клик» без предупреждения, такие сервисы нельзя считать полностью безопасными для профессионального использования.