Ученый потерял два года работы — после отключения функции согласия на обработку данных в ChatGPT

Профессор растениеводства из Кёльнского университета (Германия) сообщил о потере двух лет академической работы после временного отключения опции «согласие на данные» в сервисе OpenAI. По его словам, сразу после изменения настроек все чаты и папки проектов в ChatGPT были безвозвратно удалены без предупреждения и возможности восстановления.

Работа с ChatGPT

Преподаватель рассказал, что на протяжении нескольких лет он активно использовал ChatGPT в своей профессиональной деятельности — для подготовки лекций, создания экзаменов, анализа ответов студентов, редактирования научных публикаций, написания заявок на гранты и даже в качестве интерактивного инструмента в образовательном процессе. Он был платным подписчиком ChatGPT Plus и воспринимал этот сервис как стабильное рабочее пространство, сохраняющее контекст и предыдущую работу.

По словам профессора, он осознавал риск фактических ошибок, присущий большим языковым моделям, но рассчитывал на другое — непрерывность доступа к материалам и сохранение истории работы. Именно поэтому внезапная потеря данных стала для него неожиданностью.

После исчезновения чатов преподаватель пытался восстановить доступ с помощью разных устройств, браузеров и настроек, но безуспешно. Обращение в службу поддержки OpenAI также не увенчалось успехом: сначала ответил автоматический агент, а позже сотрудник компании подтвердил, что данные удалены безвозвратно и не подлежат восстановлению.

Как отмечает автор, речь шла не об отдельных заметках, а о структурированных папках с проектами — интеллектуальной «рамке» двухлетней работы, которая использовалась в научной и преподавательской деятельности.

Ситуация привлекла внимание общественности после того, как ее описание было опубликовано в журнале Nature. В комментарии к публикации OpenAI подтвердила представленную версию событий и заявила, что удаление данных соответствует принципу «задуманная конфиденциальность».

В компании пояснили, что после окончательного удаления чатов их невозможно восстановить — ни через пользовательский интерфейс, ни через API, ни через службу поддержки. По мнению OpenAI, это соответствует лучшим практикам защиты персональных данных и применимым законодательным требованиям.

Компания также посоветовала пользователям самостоятельно создавать резервные копии своего контента, если они используют ChatGPT в профессиональных целях.

Автор статьи подчеркивает, что его случай раскрывает системную проблему: инструменты генеративного ИИ активно внедряются в науку и образование, но не соответствуют академическим стандартам надежности и подотчетности. По его мнению, если годы работы можно потерять «в один клик» без предупреждения, такие сервисы нельзя считать полностью безопасными для профессионального использования.

Вас также может заинтересовать

Оставить комментарий