Глава киберзащиты США слил секретные данные в ChatGPT

Исполняющий обязанности директора CISA случайно загрузил конфиденциальные документы в публичный ChatGPT. Разбираемся, как это произошло и почему это важно.

Глава киберзащиты США слил секретные данные в ChatGPT
TL;DR: Исполняющий обязанности директора главного агентства кибербезопасности США (CISA) загрузил конфиденциальные госдокументы в обычный публичный ChatGPT. До этого он специально выпросил себе доступ к чатботу, хотя остальным сотрудникам его запрещено использовать. Сейчас идёт расследование, а сам руководитель уже проваливал полиграф и пытался убрать из агентства тех, кто ему возражал.

Если ты когда-нибудь загружал рабочий документ в ChatGPT и потом думал "ой, а надо ли было" — представь, что ты руководишь кибербезопасностью целой страны. И документы у тебя не табличка с квартальным отчётом, а внутренние контрактные данные правительства.

Что произошло

Мадху Готтумуккала, исполняющий обязанности директора CISA (это Агентство по кибербезопасности и защите инфраструктуры, одна из главных структур в этой области в США), летом прошлого года загрузил конфиденциальные документы в публичную версию ChatGPT.

Самое интересное: большинству сотрудников DHS (Министерство внутренней безопасности) доступ к ChatGPT закрыт. У них есть свой внутренний инструмент DHSChat, который не отправляет данные за пределы федеральных сетей. Но Готтумуккала, придя в агентство, попросил специальное разрешение на использование ChatGPT. И получил его.

По словам одного из чиновников, это выглядело так, будто он "вынудил CISA дать ему ChatGPT, а потом злоупотребил этим".

Загруженные документы не были засекречены в привычном смысле. Они шли с пометкой "только для служебного пользования" — то есть их раскрытие может навредить людям или помешать работе федеральных программ. Не ядерные коды, конечно. Но и не то, что должно попадать в обучающую выборку публичного AI-сервиса с 700 миллионами пользователей.

А что с расследованием

Загрузка вызвала несколько внутренних предупреждений системы безопасности, которая как раз и создана для предотвращения утечек. DHS начало расследование ещё в августе. Готтумуккале могли вынести предупреждение, отправить на переобучение, или даже отозвать допуск к секретным данным.

Но закончилось ли расследование — никто публично не подтвердил. Пресс-служба CISA вместо ответа на этот вопрос сообщила, что "доступ был краткосрочным и ограниченным", и что использование ChatGPT соответствовало указу Трампа о внедрении AI в госструктуры.

Человек, который руководит киберзащитой

Думаю, тут стоит рассказать контекст, потому что без него история выглядит как обычная оплошность, а с ним — немного иначе.

Готтумуккала попал на эту должность после того, как кандидатуру Шона Плэнки (которого выбрал Трамп) заблокировал сенатор из-за спора о контракте береговой охраны. Кристи Ноэм, глава DHS, поставила Готтумуккалу как временную замену. До этого он работал у неё IT-директором в Южной Дакоте.

С тех пор его работу в CISA критикуют с обеих сторон — и демократы, и республиканцы. Вот что накопилось:

Он провалил полиграф, когда пытался получить доступ к особо секретной киберразведке. Потом назвал тест "несанкционированным" и обвинил шестерых сотрудников, которые организовали проверку, в нарушении протокола. Их допуски к секретной информации приостановили.

Он пытался убрать Роберта Костелло, главного IT-директора CISA, который работал в агентстве четыре года и считался одним из лучших технических специалистов. По данным источников, Костелло часто возражал Готтумуккале по рабочим вопросам. Перевод заблокировали другие политические назначенцы в DHS.

Под его руководством агентство сократилось с 3400 до 2400 сотрудников. Конгресс на слушаниях в январе спрашивал, не подрывает ли это национальную безопасность. Готтумуккала не смог назвать ожидаемое число кибератак на промежуточные выборы 2026 года. Конгрессмен Тони Гонсалес прямо сказал: "У нас должна быть эта цифра".

Сейчас Готтумуккала обещает "нанять людей обратно" в 2026 году, признавая, что вакансии в агентстве достигают 40% по ключевым направлениям.

Почему это не просто курьёз

Мне кажется, тут проблема глубже, чем один человек и один неправильный промпт. Есть правило: если ты руководишь кибербезопасностью, ты должен понимать, как работают инструменты, которые используешь. Не на уровне "о, ChatGPT, удобненько", а на уровне "данные, которые я туда загружаю, могут быть использованы для обучения модели и всплыть в ответах другим пользователям".

Это, в общем, базовая вещь, которую знает любой человек, читавший пользовательское соглашение OpenAI. Или не читавший, но хотя бы слышавший про утечку данных Samsung через ChatGPT в 2023 году.

А ещё это хорошее напоминание для всех нас. Корпоративные данные, код, внутренние документы — всё это не стоит заливать в публичные AI-сервисы. У большинства крупных компаний для этого есть свои инструменты (как тот самый DHSChat).

Что ещё почитать