Apple запрещает сотрудникам использовать ChatGPT.

В соответствии с ранее сделанными предупреждениями, компания Apple стала одной из растущего числа компаний, запрещающих сотрудникам использовать ChatGPT от OpenAI и другие подобные облачные сервисы генеративного ИИ в целях защиты конфиденциальности данных. The Wall Street Journal сообщает, что Apple также запретила сотрудникам использовать инструмент Copilot от GitHub, который некоторые разработчики используют для помощи в написании программного обеспечения.

Недавний опрос показал, что 39% разработчиков Mac используют эту технологию.

Почему полный запрет имеет смысл

Хотя запрет может показаться экстремальным, он показывает, что компания обращает внимание на поток предупреждений, исходящих от специалистов по безопасности относительно использования этих сервисов. Беспокойство вызывает то, что их использование может привести к раскрытию конфиденциальных или секретных данных. Samsung запретил эти инструменты ранее в этом году, когда обнаружил, что сотрудники компании загрузили конфиденциальный исходный код в ChatGPT.

Специалисты по безопасности прекрасно осведомлены об этой проблеме. Викус Росс, старший исследователь безопасности в Orange Cyberdefense, предупреждает:

"Пока чат-боты с искусственным интеллектом обучаются и совершенствуются их разработчиками, не исключено, что сотрудники могут получить доступ к данным, которые вводятся в них. А учитывая, что люди часто являются самым слабым элементом системы безопасности предприятия, это открывает доступ к информации для целого ряда угроз, даже если риск является случайным".

Хотя OpenAI продает корпоративным клиентам более конфиденциальную (и дорогую в эксплуатации) версию сервиса на собственном хостинге, риск заключается в том, что в соответствии с соглашением об общественном использовании конфиденциальность данных почти не соблюдается.

Это плохо с точки зрения конфиденциального кода и внутренней документации, но глубоко опасно при работе с информацией из сильно регулируемых отраслей, банковского дела, здравоохранения и других. Мы уже видели, по крайней мере, один инцидент, когда запросы ChatGPT были открыты для несвязанных пользователей.
Вопрос заключается в том, кому принадлежат данные и можно ли им доверять?

Хотя решение Apple может показаться чрезмерной реакцией, предприятиям необходимо убедить сотрудников быть осторожными в том, какими данными они делятся. Проблема заключается в том, что при использовании облачной службы для обработки данных существует большая вероятность того, что информация будет сохранена службой для оценки, анализа или даже использования в будущем.

По сути, вопросы, которые вы задаете подобной службе, становятся точками данных для будущих ответов. Информация, переданная облачному сервису, может быть доступна людям, как изнутри компании, так и в результате атаки извне. Мы уже видели, как это происходит. OpenAI пришлось отключить ChatGPT после утечки данных в начале этого года.

Рекомендации Национального исследовательского центра кибербезопасности Великобритании (NCSC) объясняют природу риска. В нем отмечается, что запросы будут видны поставщику услуг, храниться и «почти наверняка» в какой-то момент будут использованы для развития услуги.