Samsung уволит сотрудников, пойманных за использованием ChatGPT

Samsung уволит сотрудников, пойманных за использованием ChatGPT

Samsung стала последней организацией, запретившей своим сотрудникам использование ChatGPT, чтобы предотвратить утечку корпоративных данных.

Как сообщает Bloomberg, корейский электронный гигант отправил меморандум своим сотрудникам, выразив свою озабоченность "рисками безопасности, представленными генеративным ИИ". Компания обнаружила, что некоторые инженеры случайно утечку внутреннего исходного кода, загрузив его в ChatGPT.

В меморандуме говорится, что сотрудники не могут больше использовать ChatGPT, Google Bard и Bing chat на компьютерах и устройствах, принадлежащих компании, а также внутренних сетях. Запрет распространяется только на сотрудников, что означает, что устройства Samsung, проданные потребителям, все еще могут использовать приложения генеративного ИИ.

В меморандуме указывается, что после загрузки данные, введенные в такие сторонние приложения, будут храниться на внешних серверах и станут трудными для извлечения, удаления и, в конечном итоге, могут быть раскрыты другим пользователям. Меморандум предупреждает, что сотрудники, нарушающие правила, могут быть уволены.

Недавно ChatGPT добавил режим "инкогнито", который позволяет пользователям исключить свои чаты из использования в обучении моделей ИИ. В прошлом месяце Open AI заявила, что работает над бизнес-версией ChatGPT, в которой пользователи получат больший контроль над своими данными.

Тем временем компании, включая JPMorgan Chase, Amazon, Verizon и Accenture, запретили своим сотрудникам использование ChatGPT в работе. Они разделяют опасения Samsung, что использование подобных приложений может подвергнуть опасности безопасность конфиденциальных корпоративных данных.

Несмотря на то, что некоторые крупные компании не хотят, чтобы их сотрудники использовали ChatGPT, более 90% руководителей бизнеса, опрошенных в отчете Resume Builder, нанимают сотрудников с опытом работы с ChatGPT.

Читать оригинальную статью (eng): aibusiness.com