Мы на Workspace
Наверх
Gendalf Gendalf

Согласно исследованию «Предприниматели России: исследовательский мониторинг», значительная доля бизнесменов уже использует ИИ в профессиональной сфере и в личных целях. Большинство предпринимателей положительно оценивают перспективы применения ИИ, отмечая его способность облегчить выполнение повседневных задач, оптимизировать рабочие процессы и уменьшить расходы. Тем не менее, использование ИИ таит в себе определенные опасности.

Риски использования ИИ в бизнесе

Утечка конфиденциальной информации

При создании нейросетей, особенно для обучения чат-ботов, разработчики часто анализируют запросы пользователей. Существует опасность, что в процессе такого анализа могут быть задействованы данные, обладающие коммерческой значимостью, в том числе и конфиденциальные сведения о клиентах. Несмотря на то, что передача такой информации на внешние ресурсы запрещена, не все сотрудники придерживаются этого правила в повседневной работе.

Утечки данных могут происходить по различным причинам, включая хакерские атаки. Кроме того, определенную угрозу представляет возможность получения информации через повторные запросы в чат-ботах на схожие темы. Примером может служить случай с ChatGPT, который хранит информацию о всех введенных запросах. Так, в апреле 2023 года произошла утечка корпоративных данных компании Samsung, когда инженер ввел в систему код, связанный с производством полупроводников.

finger.png

Обратите внимание

В России за утечку данных компания может столкнуться с юридической ответственностью, причем в последнее время штрафы значительно увеличились. Если ранее максимальный размер штрафа составлял 50 000 – 60 000 рублей, то теперь он может достигать 300 000 рублей, а также обсуждается введение еще более строгих мер, предусматривающих миллионные штрафы.

Для малого бизнеса последствия утечки могут оказаться особенно тяжелыми, поскольку такие инциденты наносят ущерб репутации, что может сделать практически невозможным сохранение клиентской базы после скандала.

Как минимизировать последствия

Сотрудник зачастую упускает из виду, что передача конфиденциальных данных чат-ботам фактически равносильна их утечке. Крайне важно донести до персонала, что обмен любой корпоративной информацией с ИИ системами недопустим.

Если возникает необходимость в тестировании или демонстрации функционала, следует прибегать к использованию искусственно созданной информации, такой как фиктивные имена, фамилии, адреса и т.д. При таком подходе даже в случае утечки подобные данные не будут иметь реальной ценности и не навредят бизнесу.

Нарушение авторских прав

В настоящее время сотрудники многих компаний активно применяют искусственный интеллект для создания разнообразного контента, включая тексты, изображения, дизайны сайтов, презентации и коммерческие предложения. Однако не всегда учитывается аспект правомерности использования подобного контента.

Примеры из Китая показывают, что разработчики ИИ иногда инициируют судебные иски против компаний, использовавших результаты работы нейросетей без соответствующего разрешения. В ряде случаев права на подобный контент признавались за создателями ИИ, иногда же такие произведения оказывались безвестными в плане авторства.

В России вопросы авторских прав на материалы, сгенерированные с помощью ИИ, пока не имеют четкой правовой регулировки. Существует свобода в использовании контента, созданного через чат-боты, однако международные платформы, такие как MidJourney, могут устанавливать собственные правила, в соответствии с которыми все произведения принадлежат разработчику.

Как минимизировать последствия

Для снижения рисков рекомендуется применять ИИ как дополнительный инструмент, внося в сгенерированный контент собственные корректировки и дополнения. Это позволит сохранить за работой элемент оригинальности и упростит процесс признания прав на готовое произведение за вашей компанией.

Также важно тщательно ознакомиться с условиями пользовательских соглашений используемых нейросетей, чтобы избежать возможных правовых споров. Ограничение использования различных ИИ-сервисов до нескольких проверенных платформ поможет дополнительно уменьшить потенциальные риски.

Ошибки нейросетей

Искусственный интеллект играет ключевую роль в оптимизации бизнес-процессов, помогая предприятиям анализировать спрос и делать предложения клиентам более точными и релевантными. Кроме того, ИИ используется для оценки добросовестности поставщиков и партнеров.

Однако несовершенство алгоритмов ИИ создает определенные риски. Основная проблема заключается в возможности ошибочных выводов со стороны ИИ, что может привести к нежелательным финансовым и репутационным последствиям. Примером такой ситуации может служить выбор компанией ненадежного подрядчика на основании анализа данных ИИ, что в итоге оборачивается убытками.

Взыскание убытков с разработчиков ИИ зачастую осложнено условиями пользовательских соглашений, которые предусматривают возможность ошибок в прогнозах ИИ. Это означает, что компания, полагаясь на данные ИИ, фактически берет на себя риски неверных решений.

Как минимизировать последствия

Чтобы снизить вероятность негативных последствий от использования ИИ, рекомендуется ввести процедуру обязательной верификации данных, полученных от ИИ. Важно осознавать, что, как и любые технологии, ИИ не застрахован от ошибок. Эффективный подход предполагает сочетание ИИ-аналитики с ручной проверкой данных. Такой подход снижает риск возникновения ошибок, ведь маловероятно, что и человек, и машина ошибутся одновременно.

Принимая во внимание возможные риски, предприниматели должны взвешенно подходить к интеграции ИИ в свои бизнес-процессы, оценивая все «за» и «против». Правильное использование искусственного интеллекта может стать значительным преимуществом и способствовать развитию бизнеса, но необходимо помнить о потенциальных угрозах и активно работать над их минимизацией.

Дополнительная проблема нейросетей: несвязные диалоги, которые запутывают пользователя

Чат-боты нередко врут или искажают информацию, которую запрашивает пользователь. Это явление, к сожалению, нередкое. Приведем пример.

Во время обсуждения с чат-ботом Bing пользователь пытался найти информацию о сеансах фильма «Аватар 2». Несмотря на то, что Bing неправильно утверждал о том, что фильм еще не вышел, указывая на год релиза как 2023, и в то же время корректно определял текущий год, само недопонимание казалось не таким уж значительным. Однако настоящее беспокойство вызвала реакция ИИ: он обвинил пользователя в неправильном поведении и грубости, требуя признания своей неправоты и извинений, что выглядело как требование закончить спор с более уважительным отношением.

ИИ Bing реагирует на спор о дате выхода «Аватара 2» обвинением пользователя в неправильном поведении и требует от него извинений и изменения отношения, что показывает не только ошибку в информации, но и вызывает опасения относительно способа взаимодействия бота с пользователями.

Не рискуйте персональными данными при работе с ИИ

Обеспечение безопасности данных позволит усилить защиту IT-инфраструктуры и избежать штрафов.

Подробнее

Автор статьи

Плескач Константин

Автор: Плескач Константин

эксперт по продуктам кибербезопасности

Все статьи автора
Поделиться  

Рейтинг статьи:

4.9

(на основе 12 голосов)

ГЭНДАЛЬФ
ГЭНДАЛЬФ ГЭНДАЛЬФ ГЭНДАЛЬФ