Как реализовать принципы «Безопасность по проекту» при внедрении ИИ

Стремительный рост генеративного искусственного интеллекта (гв ИИ) технологии открыли эпоху преобразований для отраслей по всему миру. За последние 18 месяцев предприятия все чаще интегрируют ИИ-технологии в свою деятельность, используя ее потенциал для инноваций и оптимизации процессов. От автоматизации обслуживания клиентов до улучшения разработки продуктов — области применения ИИ-технологий обширны и эффективны. Согласно недавний отчет IBM, примерно 42% крупных предприятий приняли ИИс технологией, способной автоматизировать до 30% видов деятельности, связанных с интеллектуальной работой, в различных секторах, включая продажи, маркетинг, финансы и обслуживание клиентов.

Однако ускоренное принятие поколение ИИ также несет в себе значительные риски, такие как неточность, проблемы с интеллектуальной собственностью и кибербезопасность угрозы. Конечно, это только один пример из серии предприятий, внедряющих новые технологии, такие как облачные вычислениятолько чтобы потом понять, что внедрение принципов безопасности должно было быть приоритетом с самого начала. Теперь мы можем извлечь уроки из прошлых ошибок и принять принципы Secure by Design на ранних этапах разработки корпоративных приложений на базе искусственного интеллекта.

Уроки, извлеченные из стремительной трансформации облачных технологий

Недавняя волна внедрения облачных технологий дает ценные сведения о приоритетности безопасности на ранних этапах любого технологического перехода. Многие организации приняли облачные технологии ради таких преимуществ, как снижение затрат, масштабируемость и аварийное восстановление. Однако спешка в получении этих преимуществ часто приводила к упущениям в области безопасности, что приводило к громким нарушениям из-за неправильных конфигураций. Следующая диаграмма показывает влияние этих неправильных конфигураций. Она иллюстрирует стоимость и частоту утечки данных по первоначальному вектору атаки, где показано, что неправильные конфигурации облака имеют значительную среднюю стоимость в размере 3,98 млн долларов США:

ЧИТАТЬ  До и после: как круто отремонтировали старую дачу площадью 25 м² под Петербургом - INMYROOM

Рисунок 1: Измеряется в миллионах долларов США; процент от всех нарушений (Отчет IBM о стоимости утечки данных за 2024 год)

Один заметный инцидент произошел в 2023 году: неправильно настроенный контейнер облачного хранилища раскрыл конфиденциальные данные нескольких компаний, включая персональные данные, такие как адреса электронной почты и номера социального страхования. Это нарушение выявило риски, связанные с неправильной конфигурацией облачного хранилища, и финансовые последствия из-за ущерба репутации.

Аналогичным образом уязвимость в корпоративном рабочем пространстве приложения Software-as-a-Service (SaaS) привела к крупной утечке данных в 2023 году, когда несанкционированный доступ был получен через незащищенную учетную запись. Это выявило влияние неадекватного управления учетными записями и их мониторинга. Эти инциденты, среди многих других (зафиксированных в недавно опубликованном Отчет IBM о стоимости утечки данных за 2024 год), подчеркивают острую необходимость подхода «Безопасность по проекту», гарантирующего, что меры безопасности являются неотъемлемой частью этих программ внедрения ИИ с самого начала.

Необходимость принятия ранних мер безопасности в программах трансформации ИИ

Поскольку предприятия быстро интегрируют ИИ-технологии в свою деятельность, важность решения проблем безопасности с самого начала невозможно переоценить. Технологии ИИ, хотя и преобразующие, создают новые уязвимости безопасности. Недавние нарушения, связанные с платформами ИИ, демонстрируют эти риски и их потенциальное влияние на бизнес.

Вот несколько примеров нарушений безопасности, связанных с ИИ, за последние пару месяцев:

1. Мошенничество с использованием Deepfake: В одном случае генеральный директор британской энергетической компании был обманут, переведя $243 000, полагая, что он разговаривает со своим боссом. Афера использовала технологию deepfake, подчеркивая потенциал мошенничества с использованием искусственного интеллекта.

2. Атаки по отравлению данных: Злоумышленники могут повредить модели ИИ, вводя вредоносные данные во время обучения, что приводит к ошибочным результатам. Это было замечено, когда фирма по кибербезопасности машинное обучение модель была скомпрометирована, что привело к задержкам в реагировании на угрозы.

ЧИТАТЬ  Представлено более 600 предложений по созданию знакового музея архитектуры и дизайна в Хельсинки

3. Модели ИИ используют: Уязвимости в приложениях ИИ, таких как чат-боты, привели к многочисленным инцидентам несанкционированного доступа к конфиденциальным данным. Эти нарушения подчеркивают необходимость надежных мер безопасности вокруг интерфейсов ИИ.

Последствия нарушений безопасности ИИ для бизнеса

Последствия нарушений безопасности ИИ многогранны:

  • Финансовые потери: Нарушения могут привести к прямым финансовым потерям и значительным расходам, связанным с мерами по смягчению последствий.
  • Сбой в работе: Заражение данных и другие атаки могут нарушить работу, что приведет к принятию неверных решений и задержкам в устранении угроз.
  • Репутационный ущерб: Нарушения могут нанести ущерб репутации компании, подорвать доверие клиентов и долю рынка.

Поскольку предприятия быстро внедряют в свои клиентские приложения технологии искусственного интеллекта, важно иметь структурированный подход к их защите, чтобы снизить риск прерывания деятельности со стороны киберпреступников.

Трехсторонний подход к обеспечению безопасности приложений искусственного интеллекта нового поколения

Для эффективной защиты приложений ИИ поколения предприятиям следует принять комплексную стратегию безопасности, охватывающую весь жизненный цикл ИИ. Существует три ключевых этапа:

1. Сбор и обработка данных: Обеспечьте безопасный сбор и обработку данных, включая шифрование и строгий контроль доступа.

2. Разработка и обучение модели: Внедряйте безопасные методы при разработке, обучении и настройке моделей ИИ для защиты от заражения данных и других атак.

3. Вывод модели и ее реальное использование: Контролируйте системы ИИ в режиме реального времени и обеспечьте непрерывную оценку безопасности для обнаружения и устранения потенциальных угроз.

Эти три этапа следует рассматривать вместе с моделью общей ответственности типичной облачной платформы искусственного интеллекта (показанной ниже).

Рисунок 2: Безопасное использование искусственного интеллекта поколения – матрица общей ответственности

В IBM Framework для защиты генеративного ИИвы можете найти подробное описание этих трех этапов и принципов безопасности, которым нужно следовать. Они объединены с элементами управления безопасностью облака на базовом уровне инфраструктуры, который работает большие языковые модели и приложения.

ЧИТАТЬ  Вредители комнатных растений и способы борьбы с ними. Как избавиться от вредителей на комнатных цветах

Рисунок 3: IBM Framework для защиты генеративного ИИ

Баланс прогресса и безопасности

Переход к искусственному интеллекту нового поколения позволяет предприятиям стимулировать инновации в своих бизнес-приложениях, автоматизировать сложные задачи и повышать эффективность, точность и качество принятия решений, одновременно сокращая затраты и увеличивая скорость и гибкость своих бизнес-процессов.

Как видно на примере волны внедрения облачных технологий, приоритет безопасности с самого начала имеет решающее значение. Внедряя меры безопасности в процесс внедрения ИИ на ранних этапах, предприятия могут превратить прошлые ошибки в критические вехи и защитить себя от сложных киберугроз. Этот проактивный подход обеспечивает соответствие быстро меняющимся нормативным требованиям в отношении ИИ, защищает предприятия и конфиденциальные данные их клиентов и сохраняет доверие заинтересованных сторон. Таким образом, предприятия могут безопасно и устойчиво достигать своих стратегических целей в области ИИ.

Как IBM может помочь

IBM предлагает комплексные решения для поддержки предприятий в безопасном внедрении технологий ИИ. Благодаря консалтингу, услугам безопасности и надежной структуре безопасности ИИ IBM помогает организациям создавать и развертывать приложения ИИ в масштабе, обеспечивая прозрачность, этику и соответствие требованиям. Семинары IBM по безопасности ИИ являются важным первым шагом, помогающим клиентам выявлять и снижать риски безопасности на ранних этапах внедрения ИИ.

Для получения более подробной информации, пожалуйста, ознакомьтесь со следующими ресурсами:

Source

Оцените статью
( Пока оценок нет )
Строительство. Ремонт. Садоводство