Как безопасно использовать нейросети в работе

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
29.174
Репутация
11.695
Реакции
61.924
RUB
50
Почти каждую неделю появляются сообщения о новых достижениях искусственного интеллекта или выходе очередной нейросети.

Действительно, нейросети — мощный инструмент для автоматизации задач, персональной помощи, генерации идей и даже развлечений. Но несмотря на возможности ИИ, важно не забывать о вопросах безопасности, связанных с его использованием.

i

В чем основные уязвимости нейросети

Нейросеть — это математическая модель, имитирующая работу человеческого мозга и способная обучаться на основе данных. Нейросети могут переводить тексты, генерировать контент, отвечать на вопросы, создавать видео и изображения.

По мере того как нейросети становятся все более продвинутыми и все больше интегрируются в повседневную жизнь, растет и необходимость в тщательном изучении потенциальных рисков и угроз, которые они могут представлять.

Появляются новые технологии использования ИИ, позволяющие обмануть еще больше людей. Схемы становятся более сложными: это уже не просто «звонок менеджера из банка».

С помощью нейросетей подменяют лица и голоса реальных людей. Можно создать и полностью вымышленного лидера общественного мнения, способного привлекать людей к участию в мошеннических инвестиционных схемах — например, в финансовой пирамиде.

Рассмотрим, с чем связаны основные уязвимости нейросети.
  • Дипфейки. Пример дипфейка мы уже приводили выше. Это реалистичные подделки видео и аудио, созданные с помощью нейросетей. Они позволяют заменять лица и голоса людей, создавая впечатление, что человек говорит или делает то, чего на самом деле не было. Дипфейки используют для создания фейковых новостей, компрометации известных личностей или для мошенничества, когда злоумышленники подделывают личность доверенного лица, чтобы обмануть жертву.
  • Утечки данных. Нейросети обучаются на огромных объемах данных, которые могут содержать конфиденциальную информацию. Люди нередко доверяют ИИ личную или корпоративную информацию — например, с помощью нейросети составляют отчеты о продажах, письма с дебиторской задолженностью и т.д. Эти данные могут быть украдены, случайно раскрыты или использованы злоумышленниками для обучения собственных нейросетей.
  • Подделки GPT. Кроме оригинального ChatGPT есть и подделки — например, в Telegram немало чат-ботов с названием «ChatGPT» — а уж какая нейросеть работает «под капотом», достоверно не известно. Для мошенников эта схема удобна: не придется выманивать у пользователей информацию — они поделятся ей сами. Например, разработчики программного обеспечения решили провести аудит своего кода. Загрузили его в поддельную версию ChatGPT — и коммерческие данные тут же утекли.
  • Фишинговые письма. Раньше хакеры отправляли одно и то же фишинговое электронное письмо тысячам людей. Затем обученные спам-фильтры научились идентифицировать и перехватывать эти электронные письма. Теперь хакеры используют искусственный интеллект для генерации персонализированных электронных писем, которые гораздо труднее распознать как спам-фильтрам, так и людям. Более сложные фишинговые письма несут более высокий риск для безопасности пользователей и организаций.
  • Отсутствие контроля при разработке. В погоне за инновациями и новыми захватывающими функциями нейросети разработчики могут пренебрегать необходимыми процедурами контроля безопасности. Для ускорения разработки и запуска продуктов на рынок команды встраивают в свой проект чужой незнакомый код — не факт, что безопасный.
К тому же нейросети создают своего рода «черный ящик», где не всегда можно точно определить, как ведет себя модель в каждом конкретном случае. Это затрудняет тестирование системы на соответствие стандартам безопасности и надежности.

Как безопасно работать с нейросетью

1. Будьте аккуратны при выборе чат-бота с искусственным интеллектом.

При загрузке поддельного приложения ИИ злоумышленники могут воспользоваться возможностью и установить вредоносное ПО, которое способно украсть вашу личную информацию. Если вы используете ИИ в рабочих целях, выбирайте те инструменты, которые одобрены в вашей компании.

2. Не вводите конфиденциальную информацию в чат-боты с ИИ.

Важно соблюдать осторожность при работе с ИИ и не предоставлять ему доступ к конфиденциальным данным или личной информации. Допустим, у вас есть отчет о продажах, который нужно оформить в таблицу. Вы загружаете отчет, но теперь введенные вами данные хранятся на серверах нейросети, и она может использовать их для ответов на запросы других людей.

Возможно, так будет раскрыта конфиденциальная информация компании или пользователей. А если фирма нарушит закон о персональных данных, это грозит ей крупными штрафами.

Также хакеры могут использовать уязвимости в программном коде ИИ-систем, таких как ChatGPT, для несанкционированного доступа и кражи пользовательских данных. Например, в марте 2023 года была ошибка ChatGPT, которая привела к утечке данных о платежах пользователей. В 2024 также появлялись , что из ChatGPT утекли данные — в том числе личные сведения, разговоры с чат-ботом и учетные записи для входа.

3. Будьте осторожны при использовании фото- и видеоредакторов, работающих на основе нейросети.

Если вы загружаете свои фотографии, то также можете непреднамеренно передать ценную информацию о себе ИИ. Ваше изображение и данные о местоположении могут оказаться под угрозой и стать основой для мошенничества.

4. Проверяйте информацию, полученную от ИИ.

Эффективность ИИ-инструментов зависит от качества вводимых данных. Если информация, на которых основана ИИ, устарела или неполная, то результат его работы может оказаться предвзятым, неточным или даже ошибочным. То же касается программного кода. Разработчики могут применять ИИ для написания кода, что, безусловно, экономит время. Но они рискуют сгенерировать код, который может содержать ошибки, делающие его нестабильным или небезопасным. Какие бы данные вы ни получали от нейросети, проверяйте их перед использованием.

5. Соблюдайте правила информационной безопасности при работе с электронной почтой.

Чтобы защитить себя, своих коллег и организацию, оставайтесь начеку. Не переходите по неизвестным ссылкам из электронных писем и не скачивайте неизвестные приложения. Если письмо кажется подозрительным, проверьте, действительно ли его отправил тот, от чьего имени оно пришло — позвоните или напишите отправителю.

6. Изучите информацию о разработчике ИИ.

Не факт, что если приложение разработала крупная компания, оно обязательно будет безопасным. Не факт, что маленькие независимые разработчики всегда игнорируют вопросы безопасности.

Стоит ознакомиться с политикой конфиденциальности разработчика и узнать, какие меры безопасности он применяет.
Важно выяснить, используются ли данные клиентов для обучения нейросетей и могут ли эти данные появляться в ответах на чужие запросы. Также полезно узнать, проводились ли независимые тесты безопасности их приложений.

7. Обучайте персонал кибербезопасности.

Проводить тренинги и обучающие мероприятия по вопросам кибербезопасности — важная задача любой организации. Важно информировать персонал о том, какие данные можно передавать ИИ, а какие следует держать в тайне. Также нужно разъяснять принципы работы разных моделей ИИ и обеспечивать доступ к персональным данным только через проверенные инструменты.

8. Используйте нейросеть локально.

Это можно сделать, например, с помощью инструмента , который позволяет развертывать большие языковые модели (тип нейросетей, которые генерируют текст) локально на обычных компьютерах. Данные будут обрабатываться локально, без отправки на сервер. Модели могут работать без Интернета, поэтому в них безопасно обрабатывать конфиденциальные данные.

Чтобы полностью защититься от утечек, важно убедиться, что информация не будет утекать не только из языковой модели, но и непосредственно с вашего компьютера. В этом поможет . Это решение способно обнаруживать сложные угрозы, а усиленная защита сервера, включающая контроль за программами, веб-контроль и контроль за устройствами, помогает предотвратить утечки корпоративной и финансовой информации.

9. Применяйте классические меры, как предотвратить киберугрозы.

Если из ИИ-приложения исключить нейросеть, оно станет обычным приложением. Поэтому не забывайте о базовых правилах информационной безопасности: используйте надежное антивирусное ПО, регулярно обновляйте систему и программы, применяйте многофакторную аутентификацию, а также создавайте резервные копии данных.


 
Платформа Hugging Face может быть выбрана для поиска и выбора предварительно обученных моделей ИИ.
 
  • Теги
    автоматизация задач искусственный интеллект нейросети
  • Сверху Снизу