vaspvort
Ночной дозор
Команда форума
Модератор
ПРОВЕРЕННЫЙ ПРОДАВЕЦ
Private Club
Старожил
Migalki Club
Меценат💰️
Технология «deepfake» несёт в себе глубокие этические последствия, усиливая опасения по поводу дезинформации и манипуляций. Плавно смешивая сфабрикованный контент с реальностью, дипфейки подрывают доверие к СМИ и общественному дискурсу. А так как образы людей эксплуатируются без их согласия, это ставит под угрозу и личную безопасность.
Проблемы с доверием усиливаются, поскольку отличить правду от лжи становится всё более сложной задачей. Смягчение этих этических затруднений требует упреждающих мер, включая надёжные системы обнаружения и нормативные рамки.
Глубокое обучение — это особый вид машинного обучения, который включает в себя «скрытые слои». Это ряд узлов в нейронной сети, которые выполняют математические преобразования реальных изображений в действительно хорошие, но поддельные. Чем больше скрытых слоёв в нейронной сети, тем она «глубже». Нейронные сети, и особенно рекурсивные нейронные сети (RNN), известны тем, что довольно хорошо справляются с задачами распознавания изображений, поэтому применять их для создания дипфейков не составляет труда.
Существует два основных вида инструментов. Первый — это генеративно-состязательные сети (GAN), которые настраивают две сети друг против друга. Одна сеть (генератор) создаёт дипфейк, а другая (дискриминатор) пытается идентифицировать его как подделку. Постоянная битва совершенствует фальсификатора и детектора.
Другой вид — автоэнкодеры, они представляют собой нейронные сети, которые учатся сжимать данные, а затем воссоздавать их. Это позволяет манипулировать данными и генерировать дипфейки, изменяя сжатую версию.
Но проблема в том, что дипфейки используются не только в законных целях, особенно это критично для современного общества, в котором подавляющее большинство людей получают информацию о мире и формируют мнения на основе контента из интернета. То есть любой, кто способен создавать дипфейки, может распространять дезинформацию и влиять на массы, заставляя других вести себя так, чтобы это каким-то образом способствовало личным интересам фейкера. Дезинформация на основе дипфейков может сеять хаос в микро- и макромасштабах.
В небольших масштабах дипфейкеры могут, например, создавать персонализированные видеоролики, в которых, по всей видимости, родственник просит какую-то сумму денег, чтобы помочь ему выбраться из чрезвычайной ситуации.
В глобальном же смысле фейковые видеоролики, на которых известные мировые лидеры делают выдуманные заявления, могут спровоцировать насилие и даже войну.
Печально известной атакой с использованием дипфейка стал инцидент с мошенничеством, который затронул банк в Гонконге в 2020 году. Менеджеру позвонил «директор компании» с просьбой об авторизации перевода, так как компания собирается совершить поглощение. Дополнительно он получил электронное письмо подписанное директором и юристом, которое выглядело как настоящее, но и документ, и голос были фейковыми. Менеджер осуществил перевод. Следователи смогли отследить украденные средства и выяснили, что в мошенничестве было задействовано 17 человек.
Также возможен риск и для страховых компаний поскольку мошенники могут предоставить доказательства посредством дипфейков для незаконных претензий. Страховое мошенничество с использованием поддельных доказательств — явление не новое. Но если в эпоху аналоговой фотографии требовалось много усилий и опыта, то сегодня инструменты для обработки изображений являются частью любого специализированного ПО.
Для проведения подобных атак есть множество мотивов, включая фальсификацию исследовательских доказательств, мошенничество со страховкой, корпоративный саботаж, кражу рабочих мест, терроризм и т. д.
Однако есть несколько мер, которые люди могут предпринять самостоятельно для снижения рисков, связанных с дипфейковыми действиями.
Более того, сейчас ученые, исследователи и основатели технологических компаний совместно работают над способами отслеживания и маркировки контента ИИ. Используя различные методы, формируя альянсы с новостными организациями они надеются не допустить дальнейшего подрыва способности общественности понимать, что правда, а что нет.
Решение этических, общественных и личных дилемм требует многогранного подхода к обнаружению дипфейков. Также необходимы и правовые рамки для защиты прав и конфиденциальности отдельных лиц. Осведомлённость, информированность общественности об ответственном использовании ИИ должны быть вплетены в бизнес-операции, правительственные инициативы и маршруты заинтересованных сторон отрасли. Сотрудничество между разработчиками технологий, политиками, исследователями и обществом в целом имеет решающее значение для преодоления проблем, связанных с дипфейками.
Однако, не всё так плохо. У этой технологии есть огромный положительный потенциал для общественности. Она открывает двери для вариантов использования, которые могут принести удивительные преобразования в мир, такие как улучшение доступности для людей с ограниченными возможностями, образовательные инструменты для моделирования различных сценариев и событий, которые в противном случае были бы недоступны, или изобретение персонализированных виртуальных помощников, способных к человеческому взаимодействию и виртуальному общению.
Проблемы с доверием усиливаются, поскольку отличить правду от лжи становится всё более сложной задачей. Смягчение этих этических затруднений требует упреждающих мер, включая надёжные системы обнаружения и нормативные рамки.
Что такое дипфейки?
Разработки в области генеративного искусственного интеллекта (genAI) и больших языковых моделей (LLM) привели к появлению дипфейков. Термин «deepfake» основан на использовании глубокого обучения (DL) для воссоздания новых, но поддельных версий существующих изображений, видео- или аудиоматериалов.Глубокое обучение — это особый вид машинного обучения, который включает в себя «скрытые слои». Это ряд узлов в нейронной сети, которые выполняют математические преобразования реальных изображений в действительно хорошие, но поддельные. Чем больше скрытых слоёв в нейронной сети, тем она «глубже». Нейронные сети, и особенно рекурсивные нейронные сети (RNN), известны тем, что довольно хорошо справляются с задачами распознавания изображений, поэтому применять их для создания дипфейков не составляет труда.
Существует два основных вида инструментов. Первый — это генеративно-состязательные сети (GAN), которые настраивают две сети друг против друга. Одна сеть (генератор) создаёт дипфейк, а другая (дискриминатор) пытается идентифицировать его как подделку. Постоянная битва совершенствует фальсификатора и детектора.
Другой вид — автоэнкодеры, они представляют собой нейронные сети, которые учатся сжимать данные, а затем воссоздавать их. Это позволяет манипулировать данными и генерировать дипфейки, изменяя сжатую версию.
Преступная деятельность с применением дипфейков
Сегодня существует бесчисленное множество законных применений дипфейков, в таких отраслях, как искусство, развлечения и образование. В киноиндустрии эта технология может, к примеру, использоваться для омоложения актеров, позволяя им играть молодые версии самих себя без необходимости в гриме или дублёрах. В последнем фильме об «Индиане Джонсе» актёр Харрисон Форд помолодел на 40 с лишним лет. Также дипфейки используют для «возвращения к жизни» исторических личностей или событий, обеспечивая визуальное представление, которое добавляет глубину и непосредственность повествованию.Но проблема в том, что дипфейки используются не только в законных целях, особенно это критично для современного общества, в котором подавляющее большинство людей получают информацию о мире и формируют мнения на основе контента из интернета. То есть любой, кто способен создавать дипфейки, может распространять дезинформацию и влиять на массы, заставляя других вести себя так, чтобы это каким-то образом способствовало личным интересам фейкера. Дезинформация на основе дипфейков может сеять хаос в микро- и макромасштабах.
В небольших масштабах дипфейкеры могут, например, создавать персонализированные видеоролики, в которых, по всей видимости, родственник просит какую-то сумму денег, чтобы помочь ему выбраться из чрезвычайной ситуации.
В глобальном же смысле фейковые видеоролики, на которых известные мировые лидеры делают выдуманные заявления, могут спровоцировать насилие и даже войну.
Использование синтетического контента для проведения кибератак
В период с 2023 по 2024 год частые фишинговые атаки и кампании социальной инженерии привели к взлому учётных записей, краже активов и данных, хищению личных данных и репутационному ущербу предприятий во всех отраслях.Печально известной атакой с использованием дипфейка стал инцидент с мошенничеством, который затронул банк в Гонконге в 2020 году. Менеджеру позвонил «директор компании» с просьбой об авторизации перевода, так как компания собирается совершить поглощение. Дополнительно он получил электронное письмо подписанное директором и юристом, которое выглядело как настоящее, но и документ, и голос были фейковыми. Менеджер осуществил перевод. Следователи смогли отследить украденные средства и выяснили, что в мошенничестве было задействовано 17 человек.
Также возможен риск и для страховых компаний поскольку мошенники могут предоставить доказательства посредством дипфейков для незаконных претензий. Страховое мошенничество с использованием поддельных доказательств — явление не новое. Но если в эпоху аналоговой фотографии требовалось много усилий и опыта, то сегодня инструменты для обработки изображений являются частью любого специализированного ПО.
Атаки на медицинскую инфраструктуру
Хотя угроза дипфейков в здравоохранении остаётся в значительной степени гипотетической, отрасль активно занимается упреждающим устранением этой опасности. Опасения охватывают несколько ключевых аспектов:- ложный контент, может помешать распространению точной информации о здоровье, потенциально подрывая доверие к достоверным источникам;
- мошенники могут использовать убедительные аудио- и визуальные материалы для обмана пациентов, выдавая себя за медицинских работников чтобы получить конфиденциальные данные;
- хакеры могут использовать синтезированный звук для взлома больничных систем.
Для проведения подобных атак есть множество мотивов, включая фальсификацию исследовательских доказательств, мошенничество со страховкой, корпоративный саботаж, кражу рабочих мест, терроризм и т. д.
Доказательное воздействие в судебных разбирательствах
Распространение дипфейков может заставить кого угодно усомниться в правдивости доказательств. Тот факт, что фейковая информация может быть как убедительной, так и сложной для идентификации, вызывает опасения и относительно того, как эта технология может поставить под угрозу обязанность суда по установлению истины.Как защитить себя или бизнес от дипфейков?
Попытка привлечь к ответственности виновных в дипфейках сопряжена с массой проблем. Помимо сложности определения правонарушителей, производители, как и другие киберпреступники, могут работать за пределами государства. При этом, несмотря на то, что дипфейки имеют потенциал широкомасштабных и опасных последствий для нашего общества, они по-прежнему в основном не регулируются законодательством.Однако есть несколько мер, которые люди могут предпринять самостоятельно для снижения рисков, связанных с дипфейковыми действиями.
- Гласность и бдительность. Знания — это первая линия обороны. Регулярные обучающие сессии и семинары могут снабдить сотрудников компании инструментами для различения подлинного и сфальсифицированного контента.
- Безопасные каналы связи. Возможность использования зашифрованных каналов связи и платформ с многофакторной аутентификацией для критически важных деловых коммуникаций, особенно тех, которые связаны с финансами или конфиденциальными внутренними вопросами.
- Инвестиции в кибербезопасность. Киберпреступники становятся виртуозами в обращении с искусственным интеллектом, и для того чтобы им помешать может потребоваться бороться с огнём тоже огнём.
Более того, сейчас ученые, исследователи и основатели технологических компаний совместно работают над способами отслеживания и маркировки контента ИИ. Используя различные методы, формируя альянсы с новостными организациями они надеются не допустить дальнейшего подрыва способности общественности понимать, что правда, а что нет.
- Производители Sony, Nikon и Canon начали разрабатывать способы впечатывания специальных «метаданных», которые перечисляют, когда и кем была сделана фотография непосредственно в момент создания изображения.
- Некоторые компании, включая Reality Defender и Deep Media, создали инструменты, которые обнаруживают дипфейки на основе базовой технологии, используемой генераторами изображений на основе ИИ.
Решение этических, общественных и личных дилемм требует многогранного подхода к обнаружению дипфейков. Также необходимы и правовые рамки для защиты прав и конфиденциальности отдельных лиц. Осведомлённость, информированность общественности об ответственном использовании ИИ должны быть вплетены в бизнес-операции, правительственные инициативы и маршруты заинтересованных сторон отрасли. Сотрудничество между разработчиками технологий, политиками, исследователями и обществом в целом имеет решающее значение для преодоления проблем, связанных с дипфейками.
Однако, не всё так плохо. У этой технологии есть огромный положительный потенциал для общественности. Она открывает двери для вариантов использования, которые могут принести удивительные преобразования в мир, такие как улучшение доступности для людей с ограниченными возможностями, образовательные инструменты для моделирования различных сценариев и событий, которые в противном случае были бы недоступны, или изобретение персонализированных виртуальных помощников, способных к человеческому взаимодействию и виртуальному общению.
Для просмотра ссылки необходимо нажать
Вход или Регистрация