Хуже, чем атомная бомба: почему террористы искусственного интеллекта


Опубликованно 10.07.2019 13:20

Хуже, чем атомная бомба: почему террористы искусственного интеллекта

Российские ученые рассмотрены и классифицированы угрозы с использованием искусственного интеллекта (AI) с точки зрения международного информационно-психологической безопасности. Особое внимание было уделено противодействию недобросовестному использованию террористов ИИ. Результаты исследования опубликованы в журнале Россия в глобальной политике.

Опасность неправомерного использования ИИ

Потенциальной опасности искусственного интеллекта для человечества стала предметом произведений искусства и на сегодняшний день является одним из наиболее обсуждаемых вопросов научно-технического развития. Хотя "сильный искусственный интеллект", способный самостоятельно системного мышления, и, возможно, самосознанием и волей не создается, различные предварительные версии "слабого ИИ" выполнять специализированные задачи, которые, казалось, фантастику 10 лет назад. Использование ИИ для благих целей (например, в медицине) имеют неоспоримые преимущества. Однако, в руки террористических и других преступных организаций постепенно становится все более и более сложные технологии ИИ может стать более страшное оружие, чем ядерное.

Эмоциональный ИИ сможет сказать: "У меня нет настроения работать"

Ученые из разных стран активно изучают угрозы, злонамеренное использование ИИ создает для общества в целом и определенных сферах человеческой деятельности, будь то политика, экономика, военное дело и т. д. Однако угроза непосредственно к международной информационно-психологической безопасности еще не была выделена в самостоятельную область изучения. Между тем, использование искусственного осеменения для дестабилизации международных отношений посредством целенаправленного высокотехнологичной информационно-психологического воздействия на людей является очевидным большая опасность.

Авторами предложена классификация вредоносных применение искусственного интеллекта на основе нескольких критериев, в том числе территориального охвата, скорость и форма распределения. Использование классификации поможет вам найти способы борьбы и разработать инструменты для ответа.

"Будущее удешевление технологий ИИ может создать принципиально новые угрозы террористических атак. Можно использовать чат бот для создания мошеннических сообщение о событии и убедить потенциальных жертв, чтобы посетить его. В целях противодействия желательно, чтобы ознакомиться с новым угрозам, ордер на граждан соблюдать осторожность на удаленные контакты с людьми, с которыми они не знакомы лично. Выходом могло бы стать аттестация общественные события, подтверждающие реальность наложенных на них. Конечно, технические специалисты будут в этом случае, защита баз данных о деятельности и механизм их сертификации", - сказал профессор РИА международной безопасности и внешней политики России РАНХиГС: Дарья Bazarkina Новости.

Нынешний уровень технологий и возможностей ИИ позволяет выделить ряд принципиально новых угроз информационно-психологической безопасности личности.

Использование технологии "поддельных людей" и "deepfake" для международных провокаций

Американская технологическая компания Nvidia недавно поделился результатами работы генеративные-конкурентоспособная сеть, обученная для создания собственных образов людей ("поддельных людей"). Нейронные сети в считанные секунды создает высокое разрешение изображения лица несуществующих людей, можете добавить любые культурные и этнические особенности, эмоции, настроение, и основанный на бесконечный набор образов реальных людей. В будущем он может повторить этот опыт для других разработчиков. Таким образом преступники такие изображения могут быть использованы для разного рода провокаций, чтобы признать, что только общество с системой политехнических знаний.

"Технология "deepfake" может синтезировать изображение и голос человека. Ее уже начали использовать для создания видео мировые лидеры, включая президента США Дональд Трамп и президент России Владимир Путин. Видео deepfake умеет манипулировать поведением крупных целевых групп и может быть использовано в информационно-психологического противоборства (ИПП) для того, чтобы спровоцировать финансовый кризис или война", – сказал РИА Новости ведущий научный сотрудник Института актуальных международных проблем Дипломатической академии МИД РФ, Московского государственного университета профессор Евгений Пашенцев.

8 декабря 2017 года, 08:00Искусственный интеллект: чего ждать людям от умного железа

Анализ настроений – методы контент-анализа в компьютерной лингвистике, предназначенный для автоматизированного выявления в текстах эмоционально лексики и эмоциональной оценки авторов. Анализ настроений обеспечивается широкий набор источников, таких как блоги, статьи, форумы, опросы и т. д. Это может быть очень эффективным инструментом в IPP, который, к примеру, подтверждается высокой заинтересованности в таком развитии событий в настоящее время, руководством командования специальных операций США (Командование специальных операций США (нашивка).

"Прогностическое оружие": предсказания поведения человека на основе социальных сетей

В 2012 году в Соединенных Штатах Америки "Агентства передовых исследований в сфере разведки" (целью) запустил программу "обнаружения событий на основе более ранних моделей, используя суррогаты" (угольки). Для разработки прогноза гражданские беспорядки, основанные на использовании Ма с определением даты, места, протестующих групп.

Система обрабатывает данные СМИ и социальных сетей, а также источников более высокого качества, например, экономические показатели. Проникновение таких программ в руки террористов, конечно, тоже крайне опасно. В этом случае, скорее всего, угроза может быть крупных терактов во время самых масштабных социальных мероприятий. Дополнительный критерий выбора целей атаки может быть степень социальной и психологической напряженности в отдельных районах.

По данным авторов исследования, в качестве контрмер прогнозной аналитики могут использовать государства и наднациональных органов по предотвращению социальной напряженности (своевременное принятие социальных, экономических и политических мер, направленных на достижение стабильности в долгосрочной перспективе).

Кроме того, террористические группировки могут нанести репутационный ущерб от использования ботов во время политических кампаний, а также для привлечения новых сторонников, или убийства политиков.

Захват дронов и роботизированной инфраструктуры

Обучение системам управления ТС на основе ИИ может быть удобной мишенью для высокотехнологичных террористических актов. Захват террористами контроля над системой управления транспортом в крупном городе может привести к многочисленным жертвам, вызвать панику и создать такой психологический климат, который способствует другие преступные деяния.

Коммерческие системы можно использовать для развертывания беспилотных летательных аппаратов и автономных транспортных средств для доставки взрывчатых веществ и создания аварий. Ряд крупных катастроф могут вызвать ажиотаж в международных СМИ и причинить значительный ущерб информационно-психологической безопасности.

13 декабря 2016 года, 11:03Роботы среди людей: что они делают и как их распознать, что робот, где они используются, в чем их отличие от автоматических механизмов? Прав ли искусственно разумные существа? Ответы на эти и другие вопросы в новой инфографике, подготовленной "сегодня Социальный навигатор" МИА "Россия" совместно с НИЯУ МИФИ.

Исследователи из Академии и Дипломатической академии МИД РФ заложил основу для своего исследования, систематический анализ роли ИИ в области безопасности, метод сценарного анализа, исторической аналогии и дело-анализ. Вместе с коллегой из Университета в Упсале (Швеция), Грег Симонс, авторы исследования были соредакторами книги "терроризм и передовые технологии в информационно-психологической войны: новые риски, новые возможности противодействия террористической угрозе" с участием исследователей из 11 стран.

По инициативе российских исследователей проблеме роли ИИ в контексте угрозы международной информационно-психологической безопасности активно обсуждаются и будут обсуждаться на международных конференциях и Автономной международной научно-исследовательские семинары. Среди них – проведение конференции под эгидой Комиссии Российской Федерации по делам ЮНЕСКО и ряда других российских и международных организаций в Ханты-Мансийске с 9 по 12 июня. В заседании секции по проблеме правильного использования АИ, сформированных при поддержке европейско-российской экспертной сети управления связью (Эразма), принимал активное участие, губернатор Ханты-Мансийского автономного округа Наталья Комарова. В дальнейшем с IV Иберо-Американского форума в Санкт-Петербурге 1 – 3 октября 2019 года, Европейской конференции по влиянию искусственного интеллекта и робототехники с 31 октября по 1 ноября 2019 года. Авторы исследования презентации презентации исследований в Аргентине, Уругвае, Бразилии, Южной Африки и Италии.

По мнению экспертов Академии и Дипломатической академии в России необходимо создавать формирования долгосрочных целевых программ, как AI и международной информационно-психологической безопасности-это проблема ближайшего будущего.



Категория: Технологии