2. Поддержание целостности информации в многопартийных политических системах

За последние несколько лет специалисты ГИД реализовали широкий спектр программных подходов для уменьшения, как воздействия, так и использования дезинформации, а также связанной с ней тактики поведения во время выборов. Большинство программных подходов ГИД рассматривают всеобъемлющую информационную экосистему, которая оказывает случайное влияние на поведение политических партий и влияние дезинформации, как тактики кампании. Однако в последние несколько лет наблюдается рост числа вмешательств, направленных непосредственно против политических партий. Такие программные подходы работают с широким спектром теорий изменений с различными неявными или явными предположениями о структурах стимулов для политических партий, избирателей и других субъектов избирательной информации. Принимая во внимание соответствующие функции политических партий и потенциальные выгоды для служб дезинформации, в том числе внутренних субъектов, в следующем разделе описываются широкие программные подходы, которые применялись для оказания помощи партнерам по политическим партиям, чтобы повысить их устойчивости к дезинформации. Программы ГИД, как правило, основываются на аналогичной последовательной логике: если партнеры и/или их избиратели могут определять дезинформацию и имеют технические возможности для сдерживания или реагирования на нее, это улучшает информационную среду, улучшая ответную реакцию и повышая ответственность. 

Paragraphs

Highlight


Одним из перспективных подходов к медиаграмотности, например, стало партнерство с государственными учебными заведениями для распространения медиаграмотности в масштабах страны. В рамках кампании АЙРЕКС Learn2Discern были проведены тренинги по медиаграмотности в общественных центрах, школах и библиотеках. Строгие оценки программы Learn2Discern в Украине показали, что как молодежь, так и взрослые учащиеся значительно чаще могли отличить ложные новости от правдивых, и что короткие видеоролики по медиаграмотности и маркировка источников смягчили воздействие российского пропагандистского контента

Программы повышения цифровой медиаграмотности

Определение цифровой и информационной грамотности, разработанное Комиссией по совместным исследованиям Европейского союза в рамках концепции цифровой грамонтности, является ключом к пониманию эффективности этих программ. Определение цифровой грамотности — это диаграмма Венна где пересекаются несколько диаграммы грамотности, включая СМИ, информацию, интернет, а также информационные и коммуникационные технологии, которая затрагивает различные аспекты цифровой компетенции, от использования Интернета и абстрактного понимания информации до использования ИКТ с точки зрения аппаратного и программного обеспечения и СМИ в разных формах. Вся эта грамотность важна для понимания того, как программы могут бороться с уязвимостью и устойчивостью к дезинформации. 

Один из подходов к дезинформации, связанной с выборами, заключается в повышении осведомленности общественности о дезинформации — что, где, почему и как эти занимается. Образовательные кампании различаются по сферам, т.е. для кого и для чего они предназначены, и могут проводиться несколькими участниками, включая глав службы безопасности, школы, религиозные учреждения, технологические компании и правительства. Теория изменений заключается в том, что если избиратели осведомлены о наличии дезинформации и о том, как она действует, то они будут более критично относиться к информации, с которой они сталкиваются, и тогда это будет меньше влиять на их политические взгляды. В целом, такой подход может иметь положительные последствия не только для контроля честности выборов, и может, при широкомасштабном внедрении, снизить влияние дезинформации о здоровье и уязвимость к киберпреступности. 

В этом смысле программы медиаграмотности могут задействовать функции « агрегирования интересов » и « мобилизации » политических партий, смягчая влияние дезинформации на поляризацию, особенно среди активных сторонников.

Системы искусственного интеллекта и программы дезинформации

Этот программный подход включает помощь партнерам по политическим партиям в вопросах реагирования на использование ряда систем искусственного интеллекта (ИИ), включая автоматическое искусственное усиление, дипфейки, а также манипулирование и модификацию аудио и видео. Эти подходы все чаще включают использование больших сетей автоматических учетных записей с более интеллектуальным контентом, сформированным на основе ответов пользователей, личных данных и других показателей.

На момент написания статьи усилия по борьбе с дезинформацией в основном были сосредоточены на следующих вопросах: созданный под руководством человека контент, вводящий в заблуждение; ложное усиление с использованием фейковых аккаунтов, платных подписчиков и автоматических ботов; а также платное продвижение вводящего в заблуждение контента с микротаргетингом на пользователей на основе их вероятной восприимчивости к предполагаемой информации. Эта направленность отражает широкую доступность и охват технологий, лежащих в основе дезинформации — ботов, контентных ферм, фальшивых подписчиков и рекламы с микротаргетингом, которые радикально изменили способ создания и распространения информации о выборах и политических партиях. Для политических партий такие технологии облегчают социальный характер их основных функций, в частности, искусственно сигнализируя о «социальном подтверждении», то есть создается впечатление, будто предлагаемая политика или кандидат пользуется более широкой поддержкой, чем есть на самом деле. Эти технологии также позволяют отслеживать тенденции в играх и алгоритмы разработки рекомендаций, увеличивая доступность информации (или дезинформации), которая в противном случае не была бы широко доступной. 11 Таким образом, искусственное усиление помогает партиям и кандидатам манипулировать убеждениями граждан, вместо того, чтобы реализовывать интересы избирателей. Хотя мы не ожидаем каких-либо серьезных сдвигов в векторах дезинформации, связанной с выборами, сообщество ГИД все больше озабочено дальнейшей автоматизацией создания и распространения контента, а также тем, насколько легко можно проводить манипуляциям с «дипфейком», в которых воздаются видео или аудио записи, на которых человек говорит или делает то, чего он никогда не говорил и не делал.

Были разработаны технологические подходы для выявления зон с измененным изображением или звуком, путем обнаружения аномалий в пикселизации или звуковых волнах. В настоящее время такие подходы не используются на систематической основе. Учитывая, что дипфейки и контент, созданный искусственным интеллектом, еще не оказывают значительного влияния на избирательные кампании или честность выборов, тематические исследования программных вмешательств были ограничены. 

Хотя программные ответы ГИД были ограничены, исследовательские организации создали хранилища знаний по проблемам компьютерной пропаганды. Например, Оксфордский институт Интернета через Программу компьютерной пропаганды разработал ComProp Navigator — тщательно подобранный набор ресурсов, которые организации гражданского общества могут учитывать при решении проблемы дезинформации.

Программы для закрытых интернет-пространств и приложений для обмена сообщениями

Программы противодействия дезинформации в приложениях, которые являются «закрытыми» (или частными) или пользуются зашифрованными сетями, должны учитывать сложность доступа к пользовательским данным и соображения конфиденциальности при сборе этих данных.

Кампании по дезинформации быстро переходят из относительно публичной сферы онлайн-социальных сетей и контент-платформ, таких как Facebook, YouTube и Twitter, к платформам частных сообщений, таким как WhatsApp, Line, Telegram и SMS. Некоторые из этих платформ зашифрованы, что затрудняет отслеживание и предотвращение распространения ложного контента. В нескольких случаях политические партии использовали частные сообщения, нацеленные на сторонников, которые затем пересылали вводящие в заблуждение сообщения другим сторонникам, оставляя мало возможностей для независимых или оппозиционных субъектов противодействовать этому. 

Для борьбы с этой проблемой появилось несколько программных подходов. На Тайване группа гражданского общества выступила с инициативой под названием « CoFacts», чтобы противостоять широкомасштабному распространению политической дезинформации в сети. Можно отправлять сообщения боту CoFacts для их проверки командой добровольцев; бот CoFacts также можно добавить в частные группы и он будет автоматически делиться исправлениями, если в группе будет опубликован подтвержденный факт ложного контента. Это сохраняет конфиденциальность группы в целом, позволяя отслеживать и противодействовать ложной информации. 

В нескольких странах, где возникали споры, связанные с выборами или политическими ситуациями, Facebook (материнская компания WhatsApp) ограничила размер групп WhatsApp и количество переадресации сообщений, что снижает простоту и виральность распространения информации на платформе. Другой подход — наполнить зашифрованные или частные службы обмена сообщениями точной информацией. Например, тайваньское правительство использовало ряд комиксов и комедиантов для создания основанного на фактах контента, удобного для распространения и рассчитанного на виральность.

Программы сбора данных, рекламных технологий и микротаргетинга

На момент написания этой статьи программы противодействия использованию личных данных пользователей в целевых кампаниях по дезинформации находились в зачаточном состоянии. Однако такие подходы становятся все более важными, поскольку пользовательские данные могут использоваться для информирования автоматизированных систем и покупки рекламы в политических кампаниях. Программы включают попытки перепроектировать эти системы, чтобы выявить их распространение и эффективность. 

Сбор данных, рекламные технологии и микротаргетинг играют все более заметную роль в мобилизации и убеждении сторон. Рекламные инструменты позволяют политическим партиям адаптировать сообщения для небольших групп на основе демографических, поведенческих и географических характеристик, полученных из различных источников, включая их поведение в Интернете. Эта способность адаптировать политические послания ко все меньшим и меньшим группам имеет важные последствия для демократических результатов. Отдельные партии и кандидаты используют эту технологию, потому что она помогает оптимизировать их обмен сообщениями. Однако с социальной точки зрения внедрение этой технологии имеет два важных последствия. 

Во-первых, это подрывает агрегирование интересовполитических партий. Напомним, что получение демократических результатов выборов наиболее вероятно в том случае, когда партии эффективно объединяют разрозненные интересы под одним брендом для «продажи» широкому кругу избирателей. Коммуникации с микротаргетингом, поддерживаемые рекламными технологиями, позволяют отдельным партиям или кандидатам адаптировать сообщения непосредственно для небольших групп. Такой подход может дать краткосрочный выигрыш в эффективности мобилизации за счет согласования общих политических приоритетов и достижения консенсуса по отдельным вопросам. Во-вторых, внедрение этой технологии также способствует более точному нацеливанию на дезинформацию, разжигание ненависти, преследования и другие гнусные приемы, которые партии или кандидаты могут использовать для активизации своих сторонников или подавления сторонников политических оппонентов. В-третьих, микротаргетинг эффективно «скрывает» контент от средств массовой информации, которые проверяют факты, а также противостоящих сторон, которые в противном случае могли бы дать ответ или обсудить данную информацию. 12

Программы ГИД, направленные на поощрение передового опыта и недопущение злоупотреблений рекламными технологиями, как правило, отстают от внедрения этих методов. Одним из примеров является Институт массовой информации в Украине, который отслеживает платформы социальных сетей во время выборов. В 2019 году исполнительный директор института отметил, что Facebook не особенно эффективен в борьбе с оскорбительной политической рекламой, особенно с «нативным» или «спонсируемым» контентом — политической рекламой, замаскированной под новости. В этом случае база данных политической рекламы Facebook оказалась бесполезной для сторонних наблюдателей, потому что рекламный контент было очень трудно обнаружить. 13 Этот вызов является одним из примеров того, как инновации в рекламных технологиях могут подорвать демократические результаты, особенно когда они обеспечивают избирательные преимущества отдельным партиям или кандидатам. Если политические сообщения замаскированы под фактическую информацию или новости, точно нацеленные на отношения, вкусы или поведение потребителей, производители с большей вероятностью будут манипулировать предпочтениями граждан, чем реагировать на них.

Программы по тактике и содержанию дезинформации

Программы, исследующие содержание и тактику дезинформации, принимают самые разные формы, будь то простой сбор и анализ информации или стремление проникнуть в группы дезинформации для изучения их методов. Такие подходы также играют важную функцию контроля по отношению к политическим партиям. Упор на содержание дезинформации может помочь гражданам и руководителям службы безопасности прояснить сложные вопросы политики, уменьшая возможности партий и кандидатов «мутить воду». При таком подходе независимые журналисты, волонтеры или руководители службы безопасности проверяют достоверность контента, исправляют ошибки и, в некоторых случаях, работают с компаниями в социальных сетях, чтобы пометить вводящий в заблуждение контент, ограничить его распространение и опубликовать исправления рядом с публикацией. Некоторые из этих инициатив прямо нацелены на контент политических партий или кандидатов, в то время как другие рассматривают более широкую информационную экосистему и проверяют факты с учетом их вероятного воздействия, распространения или конкретной области интересов.

Программы по развитию центров проверки фактов редко реализуются в прямом партнерстве с политическими партиями, учитывая, что для того, чтобы этот подход был эффективным, требуется политический нейтралитет. Однако гипотетически эти программы выполняют важную функцию по обеспечению подотчетности, выступая в качестве стимула для политических субъектов. Теория изменений, лежащая в основе такого подхода, заключается в том, что если политические субъекты, особенно избираемые должностные лица, знают, что ложные заявления будут выявлены и исправлены на публичном форуме, они, возможно, с меньшей вероятностью будут участвовать в действиях. Кроме того, пункты выявления и проверки фактов могут предоставить точную информацию избирателям, которые затем могут более эффективно наказывать распространителей дезинформации, опуская свою бюллетень в урну для голосования. В Украине, например, программа, финансируемая посольством Великобритании при поддержке CASE Ukraine, разработала набор ИТ-инструментов, позволяющих гражданам анализировать государственный бюджет, теоретически развивать критическое мышление, чтобы противостоять популистской риторике политиков по сложным экономическим вопросам. 14 Точно так же поддержка «объяснительной журналистики» по образцу таких СМИ, как Vox.com в Соединенных Штатах, является противодействием попыткам запутать граждан по сложным вопросам политики. VoxUkraine , например, при поддержке нескольких международных спонсоров и партнеров, публикует как разъяснительные, так и аналитические статьи, особенно по вопросам экономической реформы в Украине. 15

Программные подходы также опираются на поп-культуру, используя сатиру и юмор для поощрения критического осмысления дезинформации по сложным вопросам. Например, телевидение Торонто , поддерживаемое Национальным фондом за демократию, Интерньюс и Пакт, и вдохновленное американской сатирической трактовкой новостей и текущих событий Джона Стюарта, Джона Оливера, Хасана Минхаджа и прочих, использует платформы социальных сетей и короткие видеофрагменты для борьбы с вводящими в заблуждение нарративами, распространяемыми известными политиками.

Ряд выступлений, направленных на решение этой проблемы, были посвящены противодействию дезинформации перед избирательными циклами и пониманию роли социальных сетей в распространении информации во время современных политических кампаний. Например, круглый стол International IDEA на тему «Защита выборов в Тунисе», состоявшийся в 2019 году.  Аналогичным образом, Справочник по кибербезопасности кампаний Белферского центра, разработанный в партнерстве с Национальным демократическим институтом и Международным республиканским институтом, содержит четкие рекомендации о том, что делать, если возникают различные проблемы кибербезопасности, включая дезинформацию и взлом. Что касается более конкретной деятельности, специалисты-практики ГИД включают мониторинг СМИ в существующие программы, в том числе наблюдение за выборами. Привлечение мониторинга СМИ к существующим программным моделям и мероприятиям — это многообещающий подход, который может позволить программам ГИД противодействовать дезинформации в больших масштабах. Однако потенциальный недостаток этого подхода состоит в том, что он фокусируется на вмешательстве на избирательных циклах, в то время как содержание и тактика выходят за рамки избирательных циклов и действуют в течение длительных периодов времени. 16 Имея это в виду, разработчики программ и спонсоры должны подумать о деятельности в периоды между выборами, что часто выходит за рамки стандартной программы ГИД.

В конечном итоге, реальные результаты реализации программ осведомленности о контенте и проверки фактов пока сложно оценить. Академические исследования показывают, что, хотя проверка фактов может изменить индивидуальное отношение при определенных обстоятельствах, она также может привести к повышению веры в материал, который изначально был проверен. 17 Более того, проводится относительно мало исследований о том, сдерживает ли проверка фактов распространение дезинформации среди политических элит. Как ни странно, проверка фактов может побудить политиков попытаться дискредитировать их источник, а не изменить свое поведение. 18 В конечном счете, для того, чтобы учесть любое сдерживающее воздействие программ проверки фактов, спонсорам и исполнителям потребуется проводить более тщательную оценку воздействия этих программ.

В любом случае, одного существования центров проверки фактов, верификации или повышения осведомленности недостаточно для того, чтобы изменить поведение политических субъектов в отношении ложных заявлений и дезинформации. В Украине, например, исследования показывают, что аудитория известных агентств по проверке фактов была ограничена географически. Основной аудиторией, как правило, были более молодые люди, живущие в городах, активно пользующиеся Интернетом, образованные и богатые, склонные самостоятельно отслеживать дезинформацию и наказывать за нее. 20Поэтому программы проверки и подтверждения фактов должны уделять пристальное внимание преднамеренному расширению аудитории, чтобы в нее вошли такие группы населения, которые в противном случае могли бы не иметь возможности или ресурсов для доступа к высококачественной информации. Эти программы должны также учитывать усилия, направленные на то, чтобы сами избранные должностные лица осознали механизмы мониторинга и охвата аудитории. Если кандидаты или избранные должностные лица уверены, что продукция этих агентств недоступна для конкретных групп или не используется ими, такие программы будут менее эффективны в реализации своих функций. 

Highlight


Исследование CEPPS выявило десятки программ, поддерживающих агентства по проверке фактов в разных странах. За конкретными примерами обращайтесь к репозиторию программ и в Международную сеть проверки фактов Института Пойнтера.

Программы исследований уязвимости и устойчивости к дезинформации

Эти программы исследуют людей, на которых нацелена дезинформация, аспекты их предыстории, виды дезинформации, на которые они реагируют, а также другие демографические факторы, чтобы понять, насколько люди восприимчивы к ложному контенту или могут ему противостоять. Что касается исследовательских программ с партнерами по политическим партиям, эти программы обычно основываются на теории изменений, которая предполагает, что если станет известно об уязвимости политической партии перед дезинформацией, то ее должностные лица будут заинтересованы в повышении устойчивости своей партии. Двумя яркими примерами программ ГИД, направленных на обеспечение исследований уязвимости и устойчивости для политиков, включая выборных должностных лиц и политические партии, являются Проект Beacon Project Международного республиканского института и инициатива INFO/tegrity Национального демократического института.

Beacon Project, созданный Международным республиканским институтом проводит оригинальные исследования уязвимости и устойчивости к дезинформации с помощью изучения общественного мнения, аналитических материалов, повествовательного мониторинга, а также мониторинга основных и социальных сетей с помощью собственных специалистов и в сотрудничестве с местными партнерами в Европе. Эти исследовательские продукты распространяются среди широких коалиций заинтересованных сторон и применяются в программных ответах на дезинформационные нарративы путем взаимодействия с политиками на местном, национальном и европейском уровнях. По аналогии, инициатива INFO/tegrity Национального демократического института включает оригинальные исследования уязвимости к дезинформации, что, в свою очередь, укрепляет программы по повышению устойчивости в партнерстве с политическими партиями, платформами социальных сетей и технологическими фирмами. Наконец, специалисты ГИД все чаще вместе с академическими партнерами занимаются исследованиями дезинформации, чтобы улучшить программные подходы к повышению устойчивости. Например, Проект «Защита цифровой демократии » научный центр Белферов Гарвардского университета объединяет академические исследования угроз дезинформации и уязвимости для правительств, руководителей службы безопасности, технологических компаний и политических организаций.

Программы по изучению распространения дезинформации в интернете

Исследователи и программисты стремятся понять корни дезинформационных кампаний в интернете, изучая наборы данных контента социальных сетей, чтобы понять виральность определенных видов контента, сообществ и ролей отдельных пользователей.

Дезинформация — это дешевая, эффективная тактика, которая обычно остается полностью незамеченной, в результате чего репутационные издержки использования дезинформации политическими партиями фактически равны нулю. Недавно появилось несколько программ, которые отслеживают использование контент-ферм, ложное усиление, покупку подписчиков/лайков, наличие армии троллей и другие тактики, используемые политическими деятелями. Этот программный подход поддерживается растущей доступностью исследовательских навыков в области цифровой криминалистики; повышение осведомленности местных участников о роли, которую дезинформация может играть в политических кампаниях; и из-за опасений по поводу злонамеренной иностранной дезинформации во время выборов, инвестиции, применяемые в технологии архивирования контента, картографирование и графическое отображение социальных сетей, а также платформы для мониторинга СМИ. Этот подход фокусируется на поведенческом компоненте дезинформации — он не пытается оценить достоверность создаваемого или распространяемого контента.

Неявная теория изменений, лежащая в основе этой работы, заключается в том, что разоблачение использования дезинформации политическими партиями во время кампаний будет иметь некоторые репутационные издержки, уменьшая их способность безнаказанно применять тактику дезинформации и нанося ущерб электоральным перспективам тех, кто это делает. 

Учитывая, что этот подход не зависит от контента, он больше всего поддается изменениям с помощью правил выборов. Раскрывая тактику, используемую политической кампанией, которая наносит наибольший ущерб демократической целостности, органы управления выборами могут прямо запретить использование этой тактики во время избирательного периода.

Программы по борьбе с разжиганием ненависти, подстрекательством и поляризацией

Компонент дезинформации и целостности информации — это использование языка вражды, часто в сочетании с ложной информацией, для подстрекательства, подавления или поляризации мнений пользователей. Этот вид программ часто существует отдельно от других, направленных на дезинформацию, но его можно рассмотреть, как еще один потенциальный ответ.

Разжигание ненависти, стереотипы, слухи, троллинг, онлайн-домогательства и доксинг — это механизмы, с помощью которых стороны могут осуществлять свою мобилизационную функцию. В частности, в условиях ярко выраженного политического, социального или экономического раскола распространение подстрекательской информации поможет активизировать сторонников или ограничить возможности сторонников оппозиционных партий. В отношении как внутренних, так и зарубежных кампаний, дезинформация в этом ключе нацелена на углубление существующих разногласий. Маргинальные группы, включая (среди прочего) женщин, этнические, религиозные или языковые меньшинства, а также ЛГБТ, являются частыми целями этих кампаний, особенно когда нарушители стремятся сделать уязвимые группы «козлами отпущения» за провалы в политике, или когда они стремятся удержать эти группы от участия в политическом процессе, выдвижении кандидатов или голосовании. Действительно, в разных контекстах онлайн-насилие в отношении женщин, включая угрозы и разжигание ненависти, вред репутации и намеренно искажение информации, представляют собой серьезный барьер для участия женщин в политическом процессе, вызывая молчание, самоцензуру и отказ от политической деятельности, как для в вопросах достижения ближайших целей, так и сдерживая участие женщин в целом. 21

Кроме того, эта тактика может помочь мобилизовать сторонников, опираясь на страх или беспокойство по поводу изменения социальной иерархии. Важно отметить, что политические коммуникации, оформленные в виде стереотипов, могут способствовать принятию ложной информации о том, что группа является стереотипной. 22 Привлекательность стереотипов создает мощный стимул для политических партий и политиков атаковать уязвимые группы с помощью таких видов дезинформации, с которыми члены избранных групп еще не знакомы.

На практике программы ГИД могут противодействовать этим эффектам, сначала признавая, что дезинформация непропорционально вредит группам, которые исторически были уязвимыми в определенных контекстах, и поощряя партнеров по политической партии к обмену сообщениями, которые могут улучшить отношение сторонников к уязвимым группам.23 Например, офис Вестминстерского фонда демократии Уганды организовал электронную конференцию для более чем 150 женщин-кандидатов на выборные должности в Уганде, уделяя особое внимание преодолению социальных барьеров для участия в политической жизни, включая дезинформацию и киберзапугивание. Аналогично действует Сеть женской демократии — это глобальная сеть отделений в которых женщины могу воспользоваться передовым опытом по выявлению и преодолению препятствий, которые мешают им принимать участие в политической жизни. Национальный демократический институт имеет несколько программ, направленных на выявление и преодоление социальных барьеров для участия в политических партиях, включая Инициативу Win with Women и кампания #NotTheCost, которые разработаны для смягчения дискриминации, преследований, насилия и других форм негативной реакции на участие женщин в политической жизни. По аналогии, Инструмент планирования безопасности Национального демократического института обеспечивает механизм, с помощью которого женщины, участвующие в политике, могут в частном порядке оценить свою безопасность и составить план ее улучшения, особенно в отношении преследований, публичного позора, угроз и жестокого обращения, физического и сексуального насилия, экономического насилия и принуждение к уходу из политики как в вети, так и вне ее.

Key Resource


Сетевые подходы к масштабированию передового опыта

Международные стандарты сети проверки фактов Пойнтера : Международная сеть проверки фактов (IFCN) — это форум для специалистов по проверке фактов по всему миру, организованный Институтом медиа-исследований Пойнтера. Эти организации проверяют заявления общественных деятелей, крупных учреждений и другие широко распространенные утверждения, представляющие интерес для общества. Модель IFCN более подробно рассматривается в разделе Нормы и стандарты, а также:

  • Отслеживает тенденции и форматы в области проверки фактов во всем мире, регулярно публикуя статьи, посвященные этой теме на канале Poynter.org.
  • Предоставляет обучающие ресурсы проверяющим факты.
  • Поддерживает совместные усилия по международной проверке фактов, включая предоставление стипендий.
  • Проводит ежегодную конференцию (Global Fact).
  • Является родоначальником свода принципов проверяющих факты.

Политические рекомендации, реформирование, распространение и масштабирование передового опыта программных ответов

Программы, касающиеся политик в отношении онлайн-систем, социальных сетей и Интернета, могут помочь определить новые правила, которые ограничивают влияние дезинформации. Ключевая роль спонсоров ГИД и партнеров-исполнителей состоит в том, чтобы использовать свои возможности для того, чтобы объединить различные заинтересованные стороны в вопросах обмен опытом и передовыми методиками внутри и между странами, а также между разными программами. Важно отметить, что многие из рассмотренных выше программ также выполняют важную объединяющую функцию — часто они предназначены для обмена передовым опытом между ключевыми заинтересованными сторонами, включая политиков и политические организации, выборных должностных лиц, государственных служащих, руководителей служб безопасности, средства массовой информации и технологические компании. Такие общие мероприятия позволяют улучшить результаты работы благодаря двум особенностям. Во-первых, обмен накопленным опытом и новейшими методиками может повлиять на навыки, знания и потенциал партии, а также готовность партнеров политической партии воздерживаться от использования дезинформации или предпринимать шаги для повышения устойчивости партии. Во-вторых, такие мероприятия могут выполнять важную координационную функцию. Напомним, что одним из важных элементов восприятия дезинформации, как трагедии общества, является то, что политические партии и кандидаты могут отказаться от политических преимуществ дезинформации, если будут уверены, что их политические оппоненты поступят так же. Программы, которые обеспечивают регулярное, запланированное, постоянное взаимодействие между политическими оппонентами, могут повысить уверенность в том, что политические конкуренты не обманывают. 

Программы МФИС (IFES — Международный фонд избирательных систем) «Управление региональными выборами и укрепление политического процесса» (REAPPS части I и II) в Центральной и Восточной Европе являются примером того, как программы поддержки ГИД способствуют такой координации в течение относительно длительного периода времени. Тематическая направленность программы на информационную безопасность и четкое внимание межотраслевым и трансграничным сетям затрагивает как технические подходы, так и базовые политические стимулы. 


Коалиция Design 4 Democracy: Коалиция D4D стремится к тому, чтобы информационные технологии и социальные сети играли активную роль в поддержке демократии и прав человека во всем мире. Партнеры по коалиции создают программы и тренинги и координируют свои действия, чтобы способствовать безопасному и ответственному использованию технологий для продвижения открытой, демократической политики и подотчетных, прозрачных правительств.

Footnotes

11 Брет Шафер, личное общение с автором, январь 2021 года.

12. Брет Шафер, личное общение с авторами, январь 2021 года.

13. Оксана Романюк, исполнительный директор, Институт массовой информации. Интервью с Диной Садек и Бретом Барроуменом. Киев, Украина. Октябрь 2019 года.

14. Алина Чубко (координатор проекта) и анонимный сотрудник, посольство Чешской Республики. Интервью с Диной Садек и Бретом Барроуменом. Киев, Украина. Октябрь 2019 года. 

15. Там же.

16. Брет Шафер, личное общение с автором, январь 2021 года.

17. Tucker, et al, pp. 57; 59.

18. Максим Субенко (руководитель VoxCheck) и Илона Сологуб (научный редактор и директор политических проектов, VoxUkraine; директор политических и экономических исследований, Киевская школа экономики. Интервью с Диной Садек и Бретом Барроуменом. Киев, Украина. Октябрь 2019 года.

19. Там же.

20. Там же.

21. Zeiter, et al, “Tweets that Chill,” pp. 4.

22. Tucker, et al. pp. 40.

23. Обзор существующих исследований об условиях, при которых сообщения могут смягчить негативное отношение к маргинализированным группам, см. там же. стр. 43.