Немецкие ученые разработали компьютерную программу, которая может помочь преодолеть фейковые новости.
Программный алгоритм распознает тексты, наделенные типичными признаками ложных сообщений. Кроме языковых признаков, программа анализирует также метаданные о времени сообщения или частоте публикаций. Таким образом можно, в частности, выявить ботов в социальных медиа.
Несмотря на то, что фейки имеют длительную историю, их влияние еще никогда не был столь определяющим, как сегодня. Будучи опубликованы в социальных медиа ложные новости распространяются очень быстро. Это превращает их в уникальное средство воздействия на разум большого количества людей и целенаправленной манипуляции ими.
Технология фейковых новостей функционирует так хорошо и потому, что профессионально созданные фейки очень напоминают настоящие новости.
Как можно этому противостоять? Ученые уже разработали алгоритмы, которые могут идентифицировать вирусные новости в Facebook, Twitter и других социальных сетях — и так быстрее проверить сообщения на правдивость. Несколько дальше идет программа, которую создали ученые во главе с Ульрихом Шаде (Ulrich Schade) с Фраунгоферовского института коммуникаций, обработки информации и эргономики в Вахтберге. Их алгоритм распознает новости, имеющие типичные признаки ложных сообщений.
Чтобы разработать своего автоматического «ловца» фейковых новостей, ученые сначала собрали многочисленные примеры таких серьезных текстов, которые пользователи считали фейковых новостями. Этот материал использовали как учебный для копьютерной программы, способной к самообучению.
Таким образом алгоритм изучил, что именно может разоблачить ложные новости. Это могут быть например определенные формулировки или сочетание слов, а также лингвистические ошибки. Ведь часто фейковые новости создают не носители языка, сообщили Шаде с коллегами. В таких случаях неправильные тире, орфография, падеж или построение предложения могут указывать на то, что сообщение может быть фейковым. Также признаком фейковых новостей могут быть неуместные высказывания и слишком детальные формулировки.
Однако программа ученых изучает не только текст — она анализирует также метаданные, которые могут выдать фейк: когда определенный твит опубликовали и как часто определенный отправитель делает заметки. Так время публикации может указывать, например, на то, из какой страны или какой временной зоны его отправили. Высокая частота публикации может указывать на социальное бота
— это повышает вероятность того, что опубликованная им новость окажется фейком. Кроме того, новая программа распознает так называемый язык ненависти — высказывания, унижающие людей, натравливающие друг на друга или призывающие к ненависти и насилию. Ученые сообщают, что такие сообщения часто ссылаются на фейковые новости. «Здесь важно разработать классификатор, который бы идентифицировал однозначные случаи. Таковы например выражения «политический хлам» или «нигер». Ученые надеются, что их инструмент в будущем поможет отслеживать в сети вымышленные новости и искаженные факты. Они отмечают: система может приспособиться к различным видам текста. «Нашу программу можно индивидуально адаптировать и натренировать для каждого клиента»,
— сказал Шаде. 01.03.2019
— это повышает вероятность того, что опубликованная им новость окажется фейком. Кроме того, новая программа распознает так называемый язык ненависти — высказывания, унижающие людей, натравливающие друг на друга или призывающие к ненависти и насилию. Ученые сообщают, что такие сообщения часто ссылаются на фейковые новости. «Здесь важно разработать классификатор, который бы идентифицировал однозначные случаи. Таковы например выражения «политический хлам» или «нигер». Ученые надеются, что их инструмент в будущем поможет отслеживать в сети вымышленные новости и искаженные факты. Они отмечают: система может приспособиться к различным видам текста. «Нашу программу можно индивидуально адаптировать и натренировать для каждого клиента»,
— сказал Шаде. 01.03.2019
Предложить интересную новость, объявление, пресс-релиз для публикации »»»
Источник: