Был разработан инструмент, который может быстро обнаруживать и останавливать кампании по дезинформации

Стоп фейкам

Ученые разработали очень интересную и чрезвычайно перспективную технику машинного обучения, которая может идентифицировать кампании по дезинформации автоматически и без вмешательства человека.

Был разработан инструмент, который может быстро обнаруживать и останавливать кампании по дезинформации

Поставщики интернет-контента возлагают большие надежды на эту технику, поскольку фейковые новости в последнее время стали настоящей неприятностью для пользователей этой среды, особенно для тех, кто использует социальные сети.

Это специальный алгоритм машинного обучения. Он знает шаблоны подозрительных сообщений и учетных записей, поэтому он может начать и остановить любую дезинформационную кампанию на ранней стадии.

Его преимуществом является скорость работы, так как он выполняет свою задачу полностью автоматически, в режиме онлайн (то есть в режиме реального времени) и без участия человеческого фактора, что всегда существенно замедляет работу таких механизмов.

Важно отметить, что механизм может контролировать контент, отображаемый в различных социальных сетях, благодаря чему они могут обмениваться данными о предпринятых шагах и координировать свои действия.

Инструмент был описан несколько дней назад в известном научном журнале Science Advances. Эта статья озаглавлена «Контентно-ориентированные функции предсказывают действия в социальных сетях», в которой авторы инструмента (Мейсам Ализаде, Джейкоб Н. Шапиро, Коди Бунтейн и Джошуа А. Такер) описывают его работу 14 страничном документе.

0
Подписывайтесь и читайте в: Google.News, Яндекс.Новостях и Яндекс.Дзен!
Сегодня на нашем сайте мы, как независимые СМИ и пресса предоставляем последние новости, более интересные читателям. Не только политика и экономика, но также спорт, культура, происшествия, общество и технологии представлены у нас. Лента новостей всегда к вашим услугам.

Добавить комментарий

Войти с помощью: 

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: