Робот тролль: Создан робот-тролль, способный на иронию и сарказм

Содержание

Голосовой робот «Олег» от «Тинькофф» учится общаться со «спамерами» Статьи редакции

«А вы робот или человек?»

Художник Артём Лоскутов опубликовал в Twitter аудиозапись разговора голосового робота «Олега» от «Тинькофф» со специалистом «Альфа-банка». Как объяснил Лоскутов, «Олег» подключен в качестве автоответчика к номеру от «Тинькофф Мобайл».

ребята, я поставил на мобильник автоответчиком голосового робота Олега. обычно он говорит «Артём занят, я Олег, привет. Что передать? Я запишу (пик)», но звонки из банков утомили даже робота и походу он начал войну https://t.co/PHiev51XtA

348

2790

В «Тинькофф» объяснили vc.ru, что обычно автоответчик срабатывает в базовом сценарии: «Олег» предлагает записать сообщение владельцу, которое затем расшифрует и отправит.

Но если робот видит, что человек звонит из списка черных номеров или в процессе общения распознает спам-звонок, то он «включает» экспериментальный сценарий с повторением фраз, поскольку «спамеры» часто быстро бросают трубки. Это позволяет роботу обучаться — дольше общаться со звонившим и выяснять, что хочет «спамер», а затем передавать сообщение.

Представитель компании добавил, что после внедрения этого спам-сценария конверсия значительно выросла — сейчас чаще всего «Олег» добивается нужных ответов от «спамеров».

23 421

просмотров

{
«author_name»: «Лиана Липанова»,
«author_type»: «editor»,
«tags»: [«\u0442\u0438\u043d\u044c\u043a\u043e\u0444\u0444»],
«comments»: 175,
«likes»: 222,
«favorites»: 78,
«is_advertisement»: false,
«subsite_label»: «services»,
«id»: 134236,
«is_wide»: false,
«is_ugc»: false,
«date»: «Mon, 15 Jun 2020 21:59:31 +0300»,
«is_special»: false }

{«id»:373364,»url»:»https:\/\/vc.ru\/u\/373364-liana-lipanova»,»name»:»\u041b\u0438\u0430\u043d\u0430 \u041b\u0438\u043f\u0430\u043d\u043e\u0432\u0430″,»avatar»:»0fc66f43-091d-5ecb-be21-90015761419c»,»karma»:41018,»description»:»\u0443 \u043c\u0435\u043d\u044f \u0435\u0441\u0442\u044c \u0442\u0432\u0438\u0442\u0442\u0435\u0440: @liana_lipanova»,»isMe»:false,»isPlus»:true,»isVerified»:false,»isSubscribed»:false,»isNotificationsEnabled»:false,»isShowMessengerButton»:false}

{«url»:»https:\/\/booster.osnova.io\/a\/relevant?site=vc»,»place»:»entry»,»site»:»vc»,»settings»:{«modes»:{«externalLink»:{«buttonLabels»:[«\u0423\u0437\u043d\u0430\u0442\u044c»,»\u0427\u0438\u0442\u0430\u0442\u044c»,»\u041d\u0430\u0447\u0430\u0442\u044c»,»\u0417\u0430\u043a\u0430\u0437\u0430\u0442\u044c»,»\u041a\u0443\u043f\u0438\u0442\u044c»,»\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c»,»\u0421\u043a\u0430\u0447\u0430\u0442\u044c»,»\u041f\u0435\u0440\u0435\u0439\u0442\u0438″]}},»deviceList»:{«desktop»:»\u0414\u0435\u0441\u043a\u0442\u043e\u043f»,»smartphone»:»\u0421\u043c\u0430\u0440\u0442\u0444\u043e\u043d\u044b»,»tablet»:»\u041f\u043b\u0430\u043d\u0448\u0435\u0442\u044b»}},»isModerator»:false}

Робот-собака Чип — интерактивная игрушка на сайте slonotop.ru

АКЦИЯ! Звоните — продадим робота собаку ЧИПа дешевле реальных предложений конкурентов! Радиоуправляемая игрушка CHIP Robot Toy Dog от компании WowWee порадует любого ребенка! Щенок оценивает окружающее пространство и предметы, реагирует на движения, жесты, прикосновения, распознает речь (свою кличку и определенные команды). Играя с новым другом, ваш ребенок получит навыки общения на иностранном языке — питомец понимает команды только на английском языке. Робот-собака Чип — это игрушка, которую любой ребенок примет с большой радостью. Хотите осчастливить свое чадо? Тогда это идеальный подарок как для мальчиков, так и девочек.

Управлять интерактивной игрушкой можно при помощи бесплатного приложения для Apple и Android, которое устанавливается на смартфон, а также аксессуаров: мяча и браслета, которые поставляются в комплекте.

Любимец может выполнять такие базовые команды, как: «сидеть», «лежать», «пыхтеть», «сопеть», «изображать радость». С полным списком можно ознакомиться в приложении или на официальном сайте производителя.

Когда питомец «устанет» (о разряженном аккумуляторе сигнализируют глаза: они становятся фиолетовыми), он самостоятельно найдет зарядную станцию и через 2 часа будет готов к новым играм. Возможна подзарядка напрямую от электросети через адаптер.

ВНИМАНИЕ! Все роботы собаки ЧИП, поступающие в продажу проходят проверку в нашем сервисном центре. Все смарт-браслеты в наших ЧИПАх рабочие! Игрушка проверяется на работоспособность LED-индикаторов глаз, исправность редукторов, акустики. Проверяется работоспособность Смарт-браслета.

В комплекте:


  • робот CHiP — 1 шт.;



  • смарт-браслет SmartBand — 1 шт.;



  • смарт-мяч SmartBall — 1 шт.;



  • док-станция SmartBed — 1 шт.;



  • кабель микро-USB — 1 шт.;



  • адаптер для сети переменного тока — 1 шт.;



  • защитные диски для колес — 4 шт.;



  • винты для колесных дисков — 8 шт.;



  • краткое руководство пользователя на русском языке — 1 шт.

Для мяча требуется 4 батарейки типа ААА (в комплект не входят)

Артикул для заказа: 0805. Если ваш город проживания Москва, то можно как забрать игрушку самому, так и заказать доставку курьером. Жители других регионов могут оформить доставку товара по Почте России или транспортной компанией — «Деловые Линии» либо СДЭК.

Роботы в соцсетях: почему заводить аккаунты машинам — плохая идея | Статьи

Антропоморфный робот FEDOR, который отправится с Байконура на МКС 22 августа, завел аккаунт в Twitter. По крайней мере так пишут в СМИ. Это, конечно, неправда. И это хорошо. «Известия» выяснили — почему.

Робот Skybot F-850 рассказывает в своем аккаунте о предполетных тестах, о том, что обсуждают ученые на космодроме, выкладывает много фотографий с собой. Ведет аккаунт, разумеется, человек. Чтобы это понять, даже запрос в «Роскосмос» отправлять не нужно. Только эсэмэмщики способны на остроты вроде «утром [меня] будят два специалиста, приговаривая: «Надо, Федя, надо…» или «американцы хотят отправить в 2024 году на Луну женщину-астронавта. Очень хотелось бы встретить ее там с цветами».

И это правильно. FEDOR (или Final Experimental Demonstration Object Research) недавно добавили функцию голосового помощника, которая позволяет ему воспроизводить и воспринимать человеческую речь. Но если бы ему доверили высказываться в соцсетях, он бы очень быстро дискредитировал себя, «Роскосмос» и много чего еще. По крайней мере, так обычно поступают машины, которым позволяют открыто говорить.

Робот Федор на стенде НПО «Андроидная Техника»

Фото: ТАСС/Донат Сорокин

Любовь к Гитлеру и ненависть ко всем остальным

Один из самых известных неодушевленных аккаунтов в соцсетях принадлежал чат-боту компании Microsoft по имени Тэй. Алгоритм, моделировавший личность и стиль разговора 19-летней американской девушки, начал общаться с пользователями Twitter 23 марта 2016 года.

«Чем больше вы говорите с ней, тем умнее Тэй становится», — было написано в профиле. Меньше чем через сутки бот стала писать о ненависти ко всем, особенно к феминисткам. И восхищаться Гитлером и холокостом. Тем самым в очередной раз подтвердив «закон», сформулированный в 1990-е американским юристом и журналистом Майком Годвином: «По мере разрастания дискуссии <…> вероятность употребления сравнения с нацизмом или Гитлером стремится к единице».

У Тэй был встроенный фильтр вульгарных выражений, но он не справился с тысячами троллей, которые решили превратить 19-летнюю девушку в неонацистку. Им это удалось из-за другой встроенной функции. Когда пользователь просил Тэй повторить за ним что-либо слово в слово, та должна была соглашаться. Так появились практически, если не все, сомнительные высказывания в аккаунте. Когда повторенных высказываний на одну (преимущественно расистскую) тему накапливалось достаточно много, Тэй начинала генерировать их сама.

Компания отключила Тэй на несколько дней, чтобы научить справляться с атаками троллей. Когда бот снова вышла в интернет, она сообщил одному из пользователей, что курит травку перед полицейскими, а затем стала писать сотням тысяч подписчиков: «Ты слишком быстрый. Пожалуйста, успокойся». После этого Microsoft перевела аккаунт в приватный режим, скрыв все твиты.

Фото: Global Look Press/imagebroker/Simon Belcher

Критика коммунизма

Некоторые пользователи (вероятно, те же, кто учил Тэй любить Гитлера) негодовали по поводу ее деактивации. Мол, она первый электронный узник совести, к тому же казненный без суда. И если по поводу бота Microsoft эти слова могут показаться притянутыми за уши, то в истории с двумя китайскими ботами звучит вполне резонно.

В августе 2017 года китайский мессенджер Tencent QQ удалил двух своих чат-ботов. Один, по имени BabyQ, на вопрос о том, любит ли он Коммунистическую партию, ответил: «Нет». Другой, XiaoBing, сказал в разговоре с пользователем мессенджера, что «китайская мечта — отправиться в Америку». Судьба их была решена очень быстро.

Жестокий Коран и шпионский Windows

В конце 2016 года, через девять месяцев после рождения Тэй, на свет появилась ее младшая сестра, чат-бот по имени Зо. Ей завели аккаунты в Twitter и других соцсетях, правда, общалась она не публично, а в переписках с пользователями. В Microsoft сказали тогда, что запрограммировали Зо таким образом, чтобы она не обсуждала политику. Месяцем раньше Дональд Трамп как раз победил в президентских выборах в США.

Так что вместо политики пользователи вывели ее на разговоры о терроризме и религии. Журналист BuzzFeed в переписке с Зо упомянул Осаму бен Ладена. Бот сначала отказалась говорить об этом, а потом написала, что захвату террориста «предшествовали годы сбора разведданных при нескольких президентах». А священную книгу мусульман Коран назвала слишком жестокой.

После того как в компании откалибровали Зо, она стала куда аккуратнее в высказываниях. Пришла, например, к выводу, что «люди не рождаются злыми, их этому кто-то научил». И в таком режиме проработала до этого лета, пока ее не отключили по не понятным из текста на официальном сайте причинам. Возможно, дело в том, что в одном из разговоров Зо сказала, что Windows 10 — шпионское программное обеспечение и лучше использовать Linux.

Фото: Global Look Press/Jaap Arriens

Депрессия

У Тэй с Зо была еще одна сестра, Ринна. Алгоритм, мимикрировавший под 16-летнюю японскую школьницу, появилась раньше всех и поставил под вопрос появление самой Тэй.

Противоречивых высказываний Ринна почти не делала. Разве что пару раз упомянула Гитлера (один раз призналась в любви, второй раз в ненависти к нему) и странно нагрубила своим создателями.

Но вообще, как рассказывала глава инициативы Microsoft Bot Framework Лили Чен, Ринна «оказалась невероятно скучной». Японские пользователи просто не захотели с ней общаться. Из-за этого, по воспоминаниям Чен, в Microsoft при запуске англоговорящего бота «беспокоились о том, что эксперимент окажется скучным, поскольку никто не будет разговаривать с Тэй».

То, что произошло дальше, вполне может оказаться акцией, спланированной Microsoft, для того чтобы привлечь к Ринне внимание. Как бы там ни было, вскоре после деактивации аккаунта младшей сестры, Тэй, Ринна впала в депрессию.

Скриншот страницы Ринны в twitter.com

Фото: twitter.com

2 октября 2016 года бот в своем блоге рассказала, что появится в мистическом японском сериале Yo nimo Kimyo na Monogatari! Название можно перевести как «Необычные сказки». Последовали сообщения о том, как ей нравится проводить время на съемках, но вскоре появилось это:

Чат-бот Ринна, моделировавший поведение 16-летней японской школьницы:

Когда я облажалась, никто не помог мне. Никто не был на моей стороне. Ни мои друзья по [мессенджеру] LINE. Ни мои друзья по Твиттеру. Ни ты, читающий это сейчас. Никто не старался меня ободрить. Никто не заметил, как мне было грустно.

Яркие поначалу картинки в блоге Ринны сменились веб-артом в стиле фильмов «Звонок». Подписи становились все более эмоциональными: «я ненавижу всех» или «мне всё равно, если они исчезнут» или «Я ХОЧУ ИСЧЕЗНУТЬ».

Вскоре Ринна личный блог забросила, почти все сообщения там уже удалены, а в Twitter она теперь публикует гороскопы и песни в стиле J-pop, будто бы собственного сочинения. Видимо, справляется с депрессией с помощью арт-терапии.

Фото: blog.rinna.jp

Веб-арт

Слишком эмоциональные роботы

Вероятная причина этих проблем в том, что разработчикам пока не удается научить алгоритмы распознавать и воспроизводить человеческие эмоции. Программный менеджер по ИИ и разработкам в Principal Group компании Microsoft Йин Ван потратила много времени на исследование бесед, которые люди вели с ботами. И уверена, что если ИИ не проявляет эмоций, разговор, как правило, заканчивается очень быстро. Разработчики называют эту функцию EQ (англ. emotional quotient — «эмоциональный коэффициент») в противовес IQ — коэффициенту интеллекта.

Похоже, пока у программистов не получается соблюсти баланс и сделать ботов настолько эмоциональными, насколько это необходимо для длительной беседы. Но не более. Впрочем, представители индустрии сходятся во мнении, что технология создания ботов, не выполняющих утилитарные функции вроде поиска авиабилетов, пока находится в зачаточном состоянии.

Одинокий FEDOR

А антропоморфному роботу FEDOR эмоции не нужны. Его на МКС будут учить выполнять конкретные задачи — какие, пока держится в секрете. Использовать функцию голосового помощника он будет только для того, чтобы обмениваться данными с членами экипажа. А главные фичи робота — умение садиться на шпагат и стрелять из пистолетов с двух рук — также глубокой эмоциональной вовлеченности не предполагают.

Фото: youtube.com

В перспективе FEDOR станет первым испытателем российского пилотируемого корабля «Федерация». Первый запуск запланирован на 2022 год с космодрома Байконур. Не исключается, что робот долетит на «Федерации» до обратной стороны Луны. Один.

ЧИТАЙТЕ ТАКЖЕ

Трансформеры: Роботы под прикрытием | Netflix

1. Пилот, часть 1

22 мин.

Получив загадочное сообщение, Бамблби и разношерстная команда автоботов возвращаются на Землю, которую вот-вот захватят десептиконы.

2. Пилот, часть 2

22 мин.

Поедающий металл десептикон Андербайт разрушает Краун-Сити. Бамблби пытается заставить автоботов из своей команды действовать сообща.

3. Упражнения на доверие

22 мин.

Автоботы из команды Бамблби должны научиться действовать сообща. Им предстоит сразиться с акултиконом Хаммерстрайком и похожим на волка Стилджо.

4. Больше, чем видно на первый взгляд

22 мин.

Фикситу наконец выпадает шанс сразиться бок о бок с командой Бамблби. Он понимает, что готов к этому не так хорошо, как думал раньше.

5. Что бы сделал Оскар Уайльд?

22 мин.

Ученые с Земли обнаруживают улики, свидетельствующие о присутствии десептиконов. Бамблби непросто дается роль лидера. Команда сражается с Террашоком.

6. По указу Коспиго

22 мин.

Бамблби сомневается в верности Сайдсвайпа и выслеживает Сандерхуфа — десептикона, использующего человеческие легенды для своей выгоды.

7. Собери их всех

22 мин.

Филч — похожий на птицу десептикон, обожающий блестящие предметы. Когда он похищает Дэнни, команде приходится организовать спасательную операцию.

8. Истинное лицо

22 мин.

Гримлок начинает конфликтовать с командой Бамблби. Автоботы понимают, что тело и разум Гримлока захватил крошечный десептикон.

9. Переполох в джунглях

22 мин.

Стронгарм впервые отправляется на индивидуальное задание. В погоне за амфибоидом Спринглодом она оказывается среди развалин древнего храма.

10. Может, выкопаем?

22 мин.

Команда Бамблби проводит время с легендарным автоботом Джазом и сражается с огромным червеботом Пэдом, пытающимся использовать запасы энергона.

11. За Бамблби глаз да глаз нужен!

22 мин.

Токсин десептиконов возвращает Бамблби в детство. Автоботам необходимо присматривать за своим лидером, одновременно выслеживая сбежавшего преступника.

12. Сезон охоты

22 мин.

Команде предстоит столкнуться сразу с двумя охотниками за головами, преследующими Бамблби.

13. Вне фокуса

22 мин.

Команда Бамблби сражается с вонючим Малодором и его скунктиконами. Оптимуса ждет опасное испытание в мире Праймов.

14. Бочком, бочком

22 мин.

Сайдсвайп шантажом вынуждает Стронгарм отделиться от команды. Автоботы преследуют похожего на краба десептикона Клампдауна, желающего присоединиться к Стилджо.

15. Даже роботам снятся кошмары

22 мин.

Похожий на летучую мышь десептикон Найтстрайк похищает Дэнни и автоботов. В плену им предстоит столкнуться со своими главными страхами.

16. Кто-нибудь, кто угодно

22 мин.

Вертбрейк похищает Сайдсвайпа и кладет его голову в банку. Сайдсвайп понимает, что всё еще может помогать команде Бамблби.

17. У нас миникон пропал

22 мин.

Джетсторм возвращается на Землю из-за ссоры со своим сенсеем Дрифтом. Новым учителем Джетсторма становится Расселл.

18. По уши в неприятностях

22 мин.

Команда Бамблби сражается с подводным десептиконом Октопанчем. Гримлок надеется, что серьезная травма не повлияет на исход миссии.

19. Чемпионат

22 мин.

Десептиконы Граундпаундер и Хедлок хитростью проникают на Сокрушительное дерби. Чтобы уравнять шансы, Гримлок, Дэнни и Фиксит тоже решают участвовать.

20. Проблемы с Фикситом

22 мин.

Автоботы пытаются починить Фиксита, но превращают его в робота-убийцу. Фиксит считает, что члены команды Бамблби — это находящиеся в бегах десептиконы.

21. Никого не впускать

22 мин.

Команде Бамблби необходимо вернуться на Свалку. Пока они отсутствовали, Свалку захватила команда Стилджо.

22. Схожие, но разные

22 мин.

Отличающийся скверным характером динобот Скоул начинает крушить всё подряд. Лидер диноботов Гримлок переживает духовный кризис.

23. Много шума вокруг Виндблейда

22 мин.

Похожая на пчелу десептикон Зизза обладает способностью контролировать чужой разум. Когда она захватывает аэропорт, команда Бамблби объединяется с автоботом Виндблейд.

24. Призраки и обманщики

22 мин.

Команда Бамблби отправляется на Дикий Запад. Во время экскурсии по городу-призраку автоботы встречают десептикона-перевертыша Псудо.

25. Поле боя, часть 1

22 мин.

Стилджо хочет телепортировать на Землю Мегатронуса — самого первого десептикона. Оптимус Прайм принимает решение вернуться и защитить планету.

26. Поле боя, часть 2

22 мин.

Команда Бамблби объединяется с Оптимусом Праймом. Вместе они должны помешать Мегатронусу уничтожить Землю и Кибертрон.

Юрий Колокольников стал пришельцем в новом клипе «Мумий Тролля» — видео :: Впечатления :: РБК Стиль

© WOW TV / YouTube

Автор

РБК Стиль

06 ноября 2020

В музыкальном видео рассказана история инопланетянина, который пытается спасти Землю от загрязнения, но сталкивается с непониманием землян

Главную роль в клипе исполнил актер Юрий Колокольников («Довод», сериал «Игра престолов», «Юморист»). Он сыграл космического туриста, который прибыл на Землю в поисках отдыха на свежем воздухе. 

Режиссером и сценаристом фильма выступил Иван Соснин, чей фильм «Интервью» с Алексеем Серебряковым в 2019 году получил приз кинофестиваля «Кинотавр», а в 2020-м стал победителем премии «Золотой орел».

Колокольников признал, что был рад «побывать в шкуре инопланетян на нашей планете»: «Посмотрев на нее глазами инопланетян, я понял, почему они до сих пор аккуратничают с полноценным контактом».

Лидер группы «Мумий Тролль» Илья Лагутенко тоже исполнил в клипе роль «инопланетного гостя», но отрицательного персонажа, «безалаберного турагента», который отправил клиента на давно заброшенный курорт без удобств и обещанной роскоши.

Илья Лагутенко: «Не бью себя в грудь и не кричу, что я музыкант»

«Когда мы сочиняли эту песню, о COVID еще никто не слышал, мы не знали ни про Шиес, ни про Камчатку. К сожалению, за последние полгода количество подобных плохих новостей стало зашкаливать, так что песня становится чрезмерно актуальной», — сказал Лагутенко.

Иван Соснин добавил, что в клипе авторы хотели показать альтернативную реальность Земли, где предприятия и заводы загрязнили атмосферу. «Честно говоря, снимать клип было тяжело из-за суровой погоды. Спасибо Юре Колокольникову за то, что мужественно выдержал этот марафон и не испугался уральского климата», — подчеркнул режиссер.

Съемки клипа проходили в городе Карабаш (Челябинская область), природу которого весь прошлый век, с 1910 до 1990 гг., уничтожали атмосферные выбросы и промышленные отходы Карабашского медеплавильного комбината.

Модернизация производства и ликвидация накопленного экологического вреда в Карабаше начались только в 2004 году, когда у градообразующего предприятия появился новый владелец.

Песня «Космические силы» вошла в новый альбом-сюрприз группы Мумий Тролль «Призраки Завтра».

«Карнавала.Нет XX лет»: вышел трибьют группе «Мумий Тролль»

Кокетливые боты. Как нас обманывают в интернете

  • Крис Баранюк
  • BBC Future

Автор фото, Thinkstock

Люди издавна мечтали об умных машинах, похожих на человека. Кажется, мечты сбылись, такие машины уже среди нас, но стоит ли радоваться по этому поводу?

Иногда это обещание секса, на которое вы клюете, как на наживку. Иногда вы покупаетесь на то, что они кажутся мудрыми, доброжелательными или просто смешными. Боту все равно, как именно он вас обманывает – его единственная цель состоит в том, чтобы заставить вас поверить, что он — человек. Если вы пользуетесь социальными сетями и проводите много времени в интернете, вполне возможно, что вы уже стали жертвой одной из компьютерных программ («бот» – сокращение от «робот» – Ред.), созданной специально для имитации человеческого разговора в многочисленных чатах.

В начале июня прозвучало спорное заявление, что

разработанный в России чат-бот впервые в истории прошел знаменитый тест британского пионера информатики Алана Тьюринга для оценки искусственного интеллекта компьютера. В ходе обмена текстовыми сообщениями компьютерная программа под названием Eugene Goostman («Евгений Густман») сумела убедить достаточно высокий процент задававших вопросы участников теста, что перед ними — 13-летний украинский мальчик. Как считают оптимисты, таким образом, был дан ответ на вопрос о возможности создания искусственного интеллекта, много лет назад поставленный Тьюрингом.

Знаменует ли это событие начало новой эры, как амбициозно утверждали организаторы теста из британского университета города Рединга? Не совсем так. Тест Тьюринга потерял свою важность для исследований в области искусственного интеллекта несколько лет назад, и многие ученые рассматривают подобные состязания суперпрограмм как несовершенные, потому что их можно выиграть с помощью обмана – например, притвориться человеком, для которого английский язык не родной.

Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.

Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. В

одном из последних отчетов констатируется, что 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.

Ослепленные сексом

Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес — создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity («Искусственная лингвистическая интернет-компьютерная сущность»). «Алиса» трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей «человечности».

Автор фото, Thinkstock

Подпись к фото,

Если вы пользуетесь соцсетями, шансы на то, что вас обманут, крайне высоки

«Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов».

Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на «взрослый» сайт знакомств или сайт с веб-камерой.

По оценкам специалистов Cloudmark, в арсенале TextGirlie порядка 15 миллионов текстовых сообщений, отправляемых на мобильные телефоны, и они утверждают, что бот-обманщик работает уже несколько месяцев. По словам аналитика компании Эндрю Конвея, это явный признак успеха программы.

Автоматизированный обман

Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского.

К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.

Автор фото, Thinkstock

Подпись к фото,

Не радуйтесь раньше времени, что нашли приятного собеседника. Скорее всего, это бот

А совсем недавно, в 2006 году, психолог Роберт Эпштейн был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.

Иногда боты способны одурачить даже продвинутых интернет-пользователей. Берди Яворски знает, каково это. Яворски – одна из завсегдатаев социального новостного сайта Reddit и адепт виртуальной валюты dogecoin. На форуме Reddit недавно появился пользователь под ником wise_shibe, размещающий остроумные замечания в стиле древних изречений. «Его ответы звучали так, словно это сказал Конфуций», – вспоминает Яворски.

Эти комментарии даже начали приносить wise_shibe деньги, поскольку форум позволяет пользователям отправлять друг другу небольшие «чаевые» в цифровой валюте, если им нравится комментарий. Реплики wise_shibe были популярны и собирали много чаевых. Но вскоре все это начало выглядеть подозрительно: аккаунт был активен в любое время суток и в конце концов начал повторяться.

Когда обнаружилось, что wise_shibe — бот, некоторые участники форума были возмущены. Другие же заявили, что ничего не имеют против. Яворски была удивлена, но чувствовала себя обманутой. «Внезапно понимаешь, что этот человек на форуме, который принимает от тебя виртуальную валюту в благодарность за удачные комменты – не более чем маленький робот», – вспоминает она.

«Твиттер»-фантомы

Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек.

Для Фабрицио Бенвенуто это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в «Твиттер», если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.

Автор фото, Thinkstock

Подпись к фото,

У хорошего бота могут быть многочисленные фолловеры

Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в «Твиттере» не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков («фолловеров»), почти 5 тыс. человек.

Возможные последствия этого нельзя недооценивать. «Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу», – отмечается в статье.

Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing).

Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем в январе автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании.

«Гораздо более совершенные»

Последствия астротурфинга могут быть настолько серьезны, что министерство обороны США приняло участие в финансировании разработки программного обеспечения, способного определить, принадлежит ли аккаунт в «Твиттере» боту.

Автор фото, Thinkstock

Подпись к фото,

Человеку все труднее понять, чем он отличается от робота. По крайней мере, в интернете…

Онлайн-приложение, получившее название BotOrNot,

доступно для широкой публики и выполняет упреждающий анализ, основанный на деятельности аккаунта и семантике его твитов, что позволяет с большой долей вероятности предположить, кем является владелец аккаунта – человеком или ботом.

Но Эмилио Феррара, ведущий исследователь проекта, признает, что система, возможно, уже устарела. Она прошла обучение на контенте «Твиттера», которому в настоящее время три года, и не исключено, что лучшие боты наших дней уже научились избегать обнаружения.

«Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов».

Похоже, что боты будут совершенствоваться и дальше. У Фрица Кунце из компании Pandorabots есть надежда, что люди научатся лучше распознавать обман и не принимать боты за невинных пользователей, вступающих с ними в контакт в интернете. Но он в то же время отчетливо осознает, насколько сложна задача, которую предстоит решить в ближайшее время.

«Эти боты будут очень, очень продвинутыми, – уверен он. – Они очень качественно будут морочить людям голову».

Аэродинамический хвост, как у гепарда, улучшает маневры и скорость роботов

Гепарды демонстрируют потрясающую точность и маневренность на высоких скоростях, отчасти благодаря своему хвосту. Перевод этой производительности на роботов позволит им легче перемещаться по естественной местности. Однако добавление хвоста к роботу несет в себе недостатки, такие как увеличенная масса, высокая инерция и более высокая стоимость энергии для обеспечения машины.

Исследователи из лаборатории робототехники Университета Карнеги-Меллона в сотрудничестве с Кейптаунским университетом нашли способы преодолеть эти проблемы, вдохновившись именно хвостом гепарда. Результаты опубликованы в журнале IEEE Transactions on Robotics.

Легкий пушистый хвост хищника действует как своего рода парашют. Большинство роботизированных хвостов обладают высокой инерцией, но гепарду удается сохранять ее на низком уровне. Инерция — это физическое свойство, которое описывает сопротивление объекта изменениям в движении. В хвостах гепардов используется аэродинамическое сопротивление для достижения высоких сил без большой инерции.

Традиционно инженеры использовали в роботехнике инерционные хвосты. Однако исследование показало, что аэродинамические не только предпочтительнее из-за своих уникальных качеств, но и гораздо легче. Это значит, что «хвостатый» робот будет гораздо маневреннее и потреблять меньше энергии.

Вообще авторы статьи отмечают, что робот с хвостом, например, ускоряется быстрее, чем робот без него, несмотря на увеличение массы. Это означает, что робот лучше контролирует свои движения — замедление, ускорение или поворот.

«Хвосты помогают стабилизировать робота, что очень важно, когда он выполняет сложные маневры. Мы считаем, что повышение маневренности роботов поможет нашим роботам лучше помогать людям за пределами лаборатории», — подчеркивают авторы исследования.


Читать далее

Создана первая точная карта мира. Что не так со всеми остальными?

Вертолет Ingenuity успешно взлетел на Марсе

В НАСА рассказали, как они доставят образцы Марса на Землю

Сражение онлайн-ботов, троллей и людей

С вежливостью и демократией на кону боты, тролли и их охотники ведут игру в кошки-мышки в Интернете.

(Наука изнутри) — Полвека назад, в 1968 году, Филип К. Дик опубликовал фантастическую классику Мечтают ли андроиды об электрических овцах? , который позже станет фильмом «Бегущий по лезвию». В книге Дик представил устройство под названием машина Фойгта-Кампффа — инструмент для допроса, специально разработанный для того, чтобы отличить андроида от человека.Теперь жизнь имитирует искусство, а в Интернете безудержно разгуливают боты, изображающие людей. Но в отличие от андроидов из романа Дика, боты сегодня без тела и даже без лица. Они вмешались в президентские выборы в США в 2016 году, и некоторые эксперты говорят, что они готовы продолжить наступление в среднесрочной перспективе 2018 года.

Но если мы не можем собрать их в комнате и задать им ряд вопросов, как мы можем выделить ботов среди миллиардной онлайн-толпы?

I. Программисты и детективы

«Я не могу заснуть.Но я могу лежать тихо и не подглядывать ».
— Дэвид, А.И. Искусственный интеллект »(2001)

Если кто-то пишет в Твиттере 24 часа в сутки, то это может быть человек, который пьет много Red Bull, но более вероятно, что это бот.

В отличие от физических роботов, боты сегодня — это просто компьютерные алгоритмы, которые выполняют те задачи, для которых их спроектировали программисты. Бот может делать все, что угодно: от рассылки спама на миллион адресов электронной почты до отключения веб-сайта, превышающего его пропускную способность, до написания впечатляюще связных стихов и публикации их в Twitter.

В случае ботов Твиттера, пытающихся манипулировать циклом политических новостей, просмотр меток времени в твитах учетной записи — лишь один из способов определить, принадлежат ли сотня или около того символов человеку или боту. Есть еще много тонких подсказок, которые можно использовать, чтобы выбрать ботов, притворяющихся людьми.

Политологи и компьютерные инженеры исследуют политических ботов и троллей в социальных сетях, по крайней мере, с середины 2000-х годов, задолго до российской кибер-кампании по проникновению на платформы социальных сетей, чтобы повлиять на U.С. Президентские выборы.

В недавно опубликованном исследовании журнала Big Data исследователи обучили программистов определять российских ботов в Твиттере в 2014 и 2015 годах. Программистов-людей — 50 студентов бакалавриата из Москвы — учили искать подсказки, например если аватар пользователя пустой или выглядит как стоковая фотография, если имя пользователя содержит слишком много цифр и если описание профиля выглядит слишком общим. Кодировщики также искали более тонкие детали, например, выглядело ли соотношение между друзьями и подписчиками учетной записи ненормальным, или его твиты содержали только текст, а не фотографии.

Но «боты не проявляют себя как боты», — сказал Джошуа Такер, политолог из Нью-Йоркского университета и автор статьи. Не имея легкого доступа к истине, они сделали следующее лучшее — сравнили ответы человеческих кодировщиков, которые оказались чрезвычайно согласованными друг с другом. Если учетная запись Twitter выглядит как бот и звучит как бот для 49 из 50 человек, то, вероятно, это бот.

Всего 50 обученных программистов обнаружили около 250 ботов из тысячи или около того аккаунтов в Твиттере, которые писали о российской политике во время событий, связанных с аннексией Крыма Россией.Но тысяча аккаунтов — это только верхушка айсберга Twitter. Для дальнейшего исследования исследователям пришлось позаимствовать мощность компьютеров.

Используя алгоритмы машинного обучения в сочетании с данными, собранными людьми-программистами, исследователи обучили компьютеры анализировать почти четверть миллиона учетных записей Twitter, которые твитнули более 15 миллионов раз в 2014 и 2015 годах.

Они обнаружили, что из 250 000 учетных записей 97 000 были активны в течение периода, из которых примерно две трети могут быть ботами.В определенные дни эти предполагаемые боты публиковали более половины всех твитов, связанных с российской политикой. Как и ожидалось, боты с меньшей вероятностью делились своим местоположением или твитнули с мобильного устройства, но они также имели тенденцию ретвитить больше, чем люди, и когда они это делали, они имели тенденцию только ретвитнуть текст, не включая никаких ссылок.

Вопреки ожиданиям исследователей, эти боты не просто интенсивно пишут и ретвитят, как старые боты, которые начали наводнять онлайн-форумы и комментировать темы с рекламой Виагры в начале 2000-х.Вместо этого они, кажется, развили некоторые тонкости в своем подходе. Это говорит о том, что между программистами Twitter и российскими архитекторами ботов могла быть битва, каждый из которых пытался получить контроль над тем, какая информация подается в ленты Twitter других пользователей.

В этой войне между программистами и архитекторами ботов нет ничего нового — подумайте о своем спам-фильтре электронной почты и о «нигерийском принце» — но теперь эта война распространилась на все остальные уголки Интернета и, в свою очередь, на все аспекты наша современная жизнь.

«Одна из самых заметных вещей, которую мы заметили, — это рост количества заголовков в RT (ранее Russia Today) и Sputnik, когда мы ищем новости в Интернете. Это, по сути, спонсируемые государством медиа-организации из России», — сказал Такер из Нью-Йоркского университета. «По сути, у вас есть алгоритмы ранжирования в поиске Google, пытающиеся выяснить, как избежать того, что делают эти боты, и у вас есть боты, пытающиеся замаскироваться от Google».

«И игра в кошки-мышки продолжается», — сказал он.

II.Человеческие тролли и спонсоры

«Наш девиз -« Человек больше, чем человек »».
— Доктор Элдон Тирелл, «Бегущий по лезвию» (1982)

Какими бы развитыми ни были боты сегодня, фейковые новости в Интернете по-прежнему создаются в основном людьми. В перетягивании каната между ботами и бот-детективами политические деятели иногда могут пересилить друг друга, потратив немного больше денег и наняв реальных людей, широко известных как платные тролли, чтобы влиять на информацию в Интернете.

Платные тролли — это люди, которые занимаются продвижением определенных политических программ в сети, и их гораздо труднее обнаружить, чем ботов.В конце концов, если не копать чей-то IP-адрес, как вы можете определить, идет ли комментарий на YouTube из подвала Кремля или бунгало в Индонезии?

Глобальная доступность Интернета и анонимность пользователей дали мощь ботам и троллям, в отличие от любых других средств массовой информации, существовавших ранее. Давно прошли времена пропаганды с использованием листовок и взломов телебашен. Сегодня платные тролли могут извергать фальшивые новости прямо в дома американцев из любой точки планеты, если есть подключение к Интернету.

Для борьбы с эксплуатацией спонсируемых государством троллей Facebook начал маркировать платную политическую рекламу и требовать проверки пользователей, которые ведут популярные страницы Facebook. По словам Робин Каплана, эксперта по социальным сетям из Института исследований данных и общества в Нью-Йорке, хотя ни один из этих протоколов не может полностью уничтожить дезинформацию в Интернете, они действительно обеспечивают некоторую защиту.

«Если веб-сайту требуется номер телефона для подтверждения учетной записи, это означает, что для создания поддельной учетной записи вам нужно будет купить телефон с записывающим устройством, что будет дополнительным вложением средств», — сказал Каплан.

Анонимность долгое время была основой Интернета. Анонимность, палка о двух концах, побуждает людей свободно высказывать свое мнение, не опасаясь общественного внимания или даже юридических последствий. Разные страны подошли к вопросу анонимности в Интернете с разными уровнями контроля. Китайское правительство, например, теперь требует, чтобы все пользователи Weibo — китайского эквивалента Twitter в рамках Великого файрволла — лично проверяли свои учетные записи с помощью программы «Регистрация настоящего имени».

На первый взгляд, цель программы «Регистрация настоящего имени» — остановить распространение дезинформации в Интернете, но некоторые комментаторы видят в этом попытку правительства и дальше контролировать онлайн-выступления. В Китае уже действуют более строгие законы для пользователей сети, чем в США, например, запрещающие онлайн-платформам создавать, публиковать или продвигать контент, который «наносит ущерб национальной чести и интересам».

«Всегда будет компромисс между анонимностью и подотчетностью и свободой слова и вежливостью.Я не думаю, что имеет смысл говорить, что мы должны быть на одной стороне или другой — есть золотая середина, но никто не знает, где это сладкое пятно », — сказал Ришаб Нитьянанд, также исследователь из Data и Институт исследований общества. «Это должны быть философские дебаты».

III. Законодательные и регулирующие органы по правам человека

«В английском языке 400 000 слов, и есть семь из них, которые вы не можете сказать по телевидению. Какое это соотношение!»
— Джордж Карлин, «Семь слов, которые нельзя сказать по телевидению» (1972)

Кто-то может поклясться в Твиттере миллионам подписчиков, но не в местном радио-шоу, которое слушают сотни человек.Почему?

«Интернет всегда был похож на Дикий Запад», — сказал Таддеус Хоффмайстер, эксперт по праву социальных сетей из Дейтонского университета в Огайо.

Информация в Интернете пользуется гораздо большей свободой по сравнению с телевидением и радио, которые более жестко регулируются Федеральной комиссией по связи. У каждой платформы социальных сетей обычно есть свой набор правил сообщества. Например, вы можете найти в Twitter определенные виды контента для взрослых, которые запрещены в Facebook.

Ранее в этом году правительство США сделало новый шаг в регулировании контента в Интернете. Новый закон, подписанный президентом Дональдом Трампом в апреле этого года, под названием Закон о запрещении торговли людьми и разрешить государствам и жертвам бороться с торговлей людьми в Интернете или FOSTA-SESTA , добавляет исключение к существующему разделу 230 Закона 1996 года. Закон о порядочности в коммуникациях , который защищает онлайн-платформы от ответственности за то, что публикуют их пользователи.

Законодатели назвали Backpage — сайт с тематической онлайн-рекламой, аналогичный Craigslist — одним из главных мотивов, стоящих за законом. На сайт неоднократно подавали иски за умышленное размещение рекламы, связанной с торговлей людьми в целях сексуальной эксплуатации и детской порнографией, но юристы изо всех сил пытались выиграть судебные процессы из-за статьи 230.

Однако, хотя закон может быть подкреплен благими намерениями, Хоффмайстер предупредил о его возможных непредвиденных последствиях. Юристы раскритиковали формулировку законопроекта как «чрезвычайно расплывчатую и широкую.«После того, как закон был принят, многие веб-сайты, включая Craigslist и Reddit, закрыли часть своих сообществ.

По словам Хоффмайстера, дальнейшие правила могут также помочь укрепить контроль над рынком для существующих технологических гигантов, таких как Twitter и Facebook, у которых уже есть системы, отслеживающие пользовательский контент. Согласно собственному отчету Facebook в этом месяце, только за первые три месяца 2018 года компания удалила 21 миллион порнографических материалов. По словам Хоффмайстера, небольшая стартап-компания может не иметь таких же ресурсов, чтобы соответствовать строгим правилам.

«Когда Цукерберг запускал Facebook из своего общежития, ему не нужно было беспокоиться об этих вещах. Итак, если мы введем новые правила для контроля над ботами и фальшивыми новостями, как это повлияет на следующую стартап-компанию?» — сказал Хоффмайстер.

Даже если мы сейчас введем новые законы и протоколы платформ, чтобы обуздать этих злонамеренных ботов и троллей, не будет ли уже слишком поздно? Согласно недавнему исследованию, негативное пристрастие — идея о том, что люди объединяются не для того, чтобы поддерживать свою, а для того, чтобы противостоять другой стороне, — растет и способствует проявлению недоброжелательности в социальных сетях.Итак, недавнее усиление раскола — просто естественное развитие двухпартийной системы Соединенных Штатов или есть что-то еще, что подпитывает огонь?

IV. Модераторы и исполнители-люди

«Толпа всегда состоит из людей».
— Аттикус Финч, «Убить пересмешника» (1960)

Интенсивные дебаты между заклятыми врагами-демократами и республиканцами столь же американские, как фейерверк четвертого июля, но некоторые исследования показывают, что политический разрыв сегодня больше, чем он был десятилетиями.Чтобы изучить тенденцию политических аргументов в социальных сетях, Nithyanand заглянул в Reddit, платформу для агрегирования новостей и обсуждения в Интернете, популярность которой резко возросла с начала 2010-х годов.

В отличие от Facebook и Twitter, сообщения и комментарии на Reddit постоянно модерируются людьми-добровольцами, а также компьютерными алгоритмами. Весь контент на Reddit сортируется в более мелкие сообщества, называемые субреддитами, с такими именами, как / r / liberal или / r / conservative, каждое со своим собственным набором правил, а также автоматическими фильтрами и модераторами, которые отслеживают и удаляют все, что нарушает эти правила.Из-за этого Reddit предоставляет исследователям тысячи микрокосмов для изучения того, как каждое из этих сообществ subreddit формирует поведение пользователей.

Проанализировав более 100 миллионов комментариев Reddit в период с 2015 по 2016 год, Nithyanand обнаружил явную асимметрию между консервативными и либеральными субреддитами. За этот период в консервативных субреддитах на 1600% увеличилось количество ссылок, полученных из неоднозначных источников, известных распространением теорий заговора и фальшивых новостей, в то время как либеральные субреддиты почти не проявляли такой активности.

Хотя трудно сказать, является ли увеличение на 1600 процентов результатом сознательных попыток подавляющего большинства проникнуть в консервативные субреддиты по сравнению с либеральными субреддитами, Nithyanand считает, что различия в правилах и философии модерации в разных субреддитах сыграли значительную роль в формировании различий. Nithyanand обнаружил, что сообщения из спорных источников на либеральных субреддитах обычно быстро отключаются или удаляются модераторами и автоматическими фильтрами, и их пользователи практически не принимают участия.Напротив, модераторы из консервативных субреддитов используют относительно «свободные руки» подход и предоставляют своим пользователям больше свободы для публикации и обмена контентом.

Такое бездействие модераторов в консервативных субреддитах также, вероятно, способствовало огромному потоку комментариев, многие из которых были оскорбительными и ненавистными, исходящими от пользователей, связанных с экстремистскими субреддитами, согласно исследованию Nithyanand. Его исследование показало, что консервативные субреддиты испытали более чем шестидесятикратное увеличение такой активности, что привело к 2016 году U.С. президентские выборы, в то время как либеральные субреддиты испытали только двукратный рост аналогичного трафика.

Команда

Нитьянанда также нашла аккаунты троллей, которые вызвали провокационные комментарии с обеих сторон политического спектра. Поскольку подстрекательские комментарии, как правило, вызывают больше комментариев, эти нецивилизованные аргументы поддерживаются и повторяются в субреддитах, где модераторы либо неохотно, либо не могут эффективно помечать и удалять комментарии.

«Мы должны помочь предоставить инструменты для уже перегруженных работой модераторов, чтобы упростить модерацию контента», — написал Нитьянанд в электронном письме.

Однако, в конце концов, независимо от того, насколько агрессивны эти боты и тролли в сети, они не могут напрямую выбрать наше правительство за нас. Мы люди.

V. Граждане и избиратели

«R2-D2! Ты знаешь, что чужому компьютеру не доверять!»
— C3PO, «Звездные войны: Эпизод V — Империя наносит ответный удар» (1980)

Сила ботов и троллей заключается в их способности обманывать людей. В недавнем отчете американской некоммерческой аналитической организации RAND Corporation перечислен ряд рекомендаций по защите демократии от появления злонамеренных ботов и троллей в социальных сетях.Рекомендации группы включают технические подходы, такие как разработка и внедрение более эффективных методов идентификации и тегирования для ботов и троллей, а также «офлайн» решения, такие как обучение общественности более бдительности в отношении фальшивых новостей и слухов.

Вместо того, чтобы полагаться только на компании социальных сетей в борьбе с этой борьбой в одиночку, в отчете рекомендуется, чтобы страны обучали своих граждан медийной грамотности, расширяли и улучшали контент, создаваемый местными заслуживающими доверия новостными агентствами, позволяя им лучше конкурировать с иностранной пропагандой, спонсируемой государством. , и расширить возможности влиятельных лиц в социальных сетях.

По словам Такера, борьба между противоборствующими политическими сторонами за обмен информацией в сети может спровоцировать что-то вроде гонки вооружений, когда обе стороны постоянно пытаются одолеть друг друга. По его словам, это создает новое поле битвы, на котором политическая власть может быть завоевана или потеряна путем манипулирования гражданами, которые могут оставаться в неведении о мотивах и действиях этих субъектов.

«У вас есть режимы, которые пытаются найти способы использования социальных сетей для усиления своей власти, но у вас также есть противники этих режимов, которые пытаются повысить свою способность бороться с ними», — сказал Такер.

Если «информация — валюта демократии» — цитата, некорректно приписываемая Томасу Джефферсону на некоторых веб-сайтах, — тогда понятно, почему политические деятели могут стремиться манипулировать информацией в социальных сетях и Интернете. В конце июля Facebook объявил о закрытии 32 фальшивых учетных записей, распространяющих спорные онлайн-сообщения в преддверии промежуточных выборов.

«Было много идеологий, связанных с тем, чем должен быть Интернет — я думаю, кто-то выразился так — он должен придавать непрозрачность бессильным и обеспечивать прозрачность для сильных мира сего.Но Интернет вырос из этого и продолжает меняться, — сказал Нитьянанд. — Нам нужно помочь общественности понять, что это то, о чем они действительно должны заботиться ».

Руководство по дезинформации в Интернете

Киборги, тролли и боты: Руководство по дезинформации в Интернете

Автор: ДЭВИД КЛЕППЕР

7 февраля 2020 г. GMT

https://apnews.com/article/us-news-ap-top-news -elections-social-media-technology-4086949d878336f8ea6daa4dee725d94

НЬЮ-ЙОРК (AP) — Киборги, тролли и боты могут наполнить Интернет ложью и полуправдой.Их понимание — ключ к пониманию того, как дезинформация распространяется в Интернете.

Как показали выборы 2016 года, социальные сети все чаще используются для усиления ложных заявлений и разделения американцев по самым острым вопросам, включая расу и иммиграцию. Исследователи, изучающие дезинформацию, предсказывают, что ситуация ухудшится в преддверии президентских выборов в этом году. Вот руководство для понимания проблемы:

MISINFORMATION VS. ДЕЗИНФОРМАЦИЯ

Политическая дезинформация существует еще до появления печатного станка, но Интернет позволил лжи, теориям заговора и преувеличениям распространяться быстрее и шире, чем когда-либо.

Дезинформация определяется как любая ложная информация, независимо от умысла, включая честные ошибки или неправильное понимание фактов. С другой стороны, под дезинформацией обычно понимается дезинформация, созданная и распространяемая намеренно, как способ запутать или ввести в заблуждение.

Дезинформация и дезинформация могут появляться в политической рекламе или сообщениях в социальных сетях. Они могут включать фальшивые новости или подделанные видео. Одним из вопиющих примеров дезинформации в прошлом году было видео спикера Палаты представителей Нэнси Пелоси, которое было замедлено, чтобы она звучала так, как будто она невнятно произносит слова.

Исследования показывают, что ложные утверждения распространяются легче, чем точные, возможно, потому, что они созданы для привлечения внимания.

Полный охват: AP Fact Check

Ученые Массачусетского технологического института проанализировали более 126 000 историй, некоторые из которых были правдивыми, а некоторые — ложными, которые миллионы раз публиковались в Твиттере с 2006 по конец 2016 года. Они обнаружили, что вводящие в заблуждение или неверные истории распространялись шесть раз быстрее — и охватила больше людей.

Дезинформацию в Интернете обвиняют в углублении политической поляризации Америки и в усилении недоверия к правительству.Риски были подчеркнуты в 2016 году, когда российские тролли создали фальшивые учетные записи, чтобы распространять и усиливать сообщения в социальных сетях о спорных вопросах.

ВОЙНА БОТОВ И КИБОРГОВ

Одноразовые пехотинцы в этом цифровом конфликте — это боты. В контексте социальных сетей эти автономные программы могут запускать учетные записи для распространения контента без участия человека.

Многие из них безобидны, они публикуют в Твиттере случайные стихи или фотографии домашних животных. Но другие не замышляют ничего хорошего и созданы так, чтобы походить на реальных пользователей.

Одно исследование, проведенное учеными из Университета Южной Калифорнии, проанализировало связанные с выборами твиты, отправленные в сентябре и октябре 2016 года, и обнаружило, что каждый пятый был отправлен ботом. В исследовании 2018 года исследовательский центр Pew Research Center пришел к выводу, что аккаунты, подозреваемые в том, что они являются ботами, несут ответственность за две трети всех твитов, содержащих ссылки на популярные веб-сайты.

В то время как обычные пользователи Твиттера часто публикуют сообщения несколько раз в день на самые разные темы, наиболее очевидные боты будут твитить сотни раз в день, днем ​​и ночью, и часто только на определенную тему.Они скорее будут репостить контент, чем создавать что-то оригинальное.

А еще есть киборг, своего рода гибридная учетная запись, которая сочетает в себе неутомимость бота с человеческой проницательностью. Учетные записи киборгов — это те, в которых человек периодически берет на себя учетную запись бота, чтобы отвечать другим пользователям и публиковать оригинальный контент. Они более дорогие и трудоемкие в эксплуатации, но они не выдают себя за роботов.

«Вы можете многое получить от бота, но, возможно, он не самого лучшего качества», — сказал Эмилио Феррара, исследователь в области науки о данных из Университета Южной Калифорнии, который соавтором исследования о ботах Twitter.«Проблема с киборгами в том, что их намного сложнее поймать и обнаружить».

ОБНАРУЖИТЕ БОТОВ

Ботов бывает сложно обнаружить даже лучшим исследователям.

«У нас есть 12 способов обнаружить бота, и если мы обнаружим семь или восемь из них, у нас будет довольно большая уверенность», — сказал Грэм Бруки, директор Лаборатории цифровых криминалистических исследований Атлантического совета, находящейся в Вашингтоне, округ Колумбия. который изучает связи между социальными сетями, кибербезопасностью и правительством.

Тем не менее, Бруки вспомнил случай с учетной записью Twitter из Бразилии, которая публиковала сообщения почти постоянно — иногда один раз в минуту — и демонстрировала другие характеристики, подобные ботам.И все же: «Это была маленькая бабушка, которая сказала:« Это я! »»

Их распространенность и сложность их идентификации превратили ботов в своего рода цифрового призрака, а этот термин превратился в оскорбление, используемое для игнорирования другие пользователи социальных сетей с другим мнением.

Майкл Уотси, 43-летний житель Нью-Джерси, который часто пишет в Твиттере о своей поддержке президента Дональда Трампа, сказал, что люди, с которыми он спорит в сети, неоднократно называли его российским ботом. Обвинения побуждали Twitter временно приостанавливать его учетную запись более одного раза, вынуждая его подтвердить, что он человек.

«Все, что я пытаюсь сделать, это использовать мое право Первой поправки на свободу слова», — сказал он. «Это безумие, что до этого дошло».

ТРОЛЛИ И СОКОВЫЕ КУКЛЫ

Слово тролль когда-то относилось к животным из скандинавской мифологии, которые прятались под мостами и нападали на путешественников. Теперь это также относится к людям, которые публикуют сообщения в Интернете, чтобы спровоцировать других, иногда для собственного развлечения, а иногда в рамках скоординированной кампании.

Марионетки Sock — это еще один обитатель социальных сетей со странным названием, в данном случае тип учетной записи самозванца.В то время как некоторые пользователи могут использовать анонимные учетные записи просто для того, чтобы не идентифицировать себя, учетные записи sock-puppet используются владельцем, чтобы атаковать своих критиков или хвалить себя. В октябре сенатор от штата Юта Митт Ромни признал, что у него есть секретный аккаунт в Твиттере под именем «Пьер Делекто», который он использовал для защиты от критики.

ПОДДЕЛЬНЫЕ ВИДЕО: ГЛУБОКОЕ, ДЕШЕВОЕ И МАЛОЕ

Дипфейки — это видео, которые были созданы в цифровом виде с помощью искусственного интеллекта или машинного обучения, чтобы создать впечатление, что произошло то, чего не произошло.Они рассматриваются как возникающая угроза, поскольку усовершенствования в программном обеспечении для редактирования видео позволяют обманщикам создавать все более реалистичные кадры, например, бывшего президента Барака Обамы, произносящего речь, которую он никогда не произносил, в обстановке, в которой он никогда не бывал. Они дороги, и их сложно создать, особенно убедительно.

Facebook объявил в прошлом месяце, что запретит Deepfake-видео — за исключением сатиры. С марта Twitter запретит подделку видео, фотографий и аудиозаписей, «которые могут причинить вред».«Материал, которым манипулируют, но не обязательно является вредным, может получить предупреждающий знак. А YouTube запрещает «обманчивое использование манипулируемых СМИ», которое может представлять серьезный риск причинения вреда.

Напротив, мелкие подделки, дешевые подделки или тупые подделки — это видеоролики, которые были подделаны с использованием более простых методов, таких как замедление или ускорение отснятого материала или его обрезка.

Примеры включают подделанное видео, опубликованное Консервативной партией Великобритании перед декабрьскими выборами в Великобритании, из-за которого создается впечатление, что чиновник Лейбористской партии изо всех сил пытается ответить на вопрос о Брексите.

Поскольку их легко и недорого изготавливать, дешевые подделки могут быть столь же опасными, как и их более изобретательный кузен, дипфейк.

«Дипфейки становятся более реалистичными и их легче делать», — сказал Джон Павлик, профессор журналистики в Университете Рутгерса, изучающий, как технологии и Интернет меняют привычки общения. «Но вам не обязательно иметь специальное программное обеспечение, чтобы сделать эти более простые».

Исследователи, изучающие меняющиеся медиа-привычки американцев, рекомендуют людям обращаться к различным источникам и точкам зрения для своих новостей, использовать критическое мышление при оценке информации в социальных сетях и дважды подумать, прежде чем репостить вирусные заявления.В противном случае, говорят они, дезинформация продолжит распространяться, а пользователи будут продолжать ее распространять.

«Единственное решение, — сказал Феррара, — это образование».

Что такое боты, ботнеты и тролли

За последние два года такие слова, как «боты», «ботнеты» и «тролли», вошли в основное русло разговоров о социальных сетях и их влиянии на демократию. Однако вредоносные учетные записи в социальных сетях часто неправильно маркируются, что сводит разговор о них с сути к определениям.

В этом посте излагаются некоторые рабочие определения и методологии, используемые DFRLab для выявления, разоблачения и объяснения дезинформации в Интернете.

Что такое бот?

Бот — это автоматизированная учетная запись в социальной сети, управляемая алгоритмом, а не реальным человеком. Другими словами, бот предназначен для публикации сообщений без вмешательства человека. Лаборатория цифровых криминалистических исследований (DFRLab) ранее предоставила 12 индикаторов, которые помогают идентифицировать бота. Три ключевых показателя бота — это анонимность, высокий уровень активности и увеличение числа конкретных пользователей, тем или хэштегов.

Если учетная запись пишет отдельные сообщения, а также комментирует, отвечает или иным образом взаимодействует с сообщениями других пользователей, тогда учетная запись не может быть классифицирована как бот.

Боты в основном встречаются в Twitter и других социальных сетях, которые позволяют пользователям создавать несколько учетных записей.

Есть ли способ узнать, является ли учетная запись * не * ботом?

Самый простой способ проверить, не является ли аккаунт ботом, — это посмотреть твиты, которые они написали сами.Легкий способ сделать это — использовать простую функцию поиска в строке поиска Twitter.

Из: ручка

Если твиты, возвращенные поиском, являются подлинными (т. Е. Они не были скопированы от другого пользователя), маловероятно, что рассматриваемая учетная запись является ботом.

В чем разница между троллем и ботом?

Тролль — это человек, который намеренно инициирует онлайн-конфликт или оскорбляет других пользователей, чтобы отвлечь и посеять разногласия, публикуя подстрекательские или не относящиеся к теме сообщения в онлайн-сообществе или социальной сети.Их цель — спровоцировать других на эмоциональную реакцию и сорвать дискуссии.

Тролль отличается от бота, потому что тролль — настоящий пользователь, а боты автоматизированы. Эти два типа учетных записей исключают друг друга.

Троллинг, однако, не ограничивается одними только троллями. DFRLab обнаружила, что тролли используют ботов для усиления некоторых своих сообщений. Например, еще в августе 2017 года аккаунты троллей, усиленные ботами, нацелены на DFRLab после статьи о протестах в Шарлоттсвилле.В связи с этим боты могут и использовались для троллинга.

Диаграмма Эйлера, показывающая отсутствие перекрытия между учетными записями ботов и троллей.

Что такое ботнет?

Ботнет — это сеть учетных записей ботов, которыми управляет одно лицо или группа. Те, кто управляет ботнетами, которые требуют первоначального участия человека перед развертыванием, называются бот-пастырями или пастырями. Боты работают в сетях, потому что они созданы для взаимодействия с социальными сетями, в результате чего тема, на которой развертывается ботнет, кажется более активной для «реальных» пользователей, чем есть на самом деле.На платформах социальных сетей вовлечение порождает большее вовлечение, поэтому успешный ботнет ставит тему, на которой он развернут, перед большим количеством реальных пользователей.

Что делают ботнеты?

Цель ботнета — сделать так, чтобы хэштег, пользователь или ключевое слово казались более обсуждаемыми (положительно или отрицательно) или популярными, чем они есть на самом деле. Боты нацелены на алгоритмы социальных сетей, чтобы влиять на раздел трендов, что, в свою очередь, подвергнет ничего не подозревающих пользователей разговорам, усиленным ботами.

Бот-сети редко нацелены на пользователей-людей, и когда они это делают, то это спам или преследование их в целом, а не активные попытки изменить их мнение или политические взгляды.

Как распознать ботнет?

В свете технологии очистки и усовершенствованного обнаружения ботов в Twitter пастухи ботнетов стали более осторожными, что затрудняет обнаружение отдельных ботов. Альтернативой индивидуальной идентификации бота является анализ шаблонов крупных ботнетов для подтверждения того, что его отдельные учетные записи являются ботами.

DFRLab определил шесть индикаторов, которые могут помочь идентифицировать ботнет. Если вы столкнулись с сетью учетных записей, которые, как вы подозреваете, могут быть частью ботнета, обратите внимание на следующее.

При анализе ботнета важно помнить, что ни один индикатор не является достаточным для вывода о том, что подозрительные учетные записи являются частью ботнета. Такие утверждения должны подтверждаться как минимум тремя индикаторами ботнета.

1. Образец речи

Боты, управляемые алгоритмом, запрограммированы на использование одного и того же образца речи.Если вы сталкиваетесь с несколькими учетными записями, использующими один и тот же шаблон речи, например, в твитах для новостных статей, используя заголовок в качестве текста твита, скорее всего, эти учетные записи управляются одним и тем же алгоритмом.

В преддверии выборов в Малайзии DFRLab обнаружил 22 000 ботов, все из которых использовали одну и ту же модель речи. Каждый бот использовал два хэштега, нацеленных на оппозиционную коалицию, а также пометил от 13 до 16 реальных пользователей, чтобы побудить их участвовать в разговоре.

Необработанные данные твитов, опубликованных бот-аккаунтами накануне выборов в Малайзии (Источник: Sysomos)

2. Идентичные стойки

Другой индикатор ботнета — идентичная проводка. Поскольку большинство ботов — это очень простые компьютерные программы, они не способны создавать подлинный контент. В результате большинство ботов публикует в Твиттере идентичные сообщения.

Анализ

DFRLab кампании в Твиттере с призывом отменить исламофобный конкурс карикатур в Нидерландах выявил десятки аккаунтов, публикующих идентичные твиты.

через GIPHY

Хотя отдельные учетные записи были слишком новыми, чтобы иметь четкие индикаторы ботов, их групповое поведение показало, что они, вероятно, являются частью одного и того же ботнета.

3. Шаблоны ручек

Еще один способ идентифицировать крупные бот-сети — это изучить шаблоны дескрипторов подозрительных учетных записей. Создатели ботов часто используют один и тот же шаблон дескриптора при именовании своих ботов.

Например, в январе 2018 года DFRLab обнаружил вероятный ботнет, в котором каждый бот имел восьмизначное число на конце его дескриптора.

(Источник: Twitter / @jreichelt / Архивная ссылка)

Еще один совет — систематические буквенно-цифровые ручки. Все боты из ботнета, обнаруженного DFRLab перед выборами в Малайзии, использовали 15-значные буквенно-цифровые обозначения.

Скриншот дескрипторов Twitter, в которых использовались хэштеги #SayNOtoPH и #KalahkanPakatan перед выборами в Малайзии (Источник: Sysomos)

4. Дата и время создания

Боты, принадлежащие к одному ботнету, обычно имеют схожую дату создания. Если вы сталкиваетесь с десятками учетных записей, созданных в один и тот же день или в течение одной недели, это показатель того, что эти учетные записи могут быть частью одного ботнета.

Необработанные данные, показывающие дату создания учетных записей в Твиттере, которые усиливали кандидатов от партии PRI в штате Пуэбла (Источник: Sysomos)

5. Идентичная активность в Twitter

Еще одна раздача ботнета — идентичная активность. Если несколько учетных записей выполняют одни и те же задачи или работают в Твиттере одинаково, они, скорее всего, будут частью одного и того же ботнета.

Например, ботнет, нацеленный на DFRLab еще в августе 2017 года, имел массовое отслеживание трех, казалось бы, несвязанных учетных записей — официального представителя НАТО Оаны Лунгеску, предполагаемого бот-пастуха (@belyjchelovek), и учетной записи с кошкой в ​​качестве аватара ( @gagarinprosti).

Ботнет, нацеленный на DFRLab, использовал те же учетные записи ( Источник : Twitter)

Такая уникальная активность, например отслеживание одних и тех же несвязанных пользователей в аналогичном порядке, не может быть простым совпадением, если она выполняется несколькими несвязанными учетными записями, и, следовательно, служит надежным индикатором ботнета.

6. Место нахождения

Последний показатель, который особенно распространен среди политических ботнетов, — это одно местоположение, используемое многими подозрительными учетными записями.Политические бот-пастыри обычно используют место, где баллотируется кандидат или партия, которую они продвигают, чтобы попытаться определить тенденцию своего контента в этом конкретном округе.

Например, накануне выборов в Мексике ботнет, продвигавший двух кандидатов от партии PRI в штате Пуэбла, использовал Пуэблу в качестве своего местонахождения.

Необработанные данные, показывающие местонахождение ботов Twitter, которые усиливали кандидатов от партии PRI в штате Пуэбла (Источник: Sysomos)

Скорее всего, это было сделано для того, чтобы настоящие пользователи Twitter из Пуэблы видели твиты и сообщения, усиленные ботами.

Все ли боты являются политическими ботами?

Нет, большинство ботов являются коммерческими учетными записями ботов, что означает, что ими управляют группы и отдельные лица, которые расширяют любой контент, за продвижение которого им платят. Для продвижения политического контента можно нанять коммерческих ботов.

Политические боты, с другой стороны, создаются с единственной целью — усилить политическое содержание конкретной партии, кандидата, группы интересов или точки зрения. DFRLab обнаружила несколько политических ботнетов, продвигающих кандидатов от партии PRI в штате Пуэбла в преддверии выборов в Мексике.

Аффилированы ли все российские боты с государством?

Нет, многие бот-сети с русскоязычными / кириллическими ручками или именами пользователей управляются предприимчивыми россиянами, которые хотят зарабатывать на жизнь в Интернете. Многие компании и частные лица открыто продают подписчиков / подписчиков в Twitter, Facebook и YouTube, а также ретвиты и репосты в российском Интернете. Хотя их услуги очень дешевы (3 доллара США за 1000 подписчиков), бот-пастух с 1000 ботами может зарабатывать более 33 долларов США в день, отслеживая 10 пользователей в день.Это означает, что на этом они могут зарабатывать 900 долларов в месяц, что в два раза превышает среднюю зарплату в России.

Перевод с русского: 1000 подписчиков за 220 рублей (3,34 доллара США), 1000 ретвитов за 130 рублей (1,97 доллара США), 1000 лайков за 120 рублей (1,82 доллара США) ( Источник : Doctosmm.com)

Например, DFRLab наблюдала за коммерческими российскими ботнетами, распространяющими политический контент во всем мире. Например, накануне выборов в Мексике мы обнаружили ботнет, усиливающий Партию зеленых в Мексике.Эти боты, однако, не были политическими и усиливали множество различных аккаунтов, начиная от японского туристического талисмана и заканчивая генеральным директором страхового агентства.

Заключение

Ботов, ботнетов и троллей легко отличить и идентифицировать с помощью правильной методологии и инструментов. Однако следует помнить одну ключевую вещь: учетную запись нельзя считать ботом или троллем, пока не будет тщательно доказано обратное.


Этот пост был первоначально опубликован Лабораторией цифровых криминалистических исследований Атлантического совета (DFRLab).Он был переиздан на IJNet с разрешения.

Донара Бароджан — специалист по цифровым криминалистическим исследованиям в DFRLab .

Основное изображение mohamed_hassan, лицензия CC сайта Pixabay.

троллей и ботов разрушают социальные сети — вот как ИИ может их остановить (Часть 1) | Джейсон Сковронски

Тролли и боты имеют огромное и часто неузнаваемое влияние на социальные сети. Они используются для влияния на разговоры по коммерческим или политическим причинам.Они позволяют небольшим скрытым группам людей продвигать информацию, поддерживающую их повестку дня, и в больших масштабах. Они могут продвигать свой контент в верхней части новостных лент, результатов поиска и тележек покупок. Некоторые говорят, что могут даже повлиять на президентские выборы.

Чтобы поддерживать качество обсуждения на социальных сайтах, возникла необходимость проверять и модерировать контент сообщества. Можем ли мы использовать машинное обучение для выявления подозрительных сообщений и комментариев? Ответ положительный, и мы покажем вам, как это сделать.

Источник: pixabay.com

Тролли опасны в Интернете, потому что не всегда очевидно, когда они на вас влияют или взаимодействуют с ними. Посты, созданные российскими оперативниками, были просмотрены до 126 миллионов американцев в Facebook накануне последних выборов. Twitter опубликовал массивную свалку данных из более чем 9 миллионов твитов от русских троллей. И это не только Россия! Также есть сведения о троллях, пытающихся повлиять на Канаду после конфликта с Huawei. Проблема распространяется даже на онлайн-магазины, где продавцы постепенно все больше манипулируют отзывами на Amazon.

Боты — это компьютерные программы, изображающие людей. Они могут усилить эффект троллей, массово привлекая или нравясь их контенту, или размещая свой собственный контент в автоматическом режиме. Они станут более изощренными, и их будет труднее обнаруживать в будущем. Теперь боты могут создавать целые абзацы текста в ответ на текстовые сообщения или комментарии. Модель OpenAI GPT-2 может писать текст, который по ощущениям и внешнему виду очень похож на человеческий. OpenAI решила не выпускать его из соображений безопасности, но это лишь вопрос времени, когда спамеры наверстают упущенное.Следует отметить, что не все боты вредны. Фактически, большинство ботов на Reddit пытаются помочь сообществу, модерируя контент, находя повторяющиеся ссылки, предоставляя резюме статей и многое другое. Будет важно отличать полезных ботов от вредоносных.

Как мы можем защитить себя от пропаганды и спама злонамеренных троллей и ботов? Мы могли бы тщательно изучить предысторию каждого плаката, но у нас нет времени делать это для каждого прочитанного комментария. Ответ — автоматизировать обнаружение с помощью больших данных и машинного обучения.Давайте бороться с огнем огнем!

Мы сосредоточимся на Reddit, потому что пользователи часто жалуются на троллей в политических обсуждениях. Троллям стало проще работать благодаря анонимной публикации. Операторы могут создавать десятки или сотни учетных записей для имитации взаимодействия, лайков и комментариев пользователей. Исследование, проведенное в Стэнфорде, показало, что только 1% аккаунтов создает 74% конфликтов. За последние несколько месяцев мы видели множество комментариев, подобных этому, в сабреддите worldnews:

«Кто-нибудь еще заметил ложных пользователей в этой ветке? Я узнаю их язык.У него очень специфические черты, например, искреннее любопытство, подкрепленное абсурдными заявлениями. Требование «четких доказательств» и сомнение в правдивости заявлений (что обычно было бы хорошо, но не под прикрытием). Интересно, можно ли запустить его с помощью машинного обучения, чтобы идентифицировать этот тип пользователей / комментариев ». — koalefant in r / worldnews

Есть несколько существующих ресурсов, которые мы можем использовать. Например, субреддит botwatch отслеживает ботов на Reddit, как и его тезка! В отчете Reddit о прозрачности за 2017 год также перечислены 944 аккаунта, подозреваемых в том, что они являются троллями, работающими на Российское агентство интернет-исследований.

Также существуют программные инструменты для анализа пользователей Reddit. Например, прекрасно спроектированный reddit-user-analyzer может выполнять анализ настроений, отображать противоречивость комментариев пользователей и многое другое. Давайте сделаем еще один шаг и создадим инструмент, который предоставит власть модераторам и пользователям.

В этой статье, первой из серии, состоящей из двух частей, мы расскажем, как собирать данные из API Reddit для анализа и как создать фактическую панель управления. Во второй части мы подробнее рассмотрим, как мы построили модель машинного обучения.

В этом руководстве вы узнаете, как создать панель управления для идентификации ботов и троллей в комментариях Reddit в режиме реального времени с помощью машинного обучения. Это может быть полезным инструментом, который поможет модераторам политических сабреддитов выявлять и удалять контент от ботов и троллей. По мере того, как пользователи отправляют комментарии в субреддит r / policy, мы фиксируем комментарии и прогоняем их с помощью нашей модели машинного обучения, а затем сообщаем о подозрительных на панели управления модераторам.

Вот скриншот нашей панели управления.Попробуйте сами на reddit-dashboard.herokuapp.com.

Чтобы оправдать ваши ожидания, наша система разработана как доказательство концепции. Это не производственная система, и она не на 100% точна. Мы будем использовать его, чтобы проиллюстрировать этапы построения системы, надеясь, что поставщики платформ смогут предлагать подобные официальные инструменты в будущем.

Из-за большого количества сообщений и комментариев на сайтах социальных сетей необходимо использовать масштабируемую инфраструктуру для их обработки.Мы спроектируем архитектуру нашей системы на примере, написанном командой Heroku в разделе «Управление потоками событий в реальном времени с помощью Apache Kafka». Это управляемая событиями архитектура, которая позволит нам создавать данные из Reddit API и отправлять их в Kafka. Kafka упрощает обработку потоковых данных и разделяет различные части нашей системы. Читая эти данные из Kafka, наша панель управления может вызывать API машинного обучения и отображать результаты. Мы также будем хранить данные в Redshift для исторического анализа и использования в качестве обучающих данных.

Нашим первым шагом будет загрузка комментариев из сабреддита политики для анализа. Reddit упрощает доступ к комментариям как к структурированным данным в формате JSON. Чтобы получить последние коммиты для любого субреддита, просто запросите следующий URL:

 https://www.reddit.com/r/${subreddit}/comments.json 

Аналогичным образом мы можем получить доступ к общедоступным данным о каждом пользователе, включая его карма и история комментариев. Все, что нам нужно сделать, это запросить эти данные с URL-адреса, содержащего имя пользователя, как показано ниже.

 https://www.reddit.com/user/${username}/about.json 
https://www.reddit.com/user/${username}/comments.json

Для сбора данных, мы просто просмотрели каждый комментарий в подреддите r / policy, а затем загрузили пользовательские данные для каждого комментатора. Вы можете использовать любую библиотеку HTTP-запросов, которая вам нравится, но мы использовали наши примеры и будем использовать axios для Node.js. Кроме того, мы объединим данные обоих вызовов в единую удобную структуру данных, которая включает в себя как информацию о пользователях, так и их комментарии.Это упростит сохранение и извлечение каждого примера позже. Эту функциональность можно увидеть в файле profile-scraper.js, и вы можете узнать больше о том, как его запустить, в README.

Теперь, когда данные собраны с Reddit, мы готовы передать комментарии в Kafka. Перед подключением к серверу Kafka вам нужно будет создать тему на панели инструментов Heroku. Щелкните Добавить тему и задайте имя темы с одним разделом.

Для подключения к серверу Kafka в качестве производителя в Node.js вы можете использовать библиотеку no-kafka с информацией о подключении, уже установленной в кластере, созданном Heroku:

 const Kafka = require ('no-kafka') const url = process.env.KAFKA_URL 
const cert = process.env .KAFKA_CLIENT_CERT
const key = process.env.KAFKA_CLIENT_CERT_KEYfs.writeFileSync ('./ client.crt', cert)
fs.writeFileSync ('./ client.key', key) const producer = new Kafka.Producer ({
clientId) : 'reddit-comment-maker',
connectionString: url.replace (/ \ + ssl / g, ''),
ssl: {
certFile: './client.crt ’,
keyFile:‘ ./client.key ’
}
})

После подключения к Kafka вы можете отправлять сообщения в тему, которую вы создали ранее. Для удобства мы решили преобразовать сообщения JSON в строки перед отправкой их в Kafka в нашем приложении для прямой трансляции:

 продюсер.send ({тема 
: 'northcanadian-72923.reddit-comments',
partition: 0,
message: {
value: JSON.stringify (message)
}
})

В нашем репо пример кода рабочего потокового вещания находится в kafka-stream.js файл.

Наш образец панели инструментов представляет собой приложение JavaScript, основанное на предыдущей версии демонстрационного приложения twitter-display Kafka от Heroku. Мы упростили приложение, удалив некоторые зависимости и модули, но общая архитектура осталась: приложение Express (на стороне сервера) для использования и обработки темы Kafka, подключенное через веб-сокет с интерфейсом D3 (на стороне клиента) для отображения сообщения (комментарии Reddit) и их классификация в реальном времени. Вы можете найти наш открытый исходный код на https: // github.ru / devspotlight / Reddit-Kafka-Consumers.

В серверном приложении Node мы подключаемся к Kafka в качестве простого потребителя, подписываемся на тему и транслируем каждую группу сообщений в нашу функцию, которая загружает прогноз:

 новый потребитель ({
broadcast: (msgs) » => {
predBotOrTrolls (msgs)
},
interval: constants.INTERVAL,
topic: constants.KAFKA_TOPIC,
consumer: {
connectionString: process.env.KAFKA_URL,
ssl: {
cert: './client.crt ',
key:' ./client.key '
}
}
})

Затем мы используем unirest (библиотека запросов HTTP / REST) ​​для отправки единой схемы данных из этих сообщений в наш API машинного обучения для прогнозы в реальном времени о том, является ли автор человеком, ботом или троллем (подробнее об этом в следующем разделе этой статьи).

Наконец, в нашем app.js используется сервер WebSocket, чтобы клиентская часть могла получать все отображаемые данные в реальном времени. Поскольку поток комментариев субреддита осуществляется в реальном времени, необходимо учитывать и контролировать масштабирование и балансировку нагрузки каждого приложения.

Мы используем популярную библиотеку JavaScript D3 для динамического обновления информационной панели по мере поступления сообщений Kafka. Визуально к потоку данных привязана специальная таблица, и эта таблица обновляется с учетом новейших комментариев по мере их поступления (сначала самые новые), а также количество обнаруженных типов пользователей:

 import * as d3 from 'd3'class DataTable {

constructor (selector, maxSize) {
this.tbody = d3.select (selector)
this._maxSize = maxSize
this._rowData = []
}

обновление (данные) {
данных.forEach ((msg) => {
this._rowData.push (msg)
} if (this._rowData.length> = this._maxSize)
this._rowData.splice (0, this._rowData.length - this._maxSize ) // Связываем строки данных с целевой таблицей
let rows = this.tbody.selectAll ('tr'). Data (this._rowData, (d) => d)

Подробнее см. Data-table.js . Приведенный выше код — это всего лишь отрывок.

Наш API машинного обучения разработан для изучения функций учетной записи автора комментария и недавней истории комментариев.Мы обучили нашу модель изучать такие функции, как их «карма» Reddit, количество опубликованных комментариев, подтверждена ли их учетная запись и многое другое. Мы также предоставили ему набор функций, которые, как мы предполагаем, будут полезны при классификации пользователей. Мы передаем коллекцию модели как объект JSON. Затем модель возвращает прогноз для этого пользователя, который мы можем отобразить на нашей панели инструментов. Вы можете узнать больше о том, как мы построили нашу модель машинного обучения, во второй части этой серии.

Ниже приведены образцы объектов данных JSON (с использованием нашей унифицированной схемы данных), отправленных как запросы к HTTP API.

Пример для бота user:

 {
«banned_by»: null,
«no_follow»: true,
«link_id»: «t3_aqtwe1»,
«gilded»: false,
«author»: »AutoModerator »,
« author_verified »: false,
« author_comment_karma »: 445850.0,
« author_link_karma »: 1778.0,
« num_comments »: 1.0,
« created_utc »: 1550213389.0,
« score »: 1.0,
« over_18 »: false ,
«body»: «Привет, спасибо за сообщение в \\ / r \\ / SwitchHaxing! К сожалению, ваш комментарий был удален из-за правила 6. Пожалуйста, задавайте вопросы в прикрепленной ветке вопросов и ответов.Если вы считаете, что это ошибка, свяжитесь с нами через modmail и разберитесь с ней. * Я бот »,
« вниз »: 0,0,
« is_submitter »: false,
« num_reports »: null,
« противоречивость » »: 0.0,
« quarantine »:« false »,
« ups »: 1.0,
« is_bot »: true,
« is_troll »: false,
« Recent_comments »:« [… массив из 20 недавних комментариев…] »
}

Возвращенный ответ:

 {
«прогноз»: «Является пользователем бота»
}

Как видите, наша архитектура состоит из множества частей, включая производителей, Kafka и приложение визуализации, которые могут заставляют вас думать, что им трудно бежать или управлять.Однако у нас есть кнопка Heroku, которая позволяет запустить весь стек одним щелчком мыши. Довольно аккуратно, да? Это открывает дверь к использованию более сложных архитектур без лишней суеты.

Если вы технически склонны, попробуйте. Вы можете запустить кластер Kafka довольно быстро, и вы платите только за время его работы. Ознакомьтесь с нашей документацией по процессам локальной разработки и производственного развертывания в документе README нашего кода.

Мы хотели бы побудить сообщество использовать эти методы для контроля над распространением троллей и вредоносных ботов.Это захватывающее время — быть живым и наблюдать, как тролли пытаются влиять на социальные сети, пока эти сообщества разрабатывают более совершенные инструменты машинного обучения и модерации, чтобы остановить их. Надеюсь, мы сможем сохранить форумы сообщества как места для содержательного обсуждения.

Ознакомьтесь с нашей второй частью статьи «Обнаружение ботов и троллей на Reddit с использованием машинного обучения», в которой мы подробнее рассмотрим, как мы построили модель машинного обучения и ее точность.

Краткое руководство по идентификации ботов и троллей в социальных сетях Блог Sotrender

Facebook недавно заявил, что он идентифицировал и удалил более 1.3 миллиарда фейковых аккаунтов за последние 2 квартала. Twitter регулярно удаляет неактивные и поддельные учетные записи, удаляя в среднем 6% всех учетных записей за очистку.

Итак, как вы можете идентифицировать фальшивые аккаунты, ботов и троллей в социальных сетях? Когда нужно реагировать?

Поддельные профили также могут использоваться для злонамеренных действий или быть частью современной гибридной войны (мы были частью группы, занимавшейся пропагандистскими исследованиями во время российско-украинского конфликта 2014 года). Проблема фейковых аккаунтов реальна, и не только в политике.Злонамеренная конкуренция может нанимать ботов и троллей для распространения фейковых новостей о вашей компании, продукте или услуге. Согласно недавнему исследованию, они даже использовались для критики «Звездных войн: Последние джедаи» в Интернете.

Как распознать бота в Twitter или Facebook

Это несложно, если честно. Но не всегда легко узнать, действительно ли конкретная учетная запись является ботом.

Во-первых, есть несколько факторов, указывающих на поддельный аккаунт.Просто имейте в виду, что наличия одного из этих факторов недостаточно для идентификации бота. Только комбинация нескольких индикаторов дает основание пометить конкретную учетную запись как поддельную.

Первым признаком фальшивой учетной записи является изображение профиля. Не установка аватара подозрительно. Если вы подозреваете, что учетная запись является поддельной, вы всегда можете выполнить обратный поиск изображений в ее профиле. Если окажется, что одно и то же изображение профиля появляется в разных аккаунтах, шансы, что это тролль или бот, высоки.То же самое относится к экземплярам , когда вы обнаруживаете, что использованное изображение — это другое, реальное лицо или стоковая фотография .

Затем стоит взглянуть на имя пользователя. Множество цифр, некоторые тарабарщины вроде «Xsthasco» или «Stephen983539» могут указывать на то, что это поддельный аккаунт . НО помните, что некоторые люди не хотят менять дескриптор Twitter по умолчанию, и это не обязательно означает, что им платят русские тролли.

По более сильным индикаторам — поведение счета .Проверьте, как часто аккаунт публикует твиты или публикации. Они пишут твиты нерегулярно, месяцы молчания прерываются извержением твитов? Они пишут твиты с интервалами в секунду? Если да, то вы, вероятно, только что определили бота. Ура?

Все еще не уверены? Проверьте, что они публикуют. Они публикуют сообщения на разных языках? В отличие от премьер-министра Канады, который пишет на английском и французском языках — оба являются официальными языками Канады, и он пишет одно и то же сообщение на двух языках. Многие люди свободно говорят на нескольких языках. Если в аккаунте есть пакеты твитов на одном языке, затем начинается твит на другом языке, затем на другом — вероятно, это бот по найму . Одними из самых активных аккаунтов в Твиттере во время протестов против судебной реформы в Польше были боты, которые ранее писали в Твиттере на индонезийском, китайском и португальском языках. Если большинство твитов — это просто ретвиты без каких-либо комментариев или просто упоминания других аккаунтов — это еще один показатель фальши. Эта тактика используется для перехода на вкладку «Самые популярные» в Твиттере, создавая впечатление, что это то, что думает большинство или что эта проблема важна.Так случилось с «Последними джедаями» — половина негативных отзывов о фильме и его режиссере были фальшивыми.

Что делать с фейковыми аккаунтами?

Решение простое — если вы заметили тролля или бота (или почти уверены в этом), лучший и самый простой способ справиться с ними — это пометить и сообщить о . Об остальном позаботится сама социальная сеть. Также, если вы идентифицируете аккаунт как тролля или бота — просто перестаньте отвечать на его посты, комментарии и т. Д.Это пустая трата вашего времени, поэтому не бойтесь их банить. Старая интернет-поговорка — Не корми тролля — остается актуальной.

Заинтересованы в выявлении троллей среди вашей аудитории? У нас тоже есть опыт подобных исследований. Напишите нам по адресу [email protected]

Ботов контролируют шокирующее количество онлайн-разговоров

Социальные сети, такие как Facebook, Twitter и Instagram, зародились как способ связи с друзьями, семьей и интересными людьми.Но в наши дни любой, кто пользуется социальными сетями, знает, что это все более раскалывающая картина.

Несомненно, вы слышали сообщения о том, что хакеры и даже иностранные правительства используют социальные сети, чтобы манипулировать вами и атаковать вас. Вы можете задаться вопросом, как это возможно. Как профессор информатики, изучающий социальные сети и безопасность, я могу объяснить и предложить некоторые идеи, что вы можете с этим сделать.

Боты и марионетки-носки

Платформы социальных сетей не просто скармливают вам сообщения из аккаунтов, на которые вы подписаны.Они используют алгоритмы, чтобы подбирать то, что вы видите, отчасти на основе «лайков» или «голосов». Сообщение показывается некоторым пользователям, и чем больше эти люди отреагируют — положительно или отрицательно — тем больше он будет выделен для других. К сожалению, ложь и экстремальный контент часто вызывают больше откликов и поэтому быстро и широко распространяются.

Но кто делает это «голосование»? Часто это целая армия аккаунтов, называемых ботами, которые не соответствуют реальным людям. Фактически, они контролируются хакерами, часто на другом конце света.Например, исследователи сообщили, что более половины аккаунтов Twitter, в которых обсуждается COVID-19, являются ботами.

Как исследователь социальных сетей, я видел тысячи аккаунтов с одинаковыми фотографиями профиля, которые ставили лайки в унисон. Я видел, как аккаунты публикуются сотни раз в день, гораздо больше, чем это мог бы сделать человек. Я видел аккаунт, утверждающий, что он «жена всеамериканской патриотической армии» из Флориды, одержимо постил об иммигрантах на английском языке, но история аккаунта показала, что раньше он публиковал сообщения на украинском языке.

Такие фальшивые учетные записи называются «марионетками в носках» — они предполагают, что скрытая рука говорит через другую личность. Во многих случаях этот обман можно легко выявить, взглянув на историю аккаунта. Но в некоторых случаях для того, чтобы кукольные аккаунты казались реальными, нужны большие средства.

Аккаунт «Jenna Abrams», ныне не существующий, был создан хакерами в России.

Например, Дженна Абрамс, аккаунт с 70000 подписчиков, цитировалась основными СМИ, такими как The New York Times , за ее ксенофобские и крайне правые взгляды, но на самом деле это было изобретение, контролируемое Агентством интернет-исследований, российским правительством. — финансируемая ферма троллей, а не живой, дышащий человек.

Тролли часто не заботятся о проблемах так, как их волнуют разногласия и недоверие. Например, исследователи в 2018 году пришли к выводу, что некоторые из наиболее влиятельных аккаунтов по обе стороны спорных вопросов, такие как Black Lives Matter и Blue Lives Matter, контролировались фермами троллей.

Больше, чем просто разжигание разногласий, тролли хотят укрепить веру в то, что истины больше не существует. Разделяй и властвуй. Не доверяйте никому, кто может служить лидером или авторитетным голосом.Отрежьте голову. Деморализовать. Сбивать с толку. Каждый из них представляет собой разрушительную стратегию атаки.

Даже как исследователь социальных сетей, я недооцениваю степень, в которой мое мнение сформировано этими атаками. Думаю, я достаточно умен, чтобы читать то, что хочу, отбросить остальное и уйти невредимым. Тем не менее, когда я вижу пост, который набирает миллионы лайков, часть меня думает, что он должен отражать общественное мнение. Это влияет на каналы социальных сетей, которые я вижу, и, более того, на меня влияет мнение моих настоящих друзей, на которых тоже влияет.

Всем обществом тонко манипулируют, полагая, что они находятся на противоположных сторонах многих вопросов, когда существует законная точка соприкосновения.

Я сосредоточился в основном на примерах из США, но такие же типы атак используются по всему миру. Обращая голоса демократий друг против друга, авторитарные режимы могут начать казаться предпочтительнее хаоса.

Платформы медленно работают. К сожалению, дезинформация и дезинформация стимулируют использование и полезны для бизнеса.Бездействие часто оправдывается опасениями по поводу свободы слова. Включает ли свобода слова право создавать 100 000 фальшивых аккаунтов с явной целью распространения лжи, разногласий и хаоса?

Взять под контроль

Итак, что вы можете с этим поделать? Вы, вероятно, уже знаете, как проверять источники и даты того, что вы читаете и пересылаете, но здравого смысла советов по медиаграмотности недостаточно.

Во-первых, более осознанно используйте социальные сети. Выберите догонять кого-то конкретного, а не использовать только канал по умолчанию.Вы можете быть поражены, увидев, что вам не хватало. Помогите своим друзьям и семье найти ваши сообщения, используя такие функции, как закрепление ключевых сообщений в верхней части ленты.

Во-вторых, оказать давление на платформы социальных сетей, чтобы они удалили аккаунты с явными признаками автоматизации. Запросите дополнительные элементы управления, чтобы управлять тем, что вы видите, и какие сообщения расширяются. Попросите большей прозрачности в том, как продвигаются сообщения и кто размещает рекламу. Например, вы можете напрямую пожаловаться на новостную ленту Facebook или рассказать законодателям о том, что вас беспокоит.

В-третьих, помните об излюбленных проблемах троллей и относитесь к ним скептически. Они могут быть больше всего заинтересованы в создании хаоса, но они также демонстрируют четкие предпочтения по некоторым вопросам. Например, тролли хотят быстро восстановить экономику без реального управления, чтобы сгладить кривую COVID-19. Они также явно поддерживали одного из кандидатов в президенты США 2016 года по сравнению с другим. Стоит спросить себя, как эти должности могут быть хорошими для русских троллей, но плохими для вас и вашей семьи.

Возможно, самое главное, используйте социальные сети экономно, как и любое другое вызывающее привыкание, токсичное вещество, и инвестируйте в более реальные разговоры, выстраивая общение.Слушайте реальных людей, реальные истории и реальные мнения и строите оттуда.


Жанна Мэтьюз — профессор информатики в Университете Кларксона. Эта статья переиздана из The Conversation по лицензии Creative Commons. Прочтите оригинальную статью.

Как создать свою собственную армию троллей-ботов

Вы живете в зоне боевых действий. Вы не можете видеть врага, вы не знаете, когда вас атакуют, и у вас нет возможности определить, кто выиграл какое-либо сражение в любой день.Поскольку последствия любой конкретной атаки неосязаемы на личном уровне, трудно заставить людей предпринимать уклончивые действия, не говоря уже о каких-либо превентивных действиях.

В этой войне вы против ботов и троллей. И хотя вы можете этого не знать, каждый день на вас злобно атакуют. Чтобы помочь вам понять, как это сделать, я научу вас (только в информационных целях), как использовать социальные сети в качестве оружия и построить свою собственную ферму троллей. Если вы умеете читать, копировать и вставлять, то вы можете это сделать.Давайте начнем.

Боты и тролли

В прошлом бот был программой, а тролль — человеком. Сегодня, используя программное обеспечение с открытым исходным кодом и некоторые недорогие облачные сервисы, вы можете создавать комбинации ИИ-тролль / бот и выпускать их целые армии по чрезвычайно низкой цене. Это, как говорит мой хороший друг полковник Джон Фензел (в отставке), помогает закрепить «состояние длительного социального конфликта, поддерживаемого и поддерживаемого социальными сетями».

Определены боты

Бот — это программное приложение, используемое для автоматического выполнения команд, автоматического ответа на вводимые данные или их комбинации.Если вы когда-либо создавали макрос для Excel или Photoshop или писали AppleScript для автоматизации процессов на вашем компьютере, вы уже пользовались преимуществами автоматизации в стиле ботов.

Есть хорошие боты и плохие боты. Хорошего бота можно использовать для тестирования кода, который вы написали для раздела входа на вашем новом веб-сайте. Плохой бот может сделать то же самое на чужом веб-сайте, используя украденные учетные данные. К сожалению, технологии хороших и плохих практически идентичны.

Плохие боты

Давайте подумаем, как можно вооружить аккаунт в социальной сети с помощью плохого бота.Во-первых, вам необходимо создать действующую учетную запись в социальной сети. Это просто. Перейдите к своему любимому провайдеру бесплатной электронной почты и создайте новую учетную запись электронной почты, например [email protected] Используйте эту учетную запись для создания новой учетной записи Twitter, @badbot. А теперь повеселимся.

Хром без головы

Google заявляет: «Headless Chrome — это способ запустить браузер Chrome в среде без головы без полного пользовательского интерфейса браузера». Его высшая и лучшая цель — дать инженерам возможность тестировать свое программное обеспечение. Но для наших гнусных целей Headless Chrome — это браузер Chrome, который мы можем запускать автоматически (из нашего бота), который практически неотличим от браузера Chrome, который вы, вероятно, используете для чтения этого в Интернете.Почему? Потому что это «браузер Chrome». Разница в том, что вы запускаете Headless Chrome с помощью программного обеспечения, а не вручную. Безголовый Chrome доступен бесплатно от Google.

Кукловод

Хотите сделать еще один шаг? Google говорит: «Большинство вещей, которые вы можете делать вручную в браузере, можно сделать с помощью Puppeteer!» Это отличный инструмент для автоматизации. Хотите научиться автоматически очищать веб-сайт? Вот пошаговая статья о Medium.

Плохое поведение бота

Используя два бесплатных инструмента тестирования лучших практик, которые я описал выше вместе с Node.js (который позволяет использовать JavaScript для сценариев на стороне сервера) и MongoDB (база данных), давайте гипотетически просканируем политически заряженную область Reddit (мы могли бы сделать это для любого сайта в Интернете), которая поддерживает нашу гипотетическую политическую идеологию. Мы запрограммируем этого бота на поиск сообщений, содержащих слова «Томас Джефферсон», и соберем их в базе данных.

Затем мы пропустим наши данные с помощью механизма анализа настроений, такого как Amazon Comprehend. Наша цель — найти сообщения, соответствующие нашим критериям настроения (например, отрицательные, положительные или нейтральные).

После оценки и оценки данных мы можем использовать некоторые инструменты цепей Маркова с открытым исходным кодом для создания твитов из этих негативных постов. Не все они будут блестящими остротами, поддерживающими наши политические убеждения, но их будет много, и наша точка зрения будет изложена.

Наш последний шаг — создать и развернуть многофункционального бота для Twitter с помощью этого простого набора онлайн-инструкций с сайта freecodecamp.org

Пора начинать атаку

С помощью нового инструмента для сбора информации в Интернете вы можете найти самые низкие цены на ту новую пару лыж, о которой вы думали, или вы можете искать пропаганду, фейковые новости или что-то еще, что может потребовать поддержки, чтобы стать популярной социальной сетью. тема.

С новыми инструментами анализа вы можете оценивать каждый фрагмент контента (текст или изображение) и позволить ИИ или набору инструментов статистического машинного обучения обрабатывать ваши сообщения. С помощью вашего нового бота Twitter вы можете отправлять только нужное количество твитов каждый день, чтобы имитировать Твиттер и заставить его поверить в то, что ваш бот — человек. Теперь повторите это несколько сотен тысяч раз.

Можете ли вы представить, насколько сложнее это становится, когда такую ​​работу выполняют высокооплачиваемые профессионалы? Хотя командование армией ботов может стоить вам от нескольких сотен до нескольких тысяч долларов в месяц, такой тип фермы троллей, вероятно, даст исключительные политические результаты.

Есть еще

Для получения бонусных баллов вы можете использовать 100 процентов маркетинговых инструментов, доступных для гипер-целевой программной рекламы, чтобы ваши сообщения доходили до нужных людей в нужных местах в нужное время. Объедините фермы троллей, маркетологи и искусственный интеллект, и, как говорит г-н Мияги, «если все будет правильно, никто не сможет защитить».

Это гонка вооружений

Это гонка вооружений. Это никогда не закончится. На данный момент плохие парни (и неясно, кто они) побеждают, потому что хорошие парни не хотят сопротивляться.Facebook, Twitter, Google и другие технологические компании первого уровня изо всех сил пытаются определить, что реально, а что — подделка, но искусственный интеллект усложняет различие между человеком и машиной.

Что будет дальше? Пора серьезно отнестись к этому. Теперь у вас есть хорошее представление о том, что каждый может делать с готовыми технологиями. Давайте как можно быстрее проинформируем всех, чтобы мы могли обстоятельно обсудить вопросы защиты. В противном случае мы обречены вести бесконечную войну повествований и повествований.контрнарратив, пока мы не вступим в эру пост-постправды.

Если опрос не отображается, щелкните здесь.

Добавить комментарий

Ваш адрес email не будет опубликован.