Такое явление как бомбардировка отзывами по своей сути является практикой, при которой многие люди забрасывают продукт, бизнес или услугу негативными отзывами, обычно необоснованными. И невозможно спорить с тем, что это может серьёзным образом повредить малому и не только бизнесу, который по большей части полагается именно на так называемое «сарафанное радио». И как теперь сообщает корпорация Google, каждый день в приложении Карты публикуются миллионы обзоров, некоторые из которых как раз таки можно причислить к «ревью-бомбингу».
В связи с этим компания решила изложить некоторые меры, которые она собирается использовать для того, чтобы пресечь данное явление. «Наша команда стремится к тому, чтобы созданный пользователями контент на Картах был надёжным, достоверным и основанным на реальном опыте», — говорится в официальном обращении команды Google Maps. Данная работа помогает защитить бизнес, в особенности малый, от злоупотреблений и мошенничества, а также гарантирует то, что отзывы будут полезны для пользователей. Политика технического гиганта в отношении контента была разработана прежде всего для того, чтобы «не допускать вводящие в заблуждение, ложные и оскорбительные отзывы на нашей платформе».
Также ни для кого не является секретом то, что машинное обучение играет крайне важную роль в процессе модерации, о чём решил лишний раз напомнить в своём блоге руководитель отдела пользовательского контента в Google Maps, Ян Лидер. Системы модерации, которые являются в буквальном смысле «первой линией защиты Google, потому что они хорошо выявляют шаблоны», проверяют абсолютно каждый отзыв на предмет возможных нарушений политики. Они анализируют, например, содержание отзыва, историю пользователя или бизнес-аккаунта, а также обращает внимание на то, имели ли место были в последнее время какие-либо необычные действия, связанные с конкретной компанией. Также Ян Лидер поведал нам и о том, что именно машины избавляются от «подавляющего большинства поддельного и мошеннического контента» ещё до того момента, как его увидит любой пользователь.
Данный процесс может занять всего-навсего несколько секунд, и если модели искусственного интеллекта не увидят никаких проблем с обзором, он будет доступен для чтения другим пользователям. Однако стоит признать и то, что несмотря на это используемые Google системы не являются идеальными. «Например, иногда слово «гей» используется как уничижительный термин, и это не то, что мы допускаем в обзорах Google. Но если мы научим наши модели машинного обучения тому, что подобные слова используются только для разжигания ненависти, мы можем ошибочно удалить отзывы, рекламирующие владельца бизнеса-гея или безопасное пространство ЛГБТК+», — написал Ян Лидер. Именно поэтому команда Карт довольно-таки часто проводит тесты качества и дополнительное обучение, чтобы научить системы различным способам использования некоторых слов и фраз, чтобы найти баланс между удалением нежелательного контента и сохранением полезных отзывов на Картах.