Более чем через год после провала первого аудита гражданских прав, корпорация Meta заявляет о том, что она всё ещё занимается работой над целым рядом изменений, рекомендованных внутренними аудиторами. В связи с этим компания выпустила обновлённую информацию, в которой подробно описывается прогресс, которого Meta сумела добиться в выполнении многих рекомендаций аудиторов. Также согласно данным компании, она уже выполнила 65 из 117 рекомендаций, в то время как ещё 42 помечены как «в процессе».
Но стоит также учитывать и то, что несмотря на это дополнительно присутствует ещё шесть областей, в которых компания заявляет, что она всё ещё определяет «осуществимость» внесения изменений, в то время как по отношению к двум рекомендациям компания и вовсе «отказывается» предпринимать дальнейшие действия. И, в частности, некоторые из них касаются наиболее спорных вопросов, выявленных в первоначальном аудите 2020 года. Важно отметить, что в этом самом первоначальном отчёте, опубликованном ещё в июле прошлого года, говорится о том, что компании нужно делать больше для того, чтобы перестать «подталкивать пользователей к экстремистским сообществам».
Именно тогда также было сказано и то, что компании необходимо решить проблемы, связанные с алгоритмической предвзятостью. В свою очередь Meta в рамках свежего сообщения заявляет, что корпорация ещё не внесла все изменения, которые требовали аудиторы, связанные с алгоритмической предвзятостью. Именно поэтому, как она считает, пока-что рано делать какие-либо выводы. Но если же говорить именно о том, какие именно изменения компания уже успела внести, то затронуть необходимо такие важные пункты, как привлечение внешних экспертов, а также увеличение разнообразия своей команды по работе над искусственным интеллектом. Другие же изменения, по словам Meta, «находятся на стадии оценки».
Как бы то ни было, также аудиторы призвали к запуску обязательного общекорпоративного процесса, направленного на «предотвращение, выявления и устранения потенциальных источников предвзятости и дискриминационных результатов при разработке или развертывании моделей искусственного интеллекта и машинного обучения», а также для «регулярного тестирования существующих алгоритмов и машинного обучения». Аналогичным образом, аудит также рекомендовал «обязательное обучение пониманию и устранению источников предвзятости и дискриминации в ИИ для всех команд, создающих алгоритмы и модели машинного обучения».