ЭМРА ТЕХНОЛОГИЯ

Искусственный интеллект угнетает темнокожих жителей США

     К такому выводу пришли активисты, правозащитники и неравнодушные граждане. Районы, куда PredPol направлял небольшое количество патрулей, были населены преимущественно белыми и имели средний или высокий доход. Во многих из них, ПО не предполагало угроз безопасности граждан. Кварталы, в которых назначалось усиленное патрулирование, были домом для чернокожих, латиноамериканцев и семей, получающих социальные пособия.
      Программное обеспечение часто рекомендовало ежедневное патрулирование кварталов с социальным жильем и областей около них, ориентируясь на самые бедные слои населения. Такая картина наблюдалась во всех штатах, использующих PredPol. В целом активисты обнаружили, что чем меньше белых жителей проживает в районе — и чем больше там проживает чернокожих и латиноамериканцев — тем больше вероятность того, что ПО предскажет там преступление. Такое же неравенство существовало между более богатыми и более бедными сообществами.
      Для устранения такого предвзятого отношения, было предложено подкорректировать алгоритм, который бы привел к «более равномерной» вероятности совершения преступлений. Также члены коалиции Stop LAPD Spying Coalition выразили протест на заседании полицейской комиссии, размахивая плакатами с надписями: «Полицейская деятельность на основе данных = лженаука» и «Данные о преступлениях = расизм».
      Возможно по этой причине, первоначальный партнер PredPol, полиция Лос-Анджелеса, прекратила его использование в прошлом году.
source