El uso de IA para analizar llamadas telefónicas de las prisiones podría aumentar los prejuicios raciales en la actividad policial

El uso de IA para analizar llamadas telefónicas de las prisiones podría aumentar los prejuicios raciales en la actividad policial
3 comentarios

Un comité del Congreso de Estados Unidos está presionando al Departamento de Justicia para que explore el uso federal de la inteligencia artificial para analizar las llamadas telefónicas de los reclusos.

El panel ha pedido que se realicen más investigaciones sobre el potencial de la tecnología para prevenir el suicidio y los delitos violentos. El sistema transcribe conversaciones telefónicas, analiza el tono de voz y detecta ciertas palabras o frases preprogramadas por los funcionarios.

Sesgos algorítmicos

Bill Partridge, un jefe de policía en Alabama, donde ya se usa el sistema, dijo que los agentes resolvieron los casos de homicidio sin resolver después de que AI señaló a los prisioneros discutiendo los crímenes.

Los defensores argumentan que la tecnología puede proteger a los reclusos y ayudar a las investigaciones policiales, pero los críticos han expresado su alarma: temen que usar para interpretar conversaciones les lleve a cometer errores, malentendidos y prejuicios raciales que cambien la vida.

Un estudio de la Universidad de Stanford de 2020 encontró que los sistemas de voz a texto utilizados por Amazon, Google, Apple, IBM y Microsoft tenían tasas de error que eran casi dos veces más altas para las personas negras que para las blancas. Estas disparidades podrían reforzar las disparidades raciales en el sistema de justicia penal. La investigación muestra que los hombres negros en Estados Unidos tienen seis veces más probabilidades de ser encarcelados que los hombres blancos.

Albert Fox Cahn, director ejecutivo del Proyecto de Supervisión de Tecnología de Vigilancia, señala que la tecnología podría "automatizar la elaboración de perfiles raciales" y violar los derechos de privacidad.

Temas
Inicio