Crímenes de Bots
Un departamento de policía en el Reino Unido está probando un sistema alimentado por IA que podría ayudar a resolver casos sin resolver condensando décadas de trabajo detectivesco en simples horas, informa Sky News.
Pero aún no se sabe la tasa de precisión de esta plataforma desarrollada en Australia, llamada Soze, lo cual es una preocupación importante ya que los modelos de IA tienden a arrojar resultados salvajemente incorrectos o alucinar información inventada.
El Departamento de Policía de Avon y Somerset, que cubre partes del suroeste de Inglaterra, está poniendo a prueba el programa haciendo que Soze escanee y analice correos electrónicos, cuentas de redes sociales, videos, estados financieros y otros documentos.
Sky informa que la IA pudo escanear evidencia de 27 casos “complejos” en unas 30 horas, lo que equivale a 81 años de trabajo humano, lo cual es impresionante. No es de extrañar que este departamento de policía esté interesado en utilizar este programa, porque esos números suenan como un multiplicador de fuerza en esteroides, lo cual lo hace especialmente atractivo para las fuerzas del orden que pueden estar bajo presión en términos de personal y limitaciones presupuestarias.
“Puede que tengas una revisión de un caso sin resolver que parezca imposible debido a la cantidad de material allí y alimentarlo a un sistema como este que simplemente puede digerirlo, y luego darte una evaluación”, dijo Gavin Stephens, presidente del Consejo Nacional de Jefes de Policía del Reino Unido, a Sky. “Puedo ver que eso sería realmente, realmente útil.”
Informe de Minorías
Otro proyecto de IA al que se refirió Stephens es la creación de una base de datos de cuchillos y espadas, que muchos sospechosos han utilizado para atacar y herir o matar a víctimas en el Reino Unido.
Stephens parece optimista sobre la pronta implementación de estas herramientas de IA, pero tendría sentido validar que funcionan correctamente primero. La IA, quizás especialmente en la aplicación de la ley, es conocida por ser propensa a errores y puede llevar a falsos positivos.
Un modelo que se utilizó para predecir las posibilidades de que un sospechoso cometa otro crimen en el futuro fue inexacto y también sesgado contra las personas de raza negra, lo cual suena como algo sacado directamente de la novela de Philip K. Dick “Informe de Minorías”, posteriormente adaptada en la película de 2002 de Steven Spielberg. El reconocimiento facial de IA también puede llevar a arrestos incorrectos, con minorías siendo constantemente acusadas de crímenes que no cometieron.
Estas inexactitudes son tan preocupantes que la Comisión de Derechos Civiles de los Estados Unidos recientemente criticó el uso de IA en la aplicación de la ley.
Existe la percepción de que como son máquinas las que hacen el análisis, serán infalibles y precisas. Pero están construidas sobre datos recopilados por humanos, que pueden ser sesgados y estar completamente equivocados, por lo que los problemas familiares están presentes desde el principio.
Más sobre IA y trabajo policial: La Policía Asegura que las IA Alucinantes Están Listas para Escribir Informes Policíacos que Podrían Enviar a Personas a la Cárcel