OKLAHOMA CITY (AP) — Una cámara corporal capturó cada palabra y ladrido pronunciados mientras el sargento de policía Matt Gilmore y su perro K-9, Gunner, buscaban a un grupo de sospechosos durante casi una hora.
Normalmente, el sargento de policía de Oklahoma City tomaría su computadora portátil y dedicaría otros 30 a 45 minutos a redactar un informe sobre la búsqueda, pero esta vez le pidió a una inteligencia artificial que escribiera el primer borrador.
Al extraer todos los sonidos y las conversaciones de radio captadas por el micrófono conectado a la cámara corporal de Gilbert, la herramienta de inteligencia artificial generó un informe en ocho segundos.
“Fue un informe mejor del que yo jamás podría haber escrito, y fue 100% preciso. Fluyó mejor”, dijo Gilbert. Incluso documentó un hecho que no recordaba haber escuchado: la mención de otro oficial sobre el color del auto del que huyeron los sospechosos.
El departamento de policía de la ciudad de Oklahoma es uno de los pocos que ha experimentado con chatbots de inteligencia artificial para producir los primeros borradores de los informes de incidentes. Los agentes de policía que lo han probado están entusiasmados con la tecnología que ahorra tiempo, mientras que algunos fiscales, organismos de control policial y académicos legales tienen inquietudes sobre cómo podría alterar un documento fundamental en el sistema de justicia penal que influye en quién es procesado o encarcelado.
Construido con la misma tecnología que ChatGPT y vendido por Axon, mejor conocido por desarrollar el Taser y por ser el principal proveedor estadounidense de cámaras corporales, podría convertirse en lo que Gilbert describe como otro “cambio de juego” para el trabajo policial.
“Se convierten en agentes de policía porque quieren hacer trabajo policial, y pasar la mitad del día ingresando datos es simplemente una parte tediosa del trabajo que odian”, dijo el fundador y director ejecutivo de Axon, Rick Smith, describiendo el nuevo producto de inteligencia artificial, llamado Draft One, como el que ha tenido la “reacción más positiva” de todos los productos que la empresa ha presentado.
“Ahora bien, ciertamente hay preocupaciones”, añadió Smith. En particular, dijo que los fiscales de distrito que procesan un caso penal quieren estar seguros de que los agentes de policía, no solo un chatbot de IA, sean responsables de redactar sus informes porque es posible que tengan que testificar en el tribunal sobre lo que presenciaron.
"Nunca quieren que un oficial suba al estrado y diga: 'Bueno, la IA escribió eso, no yo'", dijo Smith.
La tecnología de inteligencia artificial no es nueva para las agencias policiales, que han adoptado herramientas algorítmicas para leer matrículas, reconocer rostros de sospechosos , detectar sonidos de disparos y predecir dónde podrían ocurrir delitos. Muchas de esas aplicaciones han venido acompañadas de preocupaciones sobre privacidad y derechos civiles e intentos de los legisladores de establecer salvaguardas. Pero la introducción de informes policiales generados por inteligencia artificial es tan nueva que hay pocas barreras, si es que hay alguna, que guíen su uso.
Las preocupaciones sobre los sesgos y prejuicios raciales de la sociedad que se incorporan a la tecnología de inteligencia artificial son solo una parte de lo que el activista comunitario de Oklahoma City, Aurelius Francisco, encuentra "profundamente preocupante" sobre la nueva herramienta, de la que se enteró a través de The Associated Press.
“El hecho de que la tecnología esté siendo utilizada por la misma empresa que proporciona pistolas Taser al departamento es bastante alarmante”, dijo Francisco, cofundador de la Fundación para la Liberación de Mentes en Oklahoma City.
Dijo que automatizar esos informes “facilitará la capacidad de la policía para acosar, vigilar y ejercer violencia sobre los miembros de la comunidad. Si bien facilita el trabajo de la policía, dificulta la vida de las personas negras y morenas”.
Antes de probar la herramienta en Oklahoma City, los funcionarios de policía se la mostraron a los fiscales locales, quienes les aconsejaron tener cuidado antes de usarla en casos penales de alto riesgo. Por ahora, solo se utiliza para denuncias de incidentes menores que no conducen a la detención de alguien.
“Así que no hay arrestos, ni delitos graves, ni crímenes violentos”, dijo el capitán de policía de Oklahoma City, Jason Bussert, quien maneja la tecnología de la información para el departamento de 1.170 oficiales.
Ese no es el caso en otra ciudad, Lafayette, Indiana, donde el jefe de policía Scott Galloway dijo a la AP que todos sus oficiales pueden usar Draft One en cualquier tipo de caso y ha sido "increíblemente popular" desde que comenzó el piloto a principios de este año.
O en Fort Collins, Colorado, donde el sargento de policía Robert Younger dijo que los oficiales tienen libertad de usarlo en cualquier tipo de informe, aunque descubrieron que no funciona bien en las patrullas del distrito de bares del centro de la ciudad debido a una "cantidad abrumadora de ruido".
Además de usar IA para analizar y resumir la grabación de audio, Axon experimentó con visión artificial para resumir lo que se "ve" en el video, antes de darse cuenta rápidamente de que la tecnología no estaba lista.
“Teniendo en cuenta todas las sensibilidades en torno a la actuación policial, la raza y otras identidades de las personas involucradas, esa es un área en la que creo que vamos a tener que hacer un trabajo real antes de introducirlo”, dijo Smith, el director ejecutivo de Axon, describiendo algunas de las respuestas probadas como no “abiertamente racistas”, pero insensibles en otros sentidos.
Estos experimentos llevaron a Axon a centrarse exclusivamente en el audio en el producto presentado en abril durante su conferencia anual para funcionarios policiales.
La tecnología se basa en el mismo modelo de inteligencia artificial generativa que impulsa ChatGPT, desarrollado por OpenAI, con sede en San Francisco. OpenAI es un socio comercial cercano de Microsoft, que es el proveedor de computación en la nube de Axon.
“Utilizamos la misma tecnología subyacente que ChatGPT, pero tenemos acceso a más botones y diales de los que tendría un usuario real de ChatGPT”, dijo Noah Spitzer-Williams, quien administra los productos de inteligencia artificial de Axon. Bajar el “dial de creatividad” ayuda al modelo a ceñirse a los hechos para que “no adorne ni alucine de la misma manera que lo haría si estuviera usando ChatGPT por sí solo”, dijo.
Axon no ha revelado cuántos departamentos de policía están utilizando esta tecnología. No es el único proveedor, ya que empresas emergentes como Policereports.ai y Truleo están promocionando productos similares. Pero dada la estrecha relación de Axon con los departamentos de policía que compran sus pistolas Taser y cámaras corporales, los expertos y los funcionarios policiales esperan que los informes generados por IA se vuelvan más comunes en los próximos meses y años.
Antes de que eso suceda, al jurista Andrew Ferguson le gustaría que hubiera más debate público sobre los beneficios y los posibles perjuicios. Por un lado, los grandes modelos de lenguaje detrás de los chatbots de IA son propensos a inventar información falsa, un problema conocido como alucinación que podría añadir falsedades convincentes y difíciles de detectar a un informe policial.
"Me preocupa que la automatización y la facilidad de la tecnología hagan que los agentes de policía sean menos cuidadosos con lo que escriben", dijo Ferguson, profesor de derecho en la American University que trabaja en lo que se espera sea el primer artículo de revisión jurídica sobre la tecnología emergente.
Ferguson dijo que un informe policial es importante para determinar si la sospecha de un agente “justifica la pérdida de la libertad de alguien”. A veces es el único testimonio que ve un juez, especialmente en el caso de delitos menores.
Los informes policiales generados por humanos también tienen fallas, dijo Ferguson, pero es una pregunta abierta cuál es más confiable.
Para algunos oficiales que lo han probado, ya está cambiando la forma en que responden a un delito denunciado. Están narrando lo que está sucediendo para que la cámara capture mejor lo que quisieran poner por escrito.
Bussert espera que, a medida que la tecnología avance, los oficiales se vuelvan “cada vez más verbales” al describir lo que tienen frente a ellos.
Después de que Bussert cargó el video de una parada de tráfico en el sistema y presionó un botón, el programa produjo un informe de estilo narrativo en lenguaje conversacional que incluía fechas y horas, tal como un oficial habría escrito a partir de sus notas, todo basado en el audio de la cámara corporal.
“Fueron literalmente segundos”, dijo Gilmore, “y fue tan intenso que pensé: 'No tengo nada que cambiar'”.
Al final del informe, el oficial debe hacer clic en una casilla que indica que se generó con el uso de IA.
O'Brien informó desde Providence, Rhode Island
Associated Press y OpenAI tienen un acuerdo de licencia y tecnología que permite a OpenAI acceder a parte de los archivos de texto de AP.
Sean Murphy
Murphy es el reportero del capitolio estatal para The Associated Press en Oklahoma City. Ha cubierto noticias y política de Oklahoma desde 1996.
Matt O'Brien
O'Brien cubre el negocio de la tecnología y la inteligencia artificial para The Associated Press. Tiene su base en Rhode Island y se centra en cómo se crea la tecnología de inteligencia artificial y en las personas a las que afecta.
(Foto AP/Nick Oxford)