
- Los oficiales de policía compararon la coincidencia generada por la IA con las fotos de las redes sociales y la licencia de conducir de Lipps, luego emitieron una orden basada únicamente en estos datos biométricos sin verificar.
- Lipps fue arrestada a punta de pistola en su casa, recluida en una cárcel de Tennessee durante cuatro meses como fugitiva, y posteriormente extraditada a Dakota del Norte, donde estuvo encarcelada hasta Nochebuena de 2025.
- Su inocencia fue probada cuando su abogado presentó registros bancarios que mostraban que estaba en Tennessee haciendo compras en el momento de los presuntos crímenes en Fargo.
- Los cargos fueron desestimados sin prejuicios, pero Lipps sufrió importantes pérdidas personales, incluyendo su casa, auto y perro, y actualmente está considerando una demanda contra la ciudad y las agencias involucradas.
Ángela Lipps, de 50 años de Elizabethton, Tennessee EEUU, fue arrestada y detenida durante 108 días y tuvo que lidiar seis meses con el sistema de justicia penal debido a que una IA de reconocimiento facial la identificó erroneamente y fue acusada como sospechosa en un caso de fraude bancario en Dakota del Norte.
Independientemente de no haber visitado nunca Dakota del Norte, Ángela fue arrestada a punta de pistola el 14 de julio de 2025 en su casa. La detención se basó en una coincidencia generada por la tecnología de reconocimiento facial utilizada por la policía de Fargo.
De las observaciones de imágenes de vigilancia, surgieron las investigaciones de una mujer usando una identificación militar falsa del ejército estadounidense que retiraba decenas de miles de dólares de bancos en el área de Fargo en abril y mayo de 2025.
Los detectives de Fargo observaron la grabación mediante software de reconocimiento facial, que devolvió una coincidencia a Lipps. Más tarde fueron revisadas las redes sociales y la foto de la licencia de conducir de Lipps, donde notaron similitudes en los rasgos faciales, el tipo de cuerpo y el peinado.
Ángela fue declarada como fugitiva de la justicia. Estuvo detenida en una cárcel del condado de Tennessee sin fianza, no le fue otorgada audiencia en la corte, ni entrevista, ni oportunidad de presentar una coartada durante todo ese período. Su primera comparecencia ocurrió el 31 de octubre, y ésa fue la primera vez que la policía de Fargo habló con ella.
Jay Greenwood, abogado de Ángela, obtuvo registros bancarios que demostraron que su representada estaba en Tennessee - a más de 1.900 kilómetros de distancia - en el momento de los presuntos crímenes presentando una coartada clara. Los cargos fueron desestimados en diciembre de 2025 cuando fue liberada. A raíz de su encarcelamiento perdió su casa y sus posesiones. Nadie se ha disculpado por el error.
Este suceso provocó indignación pública y puso nuevamente en tela de juicio el uso generalizado de la tecnología de reconocimiento facial.
La historia se presenta como un incidente aislado - No lo es.
El sufrimiento que Ángela Lipps tuvo que padecer es, en su superficie, una crónica fáctica de un error; una anomalía trágica que inadvertidamente normaliza una tecnología que está sistemáticamente sesgada e inherentemente propensa al error.
Como consecuencia, este episodio debería encender todas las alarmas ya que es mucho más que sólo un error; por el contrario es un crudo ejemplo que deja claro que esta tecnología se ha transformado en una moderna espada de Damocles - destellando encima de la cabeza de cada ciudadano y lista para caerse en el error de cálculo más leve de un algoritmo.
Los estudios estadísticos revelan que muchos sistemas comerciales de reconocimiento facial identifican mal a las personas. El problema es que no se trata de casos aislados sino que es una falla estructural horadada en los conjuntos de datos, arquitecturas de modelos y prácticas de implementación de empresas. No exponer esta problemática significa rebajar la magnitud del peligro.
Es sumamente importante advertir la amenaza existencial que representa la tecnología de reconocimiento biométrico para la libertad y la privacidad, especialmente en un sistema de justicia que pretende definirse como justo.
El reconocimiento facial ya no es un instrumento para investigaciones de alto perfil; ahora está integrado en la seguridad del aeropuerto, en el tránsito público, en los sistemas de entrada a las escuelas e incluso en el desbloqueo de teléfonos inteligentes. Cada despliegue amplía la superficie de ataque para falsos positivos, manipulación maliciosa y vigilancia por parte de un estado sancionador.
A pesar de esta realidad, los burocratas, impulsados en gran parte por el lobby de grandes corporaciones informaticas, continuan legislando para introducir en todos los ámbitos estas herramientas intrusivas, tortuosas y esclavizantes, bajo la excusa miserable de la modernización y la seguridad de éstas «maravillosas tecnologias».
Considere el siguiente escenario:
Una ciudad implementa una red de reconocimiento facial en tiempo real en toda su zona céntrica para «mejorar la seguridad pública». Dentro de unas semanas, docenas de peatones inocentes reciben alarmas, sus movimientos son registrados, sus rostros están en referencia cruzada con bases de datos que incluyen archivos de detención, estatus migratorio y hasta perfiles de redes sociales privadas.
El algoritmo entrenado en conjuntos de datos sesgados desproporcionadamente marca a la gente, criminalizándo efectivamente a toda una demografía sin un sólo humano mirando el material. ¿Cómo se sentiría viviendo en esa ciudad?
El caso Lipps es un microcosmos de ese futuro - un futuro donde una sola identificación errónea puede encadenar a una persona a una celda de la cárcel y a una vida destrozada.
En el otro extremo, los creadores y proveedores de estos algoritmos para la aplicación de estas tecnologías sacan ganancia de un mercado que vende «alta precisión» en reconocimiento facial. «Advierten» explícitamente a los usuarios que una coincidencia es «indicativa y no definitiva» pero al mismo tiempo incorporan exenciones de responsabilidades éticas y corporativas que no se cuestionan.
Los damnificados pueden entablar demandas civiles, pero los recursos son insuficientes para hacer frente a los daños estructurales causados por las tecnologías biométricas. Las demandas son reactivas, costosas y a menudo resultan en acuerdos modestos que hacen poco para disuadir el uso indebido futuro.
Ha llegado el momento del preocuparse
El caso de Ángela Lipps no es un cuento de advertencia que pertenezca a un futuro lejano. Ya no podemos aferrarnos a esa ilusión.
La tecnología de reconocimiento biométrico puede prometer comodidad, eficiencia y «seguridad mejorada», pero esas promesas se basan en una base de incertidumbre estadística y negligencia ética. Cada falsa coincidencia es una espada preparada para atacar - no sólo al individuo erróneamente acusado, sino a la confianza colectiva en nuestro sistema de justicia.
La alarma ha sonado; la única respuesta responsable es una exigencia colectiva y decisiva de moderación, transparencia y resposabilidades.
La metáfora de la IA como una nueva «espada de Damocles», se concreta terriblemente cuando consideramos que los falsos positivos no son meros inconvenientes; tienen el poder de despojar la libertad, arruinar las reputaciones y alterar permanentemente las trayectorias de vida.
La espada no es una amenaza abstracta; ya ha rebanado las vidas de Ángela Lipps, Robert Williams (erróneamente identificado como sospechoso de un robo en Detroit en 2023), y docenas de otros cuyos nombres apenas llegan a ser noticias.
La espada de Damocles ya está por encima de nosotros. Cada caso añade peso haciéndola más pesada, más aguda y más probable que caiga. No esperemos a que caiga antes de exigir que sea derribada.
