Image from lagado.net

Los defensores de la tecnología a través de pomposos anuncios publicitarios promocionan un mundo más seguro donde la tecnología de reconocimiento facial actúa como un centinela infalible, identificando criminales en tiempo real y eliminando el error humano. ¡Un mundo ideal!

No obstante la realidad demuestra ser una distopía tecnológica donde su precisión promocionada es una farsa, ya que la tecnología de reconocimiento facial es una herramienta de vigilancia fundamentalmente defectuosa construida sobre una base de falsa certeza y están plagados de tasas de error astronómicas, lo que lleva a una cascada de falsos positivos.

Estos no son problemas técnicos menores; son gravísimos errores que arruinan la vida y que pueden llevar a personas inocentes a la cárcel, a las listas de vigilancia o en un estado permanente de sospecha digital.

Estas innovadoras tecnologías venden una peligrosa fantasía de infalibilidad mientras despliegan un sistema que es, en su esencia, una caza de brujas de alta tecnología, sacrificando la libertad individual y la justicia en el altar de la identificación automatizada, y generalmente incorrecta.

Hoy, estos sistemas no solo son herramientas fundamentalmente deficientes; se han convertido en motores de una "caza de brujas" automatizada que sacrifica las libertades individuales en el altar de la estadística.

El caso Jason Killinger: Una pesadilla de "coincidencia al 100%"

En septiembre de 2023, la vida de Jason Killinger, un camionero de larga distancia, dio un giro trágico debido a la “arrogancia ciega” de la IA. Mientras se encontraba en el Casino Peppermill de Reno, el sistema de vigilancia del establecimiento lo marcó erróneamente como Michael Ellis, un individuo con prohibición de entrada.

A pesar de que Killinger presentó su licencia de conducir, un talón de pago de UPS y el registro de su vehículo, la seguridad y el oficial de policía de Reno, Richard Jager, ignoraron la evidencia física. El sistema, afirmando una "coincidencia del 100%" —una imposibilidad técnica que los expertos han señalado repetidamente como un absurdo probabilístico—, fue suficiente para que el oficial Jager, un novato en ese momento, procediera con un arresto ilegal.

Killinger pasó 11 horas privado de su libertad, cuatro de ellas esposado, sufriendo lesiones físicas y un trauma emocional que no se borra con una disculpa tardía. Solo una prueba de huellas dactilares confirmó lo que sus documentos ya decían: el sistema se había equivocado.

"Si el software lo dice, es legítimo": El sesgo de automatización

Lo más alarmante del caso no es solo la falla técnica, sino el sesgo de automatización de los agentes. En las grabaciones corporales, el oficial Jager sentenció: "Si el software lo dice, es legítimo". Esta frase resume el peligro existencial de la IA aplicada en el ámbito policial: la delegación de la responsabilidad judicial a algoritmos.

El supervisor de Jager, el sargento Carl DeSantis, ordenó el arresto bajo la premisa peligrosa de que la detención era un paso necesario para confirmar la identidad, invirtiendo la carga de la prueba y presumiendo la culpabilidad. Más grave aún es que, hasta abril de 2026, el Departamento de Policía de Reno carecía de una política oficial que estableciera que una coincidencia de reconocimiento facial por sí sola es insuficiente para constituir causa probable. Fue la jueza de distrito Miranda Du quien, en marzo de 2026, validó que la falta de formación y políticas claras por parte de la Ciudad de Reno contribuyó directamente a este arresto ilegal.

La falacia de la "Inteligencia" Artificial

La falacia omnipresente que rodea la “inteligencia” de la inteligencia artificial es la confluencia fundamental de patrones sofisticados que coinciden con la comprensión genuina. Se vende constantemente que los grandes modelos de lenguaje producen prosa coherente o que generadores de imágenes están creando escenas foto-realistas, mientras sutilmente todo está siendo etiquetando erróneamente como “inteligencia”. En realidad, estos sistemas son meramente espejos elaborados que reflejan los patrones estadísticos de sus vastos datos de entrenamiento sin ninguna comprensión de significado, contexto o verdad.

Se etiqueta como "inteligencia" lo que, en esencia, es un sofisticado ejercicio de estadística.

Los sistemas de IA, en rigor, poseen la capacidad de imitar patrones, producir resultados probabilísticos y reflejar datos de entrenamiento, pero carecen de comprensión, juicio, contexto o empatía. No "piensan" ni "razonan"; ejecutan operaciones matemáticas frías. Cuando un sistema de reconocimiento facial arroja un "falso positivo", no está cometiendo un error técnico menor; está ignorando la verdad humana en favor de una coincidencia de píxeles.

Son loros imitadores, pero de alta tecnología que pueden imitar perfectamente la expresión humana sin captar los conceptos que existen detrás. La ilusión de inteligencia se amplifica por nuestra tendencia antropomórfica a atribuir intencionalidad y conciencia donde no existe. Estos sistemas no «piensan» o «razonan» - ejecutan operaciones matemáticas que generan salidas probabilísticas basadas en las indicaciones de entrada.

Un patrón sistémico de injusticia

La demanda federal (Caso No 3: 25-cv-00388) presentada por Killinger contra el oficial Jager y la Ciudad de Reno es apenas la punta del iceberg. Este es al menos el duodécimo caso documentado de arresto ilícito por reconocimiento facial en los Estados Unidos. La queja no solo aborda el trauma de un individuo, sino que alega una práctica sistémica donde la fabricación de pruebas y la omisión de evidencia exculpatoria se utilizan para encubrir la falibilidad de la tecnología.

El hecho de que el Casino Peppermill haya resuelto la demanda antes de juicio sugiere que las instituciones son conscientes de la fragilidad legal de estas herramientas. Sin embargo, mientras las fuerzas del orden sigan tratando a la IA como un oráculo de la verdad, miles de ciudadanos más enfrentarán el riesgo de ver sus vidas arruinadas por una "identificación" automatizada que nunca debió ser utilizada como prueba concluyente.

La demanda afirma que «miles» de arrestos ilegales pudieron haber ocurrido en circunstancias similares. Esto se hace eco de incidentes anteriores, como en Detroit, donde los cambios de política siguieron a un arresto ilícito de alto perfil debido a un error de reconocimiento facial.

Retroceso más que progreso.

La tecnología, cuando se diseña con rigor y ética, puede ser un aliado. Sin embargo, su aplicación actual parece tener un objetivo sombrío y deshumanizado. Al eliminar el juicio humano crítico y sustituirlo por el veredicto de una máquina, no se está avanzando hacia el futuro; se está retrocediendo hacia una era de sospecha digital permanente.

Es imperativo que el uso de estas herramientas sea estrictamente limitado.

No se debe permitir que estos loros algorítmicos que no conocen la diferencia entre un ciudadano trabajador y un criminal, y que parecen estar programados para ver en cada uno de nosotros un sospechoso sean establecidos y aplicados en cada aspecto de la vida diaria de las personas.

También es importante señalar un punto que es ignorado: últimamente se están viendo muchos juicios en los cuales se acusan a las plataformas de causar daños con los algoritmos, en base a esto las corporaciones luego modifican el acceso a distintos contenidos. Sería una excelente idea que los apologistas de los datos biométricos fueran juzgados masivamente por promover estas porquerías que destruyen la vida pública y privada al mismo tiempo

Loros de Alta Tecnología
Reference:

Loading spinner