ai generated robot brain technology 8780351Image by <a class="fal-attribute" href="https://pixabay.com/illustrations/ai-generated-robot-brain-technology-8780351/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=Free Media Assets">Kyraxys</a> from <a href="https://pixabay.com/illustrations/ai-generated-robot-brain-technology-8780351/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=Free Media Assets">Pixabay</a>
Las empresas, ofrecen soluciones a las nuevas amenazas deepfake de IA
Image by Kyraxys from Pixabay

biometricupdate.com

Los ataques de Deepfake han suscitado preocupación sobre el potencial de los estafadores impulsados por la IA en la biometría y otras industrias. La prevalencia y el alcance de estos ataques han llevado a la necesidad de salvaguardias tecnológicas para mantener el ritmo de las amenazas criminales en evolución.

Las firmas de identificación digital están explorando diferentes sistemas para frustrar la profundización y mantener un equilibrio entre la realidad y una distopía generativa alimentada por IA. Demostrar, una firma de identificación digital, crea una cadena de identidad a partir de puntos de datos vinculados a números de teléfono, accediendo al intercambio criptográfico entre un dispositivo y una torre celular para verificar el número.

Establece umbrales de confianza basados en varios puntos de datos y rebota el número autenticado de varias fuentes de datos bancarias para garantizar que el número de teléfono esté asociado con la identidad. Tim Brown, oficial de identidad global de Prove, cree que la cadena resultante de identidad probada es menos susceptible a ataques que los sistemas biométricos que usan coincidencia selfie-to-document.

Hace hincapié en el papel de las normas en la construcción de una base sólida de seguridad, como la FIDO y los passkeys, en la protección de las cuentas contra el phishing. Inicialmente, Brown tenía reservas sobre el sistema de Prove, pero ahora cree que es eficaz para el embarque y otros casos de uso. Pindrop, una firma con sede en Atlanta, utiliza su motor biométrico de voz para detectar profundidades, o habla generada por IA, analizando artefactos y rastros.

El software de la compañía identificó con éxito a ElevenLabs como la fuente original del audio falso del presidente estadounidense Joe Biden, que circulaba como robo call. Las fricativas deepfake, sonidos en los que el aire es constantemente expulsado a través de una vía aérea estrecha, se registran como banderas, lo que indica que las máquinas son inhumanas de una manera específica. El software de Pindrop también analiza los cambios temporales en el habla, el posicionamiento físico real de los órganos del habla, para detectar artefactos reveladores.

Al ejecutar el audio a través de su sistema, que incluye un conjunto de datos de alrededor de 20 millones de muestras, Pindrop fue capaz de igualar el «fakeprint» creado por las anomalías combinadas contra su registro de motores TTS, finalmente aterrizando en ElevenLabs. Tanto Balasubramaniyan como Tim Brown coinciden en que los defraudadores se están volviendo más sofisticados con herramientas profundas, y que los círculos de confianza deben crecer con la amenaza.
Las empresas, ofrecen soluciones a las nuevas amenazas deepfake de IA
https://www.biometricupdate.com/202402/firms-join-the-deepfake-dance-offering-responses-to-new-ai-threats
Loading spinner