scitechdaily.com
Investigadores de la Universidad de Tokio han desarrollado una métrica visual octogonal para medir la confianza pública en la inteligencia artificial (IA). El objetivo del estudio era comprender cómo las diferentes situaciones demográficas y éticas afectan a estas actitudes.
El equipo utilizó ocho temas comunes a muchas aplicaciones de IA que plantearon cuestiones éticas: privacidad, responsabilidad, seguridad, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y promoción de los valores humanos.
Los investigadores utilizaron encuestas para evaluar las actitudes de los encuestados hacia la IA en cuatro escenarios: arte generado por IA, IA de servicio al cliente, armas autónomas y predicción del crimen.
Los investigadores también preguntaron a los encuestados sobre su edad, género, ocupación, nivel de educación y nivel de interés en la ciencia y la tecnología. Los hallazgos podrían ser útiles para que los investigadores de IA entiendan cómo su trabajo puede ser percibido por el público.
Una encuesta revela que las mujeres, las personas mayores y las personas con más conocimientos sobre temas perciben los riesgos de la IA de manera más negativa. La idea de las armas de IA se encontró con más escepticismo que otros escenarios.
El equipo espera que los resultados puedan conducir a la creación de una escala universal para medir y comparar los problemas éticos en torno a la IA. La encuesta se limitó al Japón, pero se ha reunido en otros países.