pink purple spring vr metaverse 7499159Image by <a class="fal-attribute" href="https://pixabay.com/photos/pink-purple-spring-vr-metaverse-7499159/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=Free Media Assets">BrianPenny</a> from <a href="https://pixabay.com/photos/pink-purple-spring-vr-metaverse-7499159/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=Free Media Assets">Pixabay</a>
Meta no dijo cómo aplica sus restricciones, así que hicimos 1 prueba para averiguarlo
Image by BrianPenny from Pixabay

buzzfeednews.com

El CEO de Facebook, Mark Zuckerberg, anunció el cambio de nombre de la compañía a Meta, prometiendo proteger los mundos virtuales de las malignidades que han azotado a Facebook. Meta ha guardado secretos sobre cómo planea aplicar sus protocolos de seguridad en realidad virtual (VR), negándose a responder preguntas detalladas sobre ellos.

Esto es importante porque Meta ha luchado durante mucho tiempo con moderar el contenido en Facebook e Instagram, invirtiendo miles de millones en herramientas de aprendizaje automático para moderar el contenido a escala. Meta ha eliminado y eliminado repetidamente ciertas frases de Facebook e Instagram, incluyendo «vacunas causan autismo», «COVID es un engaño», y el eslogan de QAnon.

Sin embargo, sólo unos pocos reporteros de BuzzFeed News tuvieron acceso a un mundo virtual experimental llamado el Qniverse, creado usando una cuenta en el nombre real de un reportero de BuzzFeed News y vinculado a su cuenta de Facebook.

El propósito de la prueba fue evaluar si los sistemas de moderación de contenido que operan en Facebook e Instagram también operan en Horizon.
Los algoritmos de Meta promueven mundos públicos en los usuarios de Horizon y Oculus, pero no está claro cómo pueden impulsar mundos de la misma manera que Facebook y los algoritmos de Instagram.

El cambio de Meta a la realidad virtual (VR) es una respuesta a la disminución de usuarios activos diarios de Facebook, que ha suscitado preocupación sobre la capacidad de la compañía para moderar efectivamente en VR. Los expertos argumentan que la tecnología de RV no puede transcribir y evaluar el habla de los usuarios de forma fiable en tiempo real, ni puede reconocer gestos de manera fiable.

Esto plantea preguntas de privacidad y la complejidad de la perspectiva, ya que los usuarios pueden compartir información errónea dañina en un Qniverse alternativo. Meta se ha negado a responder a las preguntas sobre el control de temas de contenido de RV, detectar elogios y apoyo de organizaciones terroristas, y evitar que los usuarios consuman contenido supremacista blanco o porno.

La compañía también se negó a confirmar si los archivos subidos a Horizon son revisados para detectar explotación infantil y material terrorista contra bancos de imágenes con hachís. Los riesgos que plantea la moderación de la VR de Meta dependerán del número de personas que utilicen los productos VR de la compañía.

Meta no dijo cómo aplica sus restricciones, así que hicimos una prueba para averiguarlo

https://www.buzzfeednews.com/article/emilybakerwhite/meta-facebook-horizon-vr-content-rules-test
Loading spinner