Inicio / Tecno / Microsoft da la cara ante su colaboración con Inmigración de EEUU: “no están usando nuestra tecnología de reconocimiento facial”

Microsoft da la cara ante su colaboración con Inmigración de EEUU: “no están usando nuestra tecnología de reconocimiento facial”

Vaya que si Microsoft se lo han tomado con calma. Ya que hoy, después de casi un mes de que se supo que estaban colaborando con el Servicio de Inmigración y Control de Aduanas de los EEUU (ICE), la compañía está publicando un largo comunicado donde aclara varios puntos de esta colaboración y de manera rotunda afirman que entre los servicios que brindan a ICE no se está utilizando el reconocimiento facial.

Para quienes no lo recuerden, el pasado 19 de junio un grupo de empleados de Microsoft se manifestó en contra de la compañía por supuestamente ser participes de la separación forzosa de familias de migrantes ilegales detenidas por la guardia fronteriza entre México y Estados Unidos. Lo que llevó a la detención y retención de más de 2.000 niños apartados de su padres deportados.

Tratando de calmar las aguas

Todo esto se basaba en un comunicado de enero de 2018 donde Microsoft daba a entender que la agencia sí estaba usando su tecnología de reconocimiento facial, así como sus servicios en la nube proporcionados por Azure, e incluso mencionaban que estaban "orgullosos" de colaborar con ICE.

Ante esto, la noche de ese 19 de junio, Microsoft lanzó un escueto comunicado que en lugar de ayudar envió un mensaje confuso, ya que ahora aseguraban que no están colaborando con ICE en la separación de niños y sus familias. Pero no mencionaban detalles de los acuerdos que tenían con la agencia. De hecho, mencionaban que no tenían conocimiento de que los servicios de Azure estuvieran siendo usados para este fin.

Microsoft

La polémica escaló de forma inmediata e hizo que la comunidad de GitHub, recién adquirida por Microsoft, amenazara con llevarse sus proyectos a otro lado si la compañía no cancelaba su contrato con ICE.

Hoy, casi un mes después, Brad Smith, presidente de Microsoft, publicó una extensa carta donde confirma que en los detalles del contrato con ICE no se incluye el uso de tecnológica de reconocimiento facial. Asimismo, se dedica a explicar de forma detallada cómo funciona este sistema en Microsoft.

Sin embargo, Smith no explica por qué el comunicado de enero hizo esas afirmaciones, ni por qué el 19 de junio dijeron que no estaban colaborando con ICE, o por qué no había información con los detalles de colaboración con la agencia. De hecho, no cierra la posibilidad de que más adelante el reconocimiento facial pueda ser usado por ICE.

Parece un pretexto para pedir una regulación

Pero esto no es todo, ya que la carta de Smith también aprovecha para exigir al gobierno de Estados Unidos una regulación que respalde el trabajo de las compañías tecnológicas dentro del reconocimiento facial. Es decir, por un lado rechaza estar colaborando con el servicio de inmigración de Estados Unidos, pero sí pide que este tipo de tecnología tenga una regulación en aquel país.

Crowd

Eso sí, no se atreve a tomar una posición clara de lo que se debe y no se debe autorizar al usar esta tecnología, sólo se va por lo que todos, o la gran mayoría, rechazan, que es su uso donde exista el riesgo de atentar contra los Derechos Humanos. Y también plantea algunas cuestiones acerca de cómo se debería usar y sus posibles beneficios.

Por último, Smith dice que la industria tecnológica debe asumir la responsabilidad de cómo se usa el reconocimiento facial, y pide que las compañías se unan para apoyar esta regulación.

Ahora sólo falta esperar las reacciones de los empleados y la comunidad de desarrolladores, quienes siguen adelante con su campaña en contra de Microsoft.

En Xataka | Los sistemas automatizados de reconocimiento facial están lejos de ser perfectos: en Londres la tasa de error es del 98%

También te recomendamos

Ahora es la comunidad de GitHub quien amenaza a Microsoft: "o cancelan su contrato con Inmigración de EEUU o nos vamos"

¿En qué consiste el factor de sostenibilidad? Así se calcularán las pensiones a partir de 2019

Tras la polémica, los empleados de Microsoft exigen que su compañía deje de colaborar con el Servicio de Inmigración de EEUU


La noticia Microsoft da la cara ante su colaboración con Inmigración de EEUU: "no están usando nuestra tecnología de reconocimiento facial" fue publicada originalmente en Xataka por Raúl Álvarez .

Chequea también

El robo de 26 millones de SMS demuestra por qué aplicaciones específicas de autenticación en dos pasos son más seguras

Un investigador de seguridad llamado Sébastien Kaul descubrió recientemente una base de datos totalmente desprotegida en los servidores de Vovox. Dicho servidor ni siquiera estaba protegido con contraseña, y eso daba acceso potencial a cerca de 26 millones de mensajes SMS entre los cuales estaban códigos de autenticación en dos pasos. La vulnerabilidad demuestra que los tradicionales mensajes cortos son una mala opción a la hora de proteger nuestros servicios con la siempre recomendable capa 2FA (Two-Factor Authentication), y hay propuestas mucho más recomendables como las aplicaciones específicas para este ámbito. Bien por la autenticación en dos pasos, mal por usar los SMS en esta tecnología La base de datos no solo era fácilmente accesible -el investigador la descubrió a través del popular buscador Shodan- sino que el formato utilizado, Kibana, presenta los datos (nombres, fechas, números de móvil y contenidos del mensaje) de una forma que hacía aún más fácil su consulta por parte de posibles atacantes. En el informe del investigador se detectó como muchos códigos de autenticaicón de distintos servicios se enviaban en texto plano de forma que podían ser interceptados y plantear una seria amenaza para lograr tomar el control de las cuentas de usuario en todos esos ervicios. Como indican los expertos eso códigos de autenticación tienen un periodo de validez reducido lo que hace que l acceso a la base de datos no tuviera mucho valor si se hizo recientemente. El problema es que alguien tuviera acceso a dicha base de datos en el pasado y de forma continuada, lo que podría dar lugar a esas intercepciones de cuentas habitualmente con contenidos sensibles. En Xataka Cómo activar la verificación en dos pasos en Google, Facebook, Twitter, Instagram, Microsoft y WhatsApp Utilizar sistemas de autenticación en dos pasos sigue siendo una idea fantástica para añadir una capa más de seguridad a nuestros servicios y son muchos los que permiten hacerlo, pero hace tiempo que se desaconseja el uso del SMS. Incluso el NIST (National Institute of Standards and Technology) declaró oficialmente ya hace dos años que los mensajes cortos ya no eran adecuados para este tipo de escenarios. Aplicaciones móviles como Google Authenticator, Microsoft Authenticator o la popular Authy son alternativas más seguras, como revelaba el propio informe de este organismo. Vía | TechCrunch También te recomendamos ¿CÓMO SERÁ EL VEHÍCULO ELÉCTRICO DEL MAÑANA? La verificación en dos pasos de WhatsApp ya está disponible para todos: así se activa Proteger tus cuentas con autenticación en dos pasos es una gran idea: hacerlo con SMS no tanto - La noticia El robo de 26 millones de SMS demuestra por qué aplicaciones específicas de autenticación en dos pasos son más seguras fue publicada originalmente en Xataka por Javier Pastor .

La BBC experimenta con ‘deep fakes’ para doblar a un presentador en varios idiomas

La BBC publicó esta semana un vídeo en el que su presentador de noticias Matthew Amroliwala aparecía en pantalla hablando en perfecto español, chino mandarín e hundi. Lo curioso del caso es que Amroliwala tan sólo habla inglés, de modo que, ¿qué era lo que estábamos viendo exactamente? Pues nada menos que un deep fake, la polémica tecnología que empezó a cosechar fama cuando salieron los primeros vídeos pornográficos aparentemente protagonizados por famosas -cuyos rasgos se superponían a los de las actrices originales gracias al uso de inteligencia artificial- y que ahora preocupa sobre todo por su capacidad de erosionar la democracia minando la confianza en los medios de comunicación. Pero esos mismos medios están descubriendo también usos más benignos y favorables de esta tecnología: la posibilidad de realizar un doblaje optimizado, en el que ni el ojo más experto pueda detectar ningún error en la sincronización entre sonido y labios... porque los labios se adaptarán para ajustarse a la pronunciación. Esto permitirá que cualquier rostro famoso (desde un actor de Hollywood a cualquier presentador de televisión) puede "hablar" en varios idiomas de forma totalmente transparente para los espectadores. En Xataka La inteligencia artificial de este espectacular vídeo hace que bailemos mejor que Bruno Mars Cuando el objetivo era acabar con barreras idiomáticas y terminamos me pudiendo confiar en lo que ven nuestros ojos La BBC recurrió para este experimento a la tecnología de la compañía británica Synthesia, gracias a la cual tan sólo necesitaron grabar un vídeo que registrase todos los movimientos faciales del presentador a doblar, otro leyendo el texto a traducir, y otro más, protagonizado por un doblador, por cada lenguaje al que se quisiera traducir el texto en cuestión. Una vez recopilado este material, los técnicos de Synthesia entrenaron una red generativa hasta que la enseñaron a producir imágenes fotorrealistas de la cara de Amroliwala, que permitirían dar forma a los 'deep fakes' de doblaje. "Finalmente, para dar vida a la cara digital, tanto la expresión facial como la pista de audio de nuestros colegas del World Service se transfieren a la nueva cara digital, un proceso denominado digital puppeteering", según explica Ahmed Razek, ingeniero de la BBC. Según la web de Synthesia, su propósito a la hora de desarrollar esta tecnología de doblaje es el de crear un mundo "sin barreras idiomáticas", en el que cualquier persona pueda disfrutar de cualquier contenido de vídeo con independencia de su idioma. Pero Razek llama la atención no ya sobre las posibles falsificaciones más o menos solventes que algún individuo pueda publicar por Internet, sino sobre el poder que esto otorga a los medios de comunicación: Piensa en esto: ahora tenemos una copia digital y flexible de la cara de Matthew. Podríamos grabar un nuevo video (tal vez en nuestra cocina) e insertar esas palabras en cualquier otra grabación de Matthew, en el estudio o en exteriores Las implicaciones [para la BBC] son serias. También te recomendamos Con los deepfakes tendremos un problema con la verdad: ni los vídeos servirán como pruebas ¿CÓMO SERÁ EL VEHÍCULO ELÉCTRICO DEL MAÑANA? Este presentador del telediario en China está generado por inteligencia artificial, y no lo hace nada mal - La noticia La BBC experimenta con 'deep fakes' para doblar a un presentador en varios idiomas fue publicada originalmente en Xataka por Marcos Merino .