Inicio / Tecno / CES 2019 certifica que el sector se ha vuelto loco por la inteligencia artificial

CES 2019 certifica que el sector se ha vuelto loco por la inteligencia artificial

Los expertos pronosticaron que la inteligencia artificial tendría un papel relevante en la edición de este año del CES, mucho mayor que en años precedentes. Y no se equivocaron.

Ciertamente, era difícil mantener la IA fuera del mayor evento de electrónica de consumo del mundo cuando algunas de las mayores compañías del sector (Apple, Microsoft, Amazon, Google, Intel) están invirtiendo millones en esta tecnología.

La IA estuvo presente en el CES desde el mismo discurso de apertura, protagonizado por Ginny Rometty, la CEO de IBM. Durante el mismo, entre otros muchos temas, Rometty hizo referencia al concepto de 'IA amplia'.

En Xataka Una revolución llamada inteligencia artificial: destripamos el misterio en los ocho episodios de nuestro podcast, Captcha

Este concepto viene ser el paso intermedio entre la actual IA débil y la IA general, que "une el aprendizaje y el razonamiento" de tal modo que permite "aprender más a partir de menos ejemplos". El líder de IBM también sostuvo la necesidad de defender la transparencia y confiabilidad de la IA, evitando así las 'cajas negras'.

I. P. Park, presidente de LG Electronics, también protagonizó más tarde una conferencia; y, en ella, acompañado de su robot CLOi GuideBot, habló sobre LG ThinQ y explicó que aunque en los últimos 100 años los electrodomésticos han reducido en un 75% el tiempo que dedicamos a las tareas domésticas, la cantidad de trabajo cognitivo involucrado ha aumentado significativamente:

"La respuesta está en la IA, pero sólo si podemos lograr [desarrollar] una verdadera inteligencia. […] Nuestra ambición es ir más allá de nuestro papel actual como fabricante líder de productos electrónicos de consumo y convertirnos en un agente de innovación del estilo de vida, en favor de una forma de vida verdaderamente inteligente".

Ginni Rometty Ginni Rometty, CEO de IBM y ponente inaugural del CES.

Novedades de las grandes marcas en la edición 2019 del CES

Esta parecer ser la intención de todas las grandes marcas asistentes al CES:

  • Intel anunció que estaba colaborando con Facebook para desarrollar un chip de IA (el Nervana Neural Network Processor o NNP-I) que sería lanzado al mercado en algún momento de este año y presentaría menores requisitos de hardware y energía que la competencia. El chip sería una solución basadas en CPUs con la que poder plantar cara al predominio de Nvidia.

  • Por su parte Nvidia aprovechó para anunciar la siguiente fase de otra colaboración, la que mantiene desde hace tiempo con el fabricante Mercedes-Benz, destinada en este caso a desarrollar una arquitectura de IA para sus vehículos autónomos y ofrecer tanto conducción autónoma como funciones de "cabina inteligente". El objetivo es ofrecer tecnologías más eficientes e integradas para controlar funciones como el cierre de puertas, el frenado, la dirección asistida, etc.

  • Qualcomm también ha presentado novedades en el campo de los vehículos: una plataforma llamada 'Snapdragon Automotive Cockpit Platform' con la que pretende dotar a los coches de funciones como el procesado de voz o la clasificación de objetos.

  • Pero las tecnológicas no quieren que el coche sea el único lugar en el que pasemos parte de nuestro día a día rodeados de inteligencia artificial. Kohler nos ofrece un 'inodoro inteligente', con luz, altavoces e integración con Alexa, llamado Numi 2.0 Intelligent Toilet.

  • Por su parte, Samsung ha aprovechado el CES para presentar sus nuevas plataformas robóticas, que incorporan varios de los avances en IA de la compañía. Su producto más destacable en este campo fue el Samsung Bot Care, del que realizó su primera demostración pública y que se ha desarrollado con el objetivo de ayudar a los usuarios a mejorar su calidad de vida.

Imagen | Web oficial del CES & Asa Mathat

También te recomendamos

Google se ha propuesto enseñar a una IA a usar webs de reservas de vuelos

La unión de fitomejoramiento e inteligencia artificial ayuda a desarrollar alternativas a los cultivos transgénicos

Mucho más que píxeles: cómo el estándar 8K cambiará el panorama tecnológico


La noticia CES 2019 certifica que el sector se ha vuelto loco por la inteligencia artificial fue publicada originalmente en Xataka por Marcos Merino .

Chequea también

Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs)

La IA está cada vez más presente en nuestro día a día: a medida que aumenta su ámbito de uso, tanto nosotros como las grandes empresas o los gobiernos pasamos a depender más de esta tecnología. Y, a medida que esto ocurre, nos vemos obligados a valorar no sólo su funcionalidad, sino también su seguridad: ¿Qué probabilidad existe de que la IA falle o, peor aún, de que sea vulnerable a un ataque? La inteligencia artificial es, en el sentido amplio de la palabra, un arma; y, como todas las armas, puede ser usada para defendernos, pero también podemos ser atacados por ella. Así que reformulemos la anterior pregunta: ¿cómo de vulnerable es la inteligencia artificial a un ataque realizado recurriendo a la propia inteligencia artificial? En Xataka Usando la inteligencia artificial para el mal: así podrían aprovecharla ladrones y secuestradores Cuando la IA se engaña a sí misma Ya en 2013, algunos empleados de Google publicaron un artículo bautizado como "Las propiedades intrigantes de las redes neuronales", en el que planteaban cómo ésta tecnología podía ser manipulada mediante 'adversarial attacks' (ataques antagónicos), un término que se ha generalizado como modo de referirnos a las nuevas técnicas desarrolladas para manipular sistemas basados en machine learning a través de la introducción experimental de datos en un algoritmo. Así, si hacemos que un algoritmo de visión artificial procese una gran cantidad de imágenes, sería posible realizar lo que llamamos ingeniería inversa, para conocer al detalle su funcionamiento y garantizar que seremos capaces de manipularlo; bien haciendo que dicho algoritmo no sea capaz de ver algo... o bien convenciéndolo de que está viendo algo que no existe. Antes de seguir profundizando, remitámonos a un ejemplo real y concreto: en 2017, cuatro investigadores de la compañía LabSix pusieron a prueba el clasificador de imágenes Inception-v3, desarrollado por Google bajo código libre. Para ello, recurrieron a la impresión 3D para crear varias tortugas falsas totalmente realistas (indistinguibles de una verdadera para el ojo humano). Lo lógico hubiera sido que Inception-v3 las hubiera identificado como tortugas, pero el algoritmo de Google sólo veía... rifles. ¿Cómo era esto posible? Fácil: el equipo de investigadores había llevado a cabo lo que se conoce como 'ataque antagónico'. Mediante ingeniería inversa, habían identificado qué patrones concretos vinculaba el algoritmo a cada animal u objeto que era capaz de identificar, y una vez identificado el del rifle lo aplicaron al diseño del caparazón de las tortugas. Este patrón creado 'ex profeso' para manipular a una IA es lo que llamamos una 'muestra antagónica'. Un poco de 'ruido' correctamente aplicado y ¡voilá! Un oso panda 'se convierte' en un gibón. (Vía Arxiv.org) De esta forma, el ojo humano seguía viendo una tortuga normal y corriente, pero una IA no. No es algo tan extraño: nosotros, cuando vemos, percibimos formas, pero las máquinas sólo reconocen texturas; eso a veces ha permitido que la IA vea cosas que nosotros no podemos apreciar en modo alguno, pero también la ha convertido en vulnerable a algunos ataques. Los resultados de este experimento, llevado a cabo por Andrew Ilyas y sus compañeros de LabSix, se hicieron públicos durante la Conferencia Internacional sobre Aprendizaje Automático de 2018, recibiendo una amplia cobertura por parte de los medios de comunicación. "Incluso si no crees que ningún atacante va a manipular tu señal de 'stop'", explicaba Ilyas en referencia a los posibles efectos de los ataques antagónicos sobre el funcionamiento de los sistemas de conducción autónoma, "la mera posibilidad de que pueda ocurrir es preocupante". En Xataka Unas pegatinas en el asfalto bastan para 'hackear' el piloto automático de un Tesla… y convencerle para ir en dirección contraria Pocos llevan más tiempo que Pin-Yu Chen, investigador de IBM, trabajando en este problema: él formaba parte del equipo que, en 2017 (antes del mediático caso de las tortugas-rifle) dio la voz de alarma avisando de lo fácil que era manipular la visión artificial de un coche autónomo: él y sus compañeros demostraron cuán fácil era volver 'invisible' una señal de 'Stop' con tan sólo añadirles algunas pequeñas pegatinas blancas y negras, como las que se ven aquí: La señal de 'Stop' de arriba fue indetectable para la visión artificial de los coches autónomos usados en el experimento. La de abajo fue 'confundida' con un señalizador de límite de velocidad. (Vía: Arxiv.org) ¿Más posibles usos para esta clase de tecnología? Pues, por ejemplo, boicotear sistemas de reconocimiento facial. Pero... ¿y si en lugar de simplemente evitar ser reconocido, te hace pasar por otra persona, como Milla Jovovich? Científicos de la Universidad Carnegie Mellon lo consiguieron portando unas vistosas (ridículas) gafas que alteran la percepción de tus rasgos por parte de la IA de turno: (Vía Carnegie Mellon University) Pero aunque la manipulación de la visión artificial pueda ser el uso más obvio de esta clase de ataques, no deberíamos quedarnos ni mucho menos con la idea de que el resto de 'sentidos' de la IA son inmunes los ataques antagónicos: exactamente el mismo procedimiento usado antes permite ocultar en vídeos mensajes de audio dirigidos, por ejemplo, a asistentes digitales, pero imperceptibles para el oído humano, de tal manera que un tercero pueda dar órdenes a nuestro Amazon Echo, por ejemplo, sin nuestro conocimiento. Veamos un ejemplo: Malas noticias: la precisión y la vulnerabilidad ante los ataques antagónicos van de la mano Irónicamente, concentrarse en dotar de mayor precisión a los sistemas de reconocimiento (de imagen, de audio, de lo que sea) basados en IA es lo que está convirtiéndolos en vulnerables a los ataque antagónicos. Según Pin-Yu Chen, la precisión los convierte en "frágiles", por lo que la clave radica en buscar un equilibrio entre precisión y lo que llama 'robustez', medidas de protección contra estos ataques. La confirmación de esto llegó precisamente de la mano de Andrew Ilyas y su equipo (recordemos: los responsables del experimento de la tortuga): entrenaron una IA capaz de identificar gatos en base a características "consistentes" (reconocibles para los seres humanos) y "no consistentes" (aquellas que nuestra vista pasa por alto), y descubrieron que los clasificadores visuales eran capaces de identificar gatos recurriendo a ambos tipos de rasgos, pero que obtenían un mayor grado de precisión cuanto más tenían en cuenta las "no consistentes". También te recomendamos Destreza robótica: por qué los robots pueden hacer cálculos complejos pero no pelar un cable Google y OpenAI crean un método para que podamos saber cómo decide una red neuronal qué está viendo Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas - La noticia Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs) fue publicada originalmente en Xataka por Marcos Merino .

La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla

Hay muchas cosas que no sabemos. A veces es porque son cosas lejanas, perdidas en los confines del universo o en el fondo de las fosas más profundas; otras veces porque son detalles minúsculos que viven en mundos cuánticos donde las leyes que conocemos se deshacen en un mar de paradojas. Luego están esas preguntas que tenemos al alcance de la mano, pero que permanecen ocultas porque nos falta tecnología para estudiarlas correctamente. La pregunta de "¿Cómo se organiza un pequeño grupo de células para convertirse en un pulmón, en un cerebro o un hígado?" es una de esas preguntas. Aunque se trata de un período crítico del desarrollo, no teníamos ningún sensor lo suficientemente pequeño, flexible y preciso como para analizar esa pequeña obra de ingeniería sin causar daños en las células que lo protagonizan. Al menos, según se publica en NanoLetters, no los teníamos hasta ahora. Organoides ciborgs Un grupo de investigadores de la Universidad de Harvard (SEAS) ha desarrollado un enfoque nuevo creando organoides (órganos simplificados que se usan en la investigación biomédica como modelos de investigación) totalmente integrados con sensores nanométricos. El resultado nos da la oportunidad de examinar las primeras etapas de desarrollo de los órganos de una forma radicalmente nueva. En Xataka Estos robots están cultivando órganos microscópicos para encontrar nuevos tratamientos contra enfermedades imposibles Es algo que Jia Liu, asistente profesor de bioingeniería en John A. Paulson School of Engineering and Applied Sciences y autor principal del estudio, lleva rumiando desde la escuela secundaria cuando quedó realmente impresionado al estudiar que un puñado de estructuras en dos dimensiones eran capaces de formar complejísimas estructuras tridimensionales en muy poco tiempo. Con su equipo, Jia Liu empezó a pensar que “si pudiéran desarrollar un dispositivo nanoelectrónico que fuera tan flexible, elástico y suave que pudieran crecer junto con el tejido en desarrollo de forma natural, los sensores integrados podrían medir toda la actividad de este proceso de desarrollo". El resultado ha sido una malla de líneas rectas con una estructura similar a la que se utiliza en la electrónica portátil sobre la que el equipo colocó una hoja bidimensional de células madre. Una vez biología y electrónica se entrelazaron, solo hubo que esperar a que el proceso de desarrollo siguiera su curso para conseguir "tejidos con un dispositivo a nanoescala completamente distribuido e integrado en todo su volumen 3D". En Xataka El secreto de los colores lo guarda un ojo cultivado en una placa de petri Gracias a ello, los investigadores pudieron monitorizar y estudiar la actividad electrofisiológica de los órganos durante 90 días permitiendo entender mejor la dinámica por la cual "las células individuales comienzan a interactuar y sincronizarse durante todo el proceso de desarrollo". Esta es una investigación realmente interesante y no solo porque nos abre las puertas a entender cómo funcionan el desarrollo de órganos tan críticos como el corazón o el páncreas. También porque los organoides tienen un papel central en la búsqueda de tratamientos farmacológicos y si esta técnica se consolida podremos saber cómo actúan los medicamentos en los órganos con un nivel de precisión realmente increíble. Imagen | Robina Weermeijer También te recomendamos El teléfono plegable de Samsung llegaría en marzo de 2019, se llamaría 'Galaxy F' y no sería nada barato El smartphone plegable de Samsung aparecerá antes de lo que pensábamos: en noviembre durante la SDC 2018 El smartphone plegable de Samsung será una tablet que podremos poner en nuestro bolsillo, según el CEO de la compañía - La noticia La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla fue publicada originalmente en Xataka por Javier Jiménez .