Inicio / Tecno / Bose lleva su tecnología de cancelación de ruido QuietComfort de los auriculares al coche

Bose lleva su tecnología de cancelación de ruido QuietComfort de los auriculares al coche

QuietComfort es uno de los sistemas de cancelación de ruido más populares, utilizado por Bose en sus auriculares, permite neutralizar el ruido externo. Aprovechando el CES 2019, la marca ha presentado QuietComfort Road Noise Control, el sistema de cancelación de ruido pasa de estar en unos auriculares a estar en coches para limitar el ruido que se pueda producir por el asfalto o los otros coches.

La cancelación de ruido que normalmente encontramos en los coches se basa en aislar la cabina del exterior mediante gruesas paredes de goma que amortigüen las vibraciones y reduzcan las ondas provenientes del exterior. Bose propone usar la tecnología de cancelación de ruido que se utiliza en los auriculares, es decir, grabar el ruido y emitir el sonido opuesto para neutralizar las ondas.

Coches equipados con acelerómetros y muchos micrófonos

Solucionarlo en el coche sería tan fácil como que los conductores y pasajeros lleven auriculares con cancelación de ruido. La propuesta de Bose sin embargo no es así, en su lugar extrapolan la tecnología de los auriculares al coche entero. QuietComfort Road Noise Control es un sistema que equipa a los coches de numerosos acelerómetros cerca de las ruedas, el motor y otros puntos clave del coche. Estos acelerómetros se encargan de registrar todas las vibraciones que produce el motor o el contacto con el asfalto para comprender cómo esas vibraciones se expresan en forma de ruido dentro de la cabina del coche.

En Xataka El mejor auricular Bluetooth con cancelación de ruido: guía de compra y comparativa

Una vez el sistema reconoce las vibraciones (cuestión de milisegundos) se encarga de emitir las ondas opuestas a través de los altavoces del coche para neutralizar el ruido que pueda llegar a producirse. Dentro de la cabina se dispone además de varios micrófonos para registrar el resultado y poder ajustar las ondas de cancelación de ruido según convenga.

El resultado, indica Bose, son áreas de silencio en los asientos donde están el piloto, el copiloto y el resto de pasajeros. Según Bose clientes podrán así disponer de una cabina más silenciosa para escuchar música con más claridad, poder hacer llamadas o simplemente conversar.

Bose QuietComfort Road Noise Los acelerómetros estarían equipados en las ruedas, las suspensiones y cerca del motor para detectar las vibraciones.

Los primeros coches con QuietComfort llegarán en 2021

QuietComfort Road Noise Control es un sistema que aún no se ha hecho realidad en ningún coche. Si bien la idea suena (o no en este caso) realmente bien, tendremos que esperar a finales de 2021 para ver el primer coche con este sistema ha indicado la compañía. No se sabe ni qué fabricante lo incorporará ni ningún otro detalle de momento.

Con coches híbridos y eléctricos parte del ruido en un coche se ha eliminado al no disponer de un motor que produzca tantas vibraciones, el sonido de fuera sin embargo de momento sigue presente y lo seguirá estando durante muchos años. Ahora bien, será interesante ver cómo actúa la regulación de cada país ante este tipo de tecnologías, es a fin de cuentas algo que te aisla del resto de coches de la carretera. En España por ejemplo la DGT no permite utilizar auriculares o cascos reproductores de ruido porque implica no recibir todas las señales de alerta que provengan del exterior. ¿Será QuietComfort Road Noise Control tan bueno como para que no escuchemos si alguien nos pita mientras conduciomos?

Más información | Bose

También te recomendamos

Bose le quita los cables a sus auriculares más populares con cancelación de ruido

Altavoces inteligentes: un mercado en plena madurez

El conector de 3,5 mm en peligro: tus próximos auriculares podrían conectarse por USB-C


La noticia Bose lleva su tecnología de cancelación de ruido QuietComfort de los auriculares al coche fue publicada originalmente en Xataka por Cristian Rus .

Chequea también

Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs)

La IA está cada vez más presente en nuestro día a día: a medida que aumenta su ámbito de uso, tanto nosotros como las grandes empresas o los gobiernos pasamos a depender más de esta tecnología. Y, a medida que esto ocurre, nos vemos obligados a valorar no sólo su funcionalidad, sino también su seguridad: ¿Qué probabilidad existe de que la IA falle o, peor aún, de que sea vulnerable a un ataque? La inteligencia artificial es, en el sentido amplio de la palabra, un arma; y, como todas las armas, puede ser usada para defendernos, pero también podemos ser atacados por ella. Así que reformulemos la anterior pregunta: ¿cómo de vulnerable es la inteligencia artificial a un ataque realizado recurriendo a la propia inteligencia artificial? En Xataka Usando la inteligencia artificial para el mal: así podrían aprovecharla ladrones y secuestradores Cuando la IA se engaña a sí misma Ya en 2013, algunos empleados de Google publicaron un artículo bautizado como "Las propiedades intrigantes de las redes neuronales", en el que planteaban cómo ésta tecnología podía ser manipulada mediante 'adversarial attacks' (ataques antagónicos), un término que se ha generalizado como modo de referirnos a las nuevas técnicas desarrolladas para manipular sistemas basados en machine learning a través de la introducción experimental de datos en un algoritmo. Así, si hacemos que un algoritmo de visión artificial procese una gran cantidad de imágenes, sería posible realizar lo que llamamos ingeniería inversa, para conocer al detalle su funcionamiento y garantizar que seremos capaces de manipularlo; bien haciendo que dicho algoritmo no sea capaz de ver algo... o bien convenciéndolo de que está viendo algo que no existe. Antes de seguir profundizando, remitámonos a un ejemplo real y concreto: en 2017, cuatro investigadores de la compañía LabSix pusieron a prueba el clasificador de imágenes Inception-v3, desarrollado por Google bajo código libre. Para ello, recurrieron a la impresión 3D para crear varias tortugas falsas totalmente realistas (indistinguibles de una verdadera para el ojo humano). Lo lógico hubiera sido que Inception-v3 las hubiera identificado como tortugas, pero el algoritmo de Google sólo veía... rifles. ¿Cómo era esto posible? Fácil: el equipo de investigadores había llevado a cabo lo que se conoce como 'ataque antagónico'. Mediante ingeniería inversa, habían identificado qué patrones concretos vinculaba el algoritmo a cada animal u objeto que era capaz de identificar, y una vez identificado el del rifle lo aplicaron al diseño del caparazón de las tortugas. Este patrón creado 'ex profeso' para manipular a una IA es lo que llamamos una 'muestra antagónica'. Un poco de 'ruido' correctamente aplicado y ¡voilá! Un oso panda 'se convierte' en un gibón. (Vía Arxiv.org) De esta forma, el ojo humano seguía viendo una tortuga normal y corriente, pero una IA no. No es algo tan extraño: nosotros, cuando vemos, percibimos formas, pero las máquinas sólo reconocen texturas; eso a veces ha permitido que la IA vea cosas que nosotros no podemos apreciar en modo alguno, pero también la ha convertido en vulnerable a algunos ataques. Los resultados de este experimento, llevado a cabo por Andrew Ilyas y sus compañeros de LabSix, se hicieron públicos durante la Conferencia Internacional sobre Aprendizaje Automático de 2018, recibiendo una amplia cobertura por parte de los medios de comunicación. "Incluso si no crees que ningún atacante va a manipular tu señal de 'stop'", explicaba Ilyas en referencia a los posibles efectos de los ataques antagónicos sobre el funcionamiento de los sistemas de conducción autónoma, "la mera posibilidad de que pueda ocurrir es preocupante". En Xataka Unas pegatinas en el asfalto bastan para 'hackear' el piloto automático de un Tesla… y convencerle para ir en dirección contraria Pocos llevan más tiempo que Pin-Yu Chen, investigador de IBM, trabajando en este problema: él formaba parte del equipo que, en 2017 (antes del mediático caso de las tortugas-rifle) dio la voz de alarma avisando de lo fácil que era manipular la visión artificial de un coche autónomo: él y sus compañeros demostraron cuán fácil era volver 'invisible' una señal de 'Stop' con tan sólo añadirles algunas pequeñas pegatinas blancas y negras, como las que se ven aquí: La señal de 'Stop' de arriba fue indetectable para la visión artificial de los coches autónomos usados en el experimento. La de abajo fue 'confundida' con un señalizador de límite de velocidad. (Vía: Arxiv.org) ¿Más posibles usos para esta clase de tecnología? Pues, por ejemplo, boicotear sistemas de reconocimiento facial. Pero... ¿y si en lugar de simplemente evitar ser reconocido, te hace pasar por otra persona, como Milla Jovovich? Científicos de la Universidad Carnegie Mellon lo consiguieron portando unas vistosas (ridículas) gafas que alteran la percepción de tus rasgos por parte de la IA de turno: (Vía Carnegie Mellon University) Pero aunque la manipulación de la visión artificial pueda ser el uso más obvio de esta clase de ataques, no deberíamos quedarnos ni mucho menos con la idea de que el resto de 'sentidos' de la IA son inmunes los ataques antagónicos: exactamente el mismo procedimiento usado antes permite ocultar en vídeos mensajes de audio dirigidos, por ejemplo, a asistentes digitales, pero imperceptibles para el oído humano, de tal manera que un tercero pueda dar órdenes a nuestro Amazon Echo, por ejemplo, sin nuestro conocimiento. Veamos un ejemplo: Malas noticias: la precisión y la vulnerabilidad ante los ataques antagónicos van de la mano Irónicamente, concentrarse en dotar de mayor precisión a los sistemas de reconocimiento (de imagen, de audio, de lo que sea) basados en IA es lo que está convirtiéndolos en vulnerables a los ataque antagónicos. Según Pin-Yu Chen, la precisión los convierte en "frágiles", por lo que la clave radica en buscar un equilibrio entre precisión y lo que llama 'robustez', medidas de protección contra estos ataques. La confirmación de esto llegó precisamente de la mano de Andrew Ilyas y su equipo (recordemos: los responsables del experimento de la tortuga): entrenaron una IA capaz de identificar gatos en base a características "consistentes" (reconocibles para los seres humanos) y "no consistentes" (aquellas que nuestra vista pasa por alto), y descubrieron que los clasificadores visuales eran capaces de identificar gatos recurriendo a ambos tipos de rasgos, pero que obtenían un mayor grado de precisión cuanto más tenían en cuenta las "no consistentes". También te recomendamos Destreza robótica: por qué los robots pueden hacer cálculos complejos pero no pelar un cable Google y OpenAI crean un método para que podamos saber cómo decide una red neuronal qué está viendo Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas - La noticia Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs) fue publicada originalmente en Xataka por Marcos Merino .

La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla

Hay muchas cosas que no sabemos. A veces es porque son cosas lejanas, perdidas en los confines del universo o en el fondo de las fosas más profundas; otras veces porque son detalles minúsculos que viven en mundos cuánticos donde las leyes que conocemos se deshacen en un mar de paradojas. Luego están esas preguntas que tenemos al alcance de la mano, pero que permanecen ocultas porque nos falta tecnología para estudiarlas correctamente. La pregunta de "¿Cómo se organiza un pequeño grupo de células para convertirse en un pulmón, en un cerebro o un hígado?" es una de esas preguntas. Aunque se trata de un período crítico del desarrollo, no teníamos ningún sensor lo suficientemente pequeño, flexible y preciso como para analizar esa pequeña obra de ingeniería sin causar daños en las células que lo protagonizan. Al menos, según se publica en NanoLetters, no los teníamos hasta ahora. Organoides ciborgs Un grupo de investigadores de la Universidad de Harvard (SEAS) ha desarrollado un enfoque nuevo creando organoides (órganos simplificados que se usan en la investigación biomédica como modelos de investigación) totalmente integrados con sensores nanométricos. El resultado nos da la oportunidad de examinar las primeras etapas de desarrollo de los órganos de una forma radicalmente nueva. En Xataka Estos robots están cultivando órganos microscópicos para encontrar nuevos tratamientos contra enfermedades imposibles Es algo que Jia Liu, asistente profesor de bioingeniería en John A. Paulson School of Engineering and Applied Sciences y autor principal del estudio, lleva rumiando desde la escuela secundaria cuando quedó realmente impresionado al estudiar que un puñado de estructuras en dos dimensiones eran capaces de formar complejísimas estructuras tridimensionales en muy poco tiempo. Con su equipo, Jia Liu empezó a pensar que “si pudiéran desarrollar un dispositivo nanoelectrónico que fuera tan flexible, elástico y suave que pudieran crecer junto con el tejido en desarrollo de forma natural, los sensores integrados podrían medir toda la actividad de este proceso de desarrollo". El resultado ha sido una malla de líneas rectas con una estructura similar a la que se utiliza en la electrónica portátil sobre la que el equipo colocó una hoja bidimensional de células madre. Una vez biología y electrónica se entrelazaron, solo hubo que esperar a que el proceso de desarrollo siguiera su curso para conseguir "tejidos con un dispositivo a nanoescala completamente distribuido e integrado en todo su volumen 3D". En Xataka El secreto de los colores lo guarda un ojo cultivado en una placa de petri Gracias a ello, los investigadores pudieron monitorizar y estudiar la actividad electrofisiológica de los órganos durante 90 días permitiendo entender mejor la dinámica por la cual "las células individuales comienzan a interactuar y sincronizarse durante todo el proceso de desarrollo". Esta es una investigación realmente interesante y no solo porque nos abre las puertas a entender cómo funcionan el desarrollo de órganos tan críticos como el corazón o el páncreas. También porque los organoides tienen un papel central en la búsqueda de tratamientos farmacológicos y si esta técnica se consolida podremos saber cómo actúan los medicamentos en los órganos con un nivel de precisión realmente increíble. Imagen | Robina Weermeijer También te recomendamos El teléfono plegable de Samsung llegaría en marzo de 2019, se llamaría 'Galaxy F' y no sería nada barato El smartphone plegable de Samsung aparecerá antes de lo que pensábamos: en noviembre durante la SDC 2018 El smartphone plegable de Samsung será una tablet que podremos poner en nuestro bolsillo, según el CEO de la compañía - La noticia La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla fue publicada originalmente en Xataka por Javier Jiménez .