Inicio / Tecno / Las plantas no tienen oídos, pero hay indicios de que oyen cuando se acerca un insecto polinizador

Las plantas no tienen oídos, pero hay indicios de que oyen cuando se acerca un insecto polinizador

Las plantas supuestamente no producen ruidos, como mucho al romperse o rozarse con otras superficies, pero no es algo voluntario y controlado. Tampoco oyen, no hay un órgano auditivo como el oído de los humanos para capturar y procesar los sonidos. Ahora bien, ¿y si una planta fuese capaz de reaccionar cuando hay un insecto como una abeja zumbando cerca de ella?

¿Hace ruido un árbol cuando cae en medio del bosque y no hay ninguna persona? Esta pregunta que tanto ha hecho pensar a algunos pierde algo de sentido si tenemos en cuenta que quizás las plantas que hay en el bosque también sean capaces de oír lo que ocurre a su alrededor. Unos investigadores de la Universidad de Tel Aviv han realizado diversos experimentos con los que muestran cómo algunas plantas, al oír el sonido de animales polinizadores, reaccionan de formas determinadas y arbitrarias.

d Un néctar más dulce atrae a más insectos que puedan polonizar la planta y en consecuencia garantizar su supervivencia como especie.

Un néctar más dulce cuando la abeja merodea

Los experimentos que se realizaron trataban de determinar si las plantas reaccionan antes el zumbido de los insectos polarizadores. Lo que se hizo fue emitir grabaciones de estos insectos cerca de algunas plantas a las que generalmente acuden este tipo de insectos. Tanto en los experimentos en laboratorios como al aire libre obtuvieron resultados curiosos:

  • Si las grabaciones correspondían con el sonido de los insectos polinizadores, las plantas endulzaban su néctar aproximadamente un 20%.
  • Si las grabaciones eran en frecuencias diferentes o se bloqueaba la llegada del sonido a la planta mediante una cúpula de cristal, no endulzaban su néctar.

s Los pétalos podrían ser los encargados de captar las vibraciones producidas por el sonido.

Esta reacción de las plantas es simplemente una reacción evolutiva. Si el néctar es más dulce, atrae a más insectos polinizadores y por lo tanto más posibilidades de reproducirse y perpetuar a la especie. Dado que se requiere recursos extra para endulzar el néctar o mantenerlo dulce todo el tiempo, las plantas sólo lo hacen cuando hay opciones de que los polinizadores acudan. En el experimento las plantas tardaban alrededor de tres minutos en conseguir tener el néctar más dulce. Demasiado tiempo para que la abeja de turno se de cuente, puede ser, pero normalmente la presencia de un polinizador significa que hay más alrededor.

En Xataka Aquella vez en que los hongos salvaron el mundo

El estudio sin embargo no se ha comprobado al 100%, pero hay indicios claros de que efectivamente las plantas también oyen. O por lo menos reaccionan ante determinados sonidos. En este caso, el que producen los zumbidos de un insecto polinizador. ¿Oirán otras plantas el sonido de un depredador?

La pregunta del millón es cómo se las ingenia una planta para oír si no tiene oídos. No está del todo claro, aunque parece ser que los pétalos de las flores detectan las vibraciones en el aire que producen el sonido. Cómo analizan estas vibraciones y qué parte de la flor es la encargada e hacerlo es el misterio a resolver.

Mensajes por aire y redes subterráneas

A pesar de que las plantas sean organismos mucho más simples que los animales, sí que tienen formas de comunicase entre sí. Sabemos por ejemplo que emiten sustancias químicas que se desplazan por el aire y son recibidas por células receptoras en otras plantas. Pero hay incluso estudios que demuestran cómo se comunican por debajo del suelo formando auténticas redes subterráneas con los hongos como mensajeros.

R Si una planta es dañada puede avisar a las de su entorno para activar sus mecanismos de defensa.

Posiblemente no hablen de si en esta época del año hace suficiente sol o no para hacer la fotosíntesis. Su comunicación está más relacionada con los peligros del entorno o con temas pura y llanamente de supervivencia. Por ejemplo si una planta es envenenada puede avisar al resto para que desarrollen métodos de protección, lo mismo ocurre si hay depredadores cerca. De hecho, hay experimentos que muestran cómo una planta "siente" cuando es mordida y actúa en consecuencia.

¿Qué razón hay entonces para que una planta no pueda percibir la presencia de un insecto? El sonido no es más que vibraciones en el aire y para la planta notar estas vibraciones es a fin de cuentas una ventaja evolutiva. Una ventaja evolutiva que quizás han desarrollado y aún no hemos descubierto.

Vía | Earth
Más información | bioRxiv
Imagen | Unsplash 1, 2 y 3

También te recomendamos

Aquella vez en que los hongos salvaron el mundo

El misterio de la flor fantasma de Beccari: acabamos de encontrar una de las plantas más buscadas (y raras) del mundo

Mucho más que píxeles: cómo el estándar 8K cambiará el panorama tecnológico


La noticia Las plantas no tienen oídos, pero hay indicios de que oyen cuando se acerca un insecto polinizador fue publicada originalmente en Xataka por Cristian Rus .

Chequea también

Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs)

La IA está cada vez más presente en nuestro día a día: a medida que aumenta su ámbito de uso, tanto nosotros como las grandes empresas o los gobiernos pasamos a depender más de esta tecnología. Y, a medida que esto ocurre, nos vemos obligados a valorar no sólo su funcionalidad, sino también su seguridad: ¿Qué probabilidad existe de que la IA falle o, peor aún, de que sea vulnerable a un ataque? La inteligencia artificial es, en el sentido amplio de la palabra, un arma; y, como todas las armas, puede ser usada para defendernos, pero también podemos ser atacados por ella. Así que reformulemos la anterior pregunta: ¿cómo de vulnerable es la inteligencia artificial a un ataque realizado recurriendo a la propia inteligencia artificial? En Xataka Usando la inteligencia artificial para el mal: así podrían aprovecharla ladrones y secuestradores Cuando la IA se engaña a sí misma Ya en 2013, algunos empleados de Google publicaron un artículo bautizado como "Las propiedades intrigantes de las redes neuronales", en el que planteaban cómo ésta tecnología podía ser manipulada mediante 'adversarial attacks' (ataques antagónicos), un término que se ha generalizado como modo de referirnos a las nuevas técnicas desarrolladas para manipular sistemas basados en machine learning a través de la introducción experimental de datos en un algoritmo. Así, si hacemos que un algoritmo de visión artificial procese una gran cantidad de imágenes, sería posible realizar lo que llamamos ingeniería inversa, para conocer al detalle su funcionamiento y garantizar que seremos capaces de manipularlo; bien haciendo que dicho algoritmo no sea capaz de ver algo... o bien convenciéndolo de que está viendo algo que no existe. Antes de seguir profundizando, remitámonos a un ejemplo real y concreto: en 2017, cuatro investigadores de la compañía LabSix pusieron a prueba el clasificador de imágenes Inception-v3, desarrollado por Google bajo código libre. Para ello, recurrieron a la impresión 3D para crear varias tortugas falsas totalmente realistas (indistinguibles de una verdadera para el ojo humano). Lo lógico hubiera sido que Inception-v3 las hubiera identificado como tortugas, pero el algoritmo de Google sólo veía... rifles. ¿Cómo era esto posible? Fácil: el equipo de investigadores había llevado a cabo lo que se conoce como 'ataque antagónico'. Mediante ingeniería inversa, habían identificado qué patrones concretos vinculaba el algoritmo a cada animal u objeto que era capaz de identificar, y una vez identificado el del rifle lo aplicaron al diseño del caparazón de las tortugas. Este patrón creado 'ex profeso' para manipular a una IA es lo que llamamos una 'muestra antagónica'. Un poco de 'ruido' correctamente aplicado y ¡voilá! Un oso panda 'se convierte' en un gibón. (Vía Arxiv.org) De esta forma, el ojo humano seguía viendo una tortuga normal y corriente, pero una IA no. No es algo tan extraño: nosotros, cuando vemos, percibimos formas, pero las máquinas sólo reconocen texturas; eso a veces ha permitido que la IA vea cosas que nosotros no podemos apreciar en modo alguno, pero también la ha convertido en vulnerable a algunos ataques. Los resultados de este experimento, llevado a cabo por Andrew Ilyas y sus compañeros de LabSix, se hicieron públicos durante la Conferencia Internacional sobre Aprendizaje Automático de 2018, recibiendo una amplia cobertura por parte de los medios de comunicación. "Incluso si no crees que ningún atacante va a manipular tu señal de 'stop'", explicaba Ilyas en referencia a los posibles efectos de los ataques antagónicos sobre el funcionamiento de los sistemas de conducción autónoma, "la mera posibilidad de que pueda ocurrir es preocupante". En Xataka Unas pegatinas en el asfalto bastan para 'hackear' el piloto automático de un Tesla… y convencerle para ir en dirección contraria Pocos llevan más tiempo que Pin-Yu Chen, investigador de IBM, trabajando en este problema: él formaba parte del equipo que, en 2017 (antes del mediático caso de las tortugas-rifle) dio la voz de alarma avisando de lo fácil que era manipular la visión artificial de un coche autónomo: él y sus compañeros demostraron cuán fácil era volver 'invisible' una señal de 'Stop' con tan sólo añadirles algunas pequeñas pegatinas blancas y negras, como las que se ven aquí: La señal de 'Stop' de arriba fue indetectable para la visión artificial de los coches autónomos usados en el experimento. La de abajo fue 'confundida' con un señalizador de límite de velocidad. (Vía: Arxiv.org) ¿Más posibles usos para esta clase de tecnología? Pues, por ejemplo, boicotear sistemas de reconocimiento facial. Pero... ¿y si en lugar de simplemente evitar ser reconocido, te hace pasar por otra persona, como Milla Jovovich? Científicos de la Universidad Carnegie Mellon lo consiguieron portando unas vistosas (ridículas) gafas que alteran la percepción de tus rasgos por parte de la IA de turno: (Vía Carnegie Mellon University) Pero aunque la manipulación de la visión artificial pueda ser el uso más obvio de esta clase de ataques, no deberíamos quedarnos ni mucho menos con la idea de que el resto de 'sentidos' de la IA son inmunes los ataques antagónicos: exactamente el mismo procedimiento usado antes permite ocultar en vídeos mensajes de audio dirigidos, por ejemplo, a asistentes digitales, pero imperceptibles para el oído humano, de tal manera que un tercero pueda dar órdenes a nuestro Amazon Echo, por ejemplo, sin nuestro conocimiento. Veamos un ejemplo: Malas noticias: la precisión y la vulnerabilidad ante los ataques antagónicos van de la mano Irónicamente, concentrarse en dotar de mayor precisión a los sistemas de reconocimiento (de imagen, de audio, de lo que sea) basados en IA es lo que está convirtiéndolos en vulnerables a los ataque antagónicos. Según Pin-Yu Chen, la precisión los convierte en "frágiles", por lo que la clave radica en buscar un equilibrio entre precisión y lo que llama 'robustez', medidas de protección contra estos ataques. La confirmación de esto llegó precisamente de la mano de Andrew Ilyas y su equipo (recordemos: los responsables del experimento de la tortuga): entrenaron una IA capaz de identificar gatos en base a características "consistentes" (reconocibles para los seres humanos) y "no consistentes" (aquellas que nuestra vista pasa por alto), y descubrieron que los clasificadores visuales eran capaces de identificar gatos recurriendo a ambos tipos de rasgos, pero que obtenían un mayor grado de precisión cuanto más tenían en cuenta las "no consistentes". También te recomendamos Destreza robótica: por qué los robots pueden hacer cálculos complejos pero no pelar un cable Google y OpenAI crean un método para que podamos saber cómo decide una red neuronal qué está viendo Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas - La noticia Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs) fue publicada originalmente en Xataka por Marcos Merino .

La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla

Hay muchas cosas que no sabemos. A veces es porque son cosas lejanas, perdidas en los confines del universo o en el fondo de las fosas más profundas; otras veces porque son detalles minúsculos que viven en mundos cuánticos donde las leyes que conocemos se deshacen en un mar de paradojas. Luego están esas preguntas que tenemos al alcance de la mano, pero que permanecen ocultas porque nos falta tecnología para estudiarlas correctamente. La pregunta de "¿Cómo se organiza un pequeño grupo de células para convertirse en un pulmón, en un cerebro o un hígado?" es una de esas preguntas. Aunque se trata de un período crítico del desarrollo, no teníamos ningún sensor lo suficientemente pequeño, flexible y preciso como para analizar esa pequeña obra de ingeniería sin causar daños en las células que lo protagonizan. Al menos, según se publica en NanoLetters, no los teníamos hasta ahora. Organoides ciborgs Un grupo de investigadores de la Universidad de Harvard (SEAS) ha desarrollado un enfoque nuevo creando organoides (órganos simplificados que se usan en la investigación biomédica como modelos de investigación) totalmente integrados con sensores nanométricos. El resultado nos da la oportunidad de examinar las primeras etapas de desarrollo de los órganos de una forma radicalmente nueva. En Xataka Estos robots están cultivando órganos microscópicos para encontrar nuevos tratamientos contra enfermedades imposibles Es algo que Jia Liu, asistente profesor de bioingeniería en John A. Paulson School of Engineering and Applied Sciences y autor principal del estudio, lleva rumiando desde la escuela secundaria cuando quedó realmente impresionado al estudiar que un puñado de estructuras en dos dimensiones eran capaces de formar complejísimas estructuras tridimensionales en muy poco tiempo. Con su equipo, Jia Liu empezó a pensar que “si pudiéran desarrollar un dispositivo nanoelectrónico que fuera tan flexible, elástico y suave que pudieran crecer junto con el tejido en desarrollo de forma natural, los sensores integrados podrían medir toda la actividad de este proceso de desarrollo". El resultado ha sido una malla de líneas rectas con una estructura similar a la que se utiliza en la electrónica portátil sobre la que el equipo colocó una hoja bidimensional de células madre. Una vez biología y electrónica se entrelazaron, solo hubo que esperar a que el proceso de desarrollo siguiera su curso para conseguir "tejidos con un dispositivo a nanoescala completamente distribuido e integrado en todo su volumen 3D". En Xataka El secreto de los colores lo guarda un ojo cultivado en una placa de petri Gracias a ello, los investigadores pudieron monitorizar y estudiar la actividad electrofisiológica de los órganos durante 90 días permitiendo entender mejor la dinámica por la cual "las células individuales comienzan a interactuar y sincronizarse durante todo el proceso de desarrollo". Esta es una investigación realmente interesante y no solo porque nos abre las puertas a entender cómo funcionan el desarrollo de órganos tan críticos como el corazón o el páncreas. También porque los organoides tienen un papel central en la búsqueda de tratamientos farmacológicos y si esta técnica se consolida podremos saber cómo actúan los medicamentos en los órganos con un nivel de precisión realmente increíble. Imagen | Robina Weermeijer También te recomendamos El teléfono plegable de Samsung llegaría en marzo de 2019, se llamaría 'Galaxy F' y no sería nada barato El smartphone plegable de Samsung aparecerá antes de lo que pensábamos: en noviembre durante la SDC 2018 El smartphone plegable de Samsung será una tablet que podremos poner en nuestro bolsillo, según el CEO de la compañía - La noticia La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla fue publicada originalmente en Xataka por Javier Jiménez .