Inicio / Tecno / Finalmente tenemos fecha para el estreno de la temporada final de ‘Juego de Tronos’: 15 de abril

Finalmente tenemos fecha para el estreno de la temporada final de ‘Juego de Tronos’: 15 de abril

Es oficial. Tras una larga espera y noticias a cuentagotas, hoy HBO finalmente confirmó la fecha de estreno de la temporada ocho de 'Juego de Tronos': 15 de abril de 2019. Fecha que marcará el inicio del fin de la épica historia de George R.R. Martin.

Pero eso no es todo, ya que HBO también una especie de avance para anunciar esta fecha, la cual nos deja algunas pistas de lo que veremos en esta temporada final de 'Juego de Tronos', pero ojo, aún no es el tráiler oficial de la temporada.

En Xataka Estreno de la temporada 8 de Juego de Tronos: todo lo que sabemos de la fecha y el rodaje

El principio del fin

Aquí hay que destacar algo, en España se estrenará el primer capítulo de la temporada ocho durante la madrugada del lunes 15 de abril, ya que el estreno en Estados Unidos y Latinoamérica será la noche del domingo 14 de abril.

El nuevo teaser que acabamos de ver, lleva por nombre 'Crypts of Winterfell' y fue dirigido por el ganador del Emmy David Nutter, e incluye la partitura original de Ramin Djawadi, también ganador de un premio Emmy. Pero como mencionaba, se trata de un nuevo avance que no contiene imágenes de la nueva temporada, sino únicamente pistas, tal y como ha ocurrido con los dos anteriores.

En Xataka Estos científicos han estudiado todas y cada una de las muertes de 'Juego de Tronos' y estas son sus conclusiones

A CONTINUACIÓN POSIBLES SPOILERS

Esta octava y última temporada de 'Juego de Tronos' contará con sólo seis episodios, donde se dice que tendrán una duración de al menos 90 minutos cada uno y que, afirman, serán toda una experiencia cinematográfica. De hecho, sus responsables adelantaron que uno de los capítulos será sólo de batallas de inicio a fin, donde veremos la secuencia de batalla más grande en la historia de la serie.

Esta temporada final también contará la participación de directores veteranos de la serie, como el caso de David Nutter, quien dirigió 'Red Wedding' y 'Rains of Castamere', así como Miguel Sapochnik, quien fue el responsable del impactante 'Hardhome', mientras que los mismos showrunners de la serie, David Benioff y Dan Weiss, se encargaron de la dirección del capítulo final.

Por otro lado, George R. R. Martin adelantó que el final no será como muchos esperan, mencionando que habrá sangre, más de la que esperábamos, y el final nos dejará una sensación "agridulce" con muchas lagrimas de por medio.

Así que todo está listo, y el próximo 14/15 de abril apunta a ser épico.

Juego De Tronos Temporada 8

También te recomendamos

HBO lanza un nuevo teaser tráiler de la última temporada de 'Juego de Tronos' que nos deja con ganas de más

Mucho más que píxeles: cómo el estándar 8K cambiará el panorama tecnológico

La temporada final de 'Juego de Tronos' se estrenará durante la primera mitad de 2019 y hay nuevos detalles de la precuela


La noticia Finalmente tenemos fecha para el estreno de la temporada final de 'Juego de Tronos': 15 de abril fue publicada originalmente en Xataka por Raúl Álvarez .

Chequea también

Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs)

La IA está cada vez más presente en nuestro día a día: a medida que aumenta su ámbito de uso, tanto nosotros como las grandes empresas o los gobiernos pasamos a depender más de esta tecnología. Y, a medida que esto ocurre, nos vemos obligados a valorar no sólo su funcionalidad, sino también su seguridad: ¿Qué probabilidad existe de que la IA falle o, peor aún, de que sea vulnerable a un ataque? La inteligencia artificial es, en el sentido amplio de la palabra, un arma; y, como todas las armas, puede ser usada para defendernos, pero también podemos ser atacados por ella. Así que reformulemos la anterior pregunta: ¿cómo de vulnerable es la inteligencia artificial a un ataque realizado recurriendo a la propia inteligencia artificial? En Xataka Usando la inteligencia artificial para el mal: así podrían aprovecharla ladrones y secuestradores Cuando la IA se engaña a sí misma Ya en 2013, algunos empleados de Google publicaron un artículo bautizado como "Las propiedades intrigantes de las redes neuronales", en el que planteaban cómo ésta tecnología podía ser manipulada mediante 'adversarial attacks' (ataques antagónicos), un término que se ha generalizado como modo de referirnos a las nuevas técnicas desarrolladas para manipular sistemas basados en machine learning a través de la introducción experimental de datos en un algoritmo. Así, si hacemos que un algoritmo de visión artificial procese una gran cantidad de imágenes, sería posible realizar lo que llamamos ingeniería inversa, para conocer al detalle su funcionamiento y garantizar que seremos capaces de manipularlo; bien haciendo que dicho algoritmo no sea capaz de ver algo... o bien convenciéndolo de que está viendo algo que no existe. Antes de seguir profundizando, remitámonos a un ejemplo real y concreto: en 2017, cuatro investigadores de la compañía LabSix pusieron a prueba el clasificador de imágenes Inception-v3, desarrollado por Google bajo código libre. Para ello, recurrieron a la impresión 3D para crear varias tortugas falsas totalmente realistas (indistinguibles de una verdadera para el ojo humano). Lo lógico hubiera sido que Inception-v3 las hubiera identificado como tortugas, pero el algoritmo de Google sólo veía... rifles. ¿Cómo era esto posible? Fácil: el equipo de investigadores había llevado a cabo lo que se conoce como 'ataque antagónico'. Mediante ingeniería inversa, habían identificado qué patrones concretos vinculaba el algoritmo a cada animal u objeto que era capaz de identificar, y una vez identificado el del rifle lo aplicaron al diseño del caparazón de las tortugas. Este patrón creado 'ex profeso' para manipular a una IA es lo que llamamos una 'muestra antagónica'. Un poco de 'ruido' correctamente aplicado y ¡voilá! Un oso panda 'se convierte' en un gibón. (Vía Arxiv.org) De esta forma, el ojo humano seguía viendo una tortuga normal y corriente, pero una IA no. No es algo tan extraño: nosotros, cuando vemos, percibimos formas, pero las máquinas sólo reconocen texturas; eso a veces ha permitido que la IA vea cosas que nosotros no podemos apreciar en modo alguno, pero también la ha convertido en vulnerable a algunos ataques. Los resultados de este experimento, llevado a cabo por Andrew Ilyas y sus compañeros de LabSix, se hicieron públicos durante la Conferencia Internacional sobre Aprendizaje Automático de 2018, recibiendo una amplia cobertura por parte de los medios de comunicación. "Incluso si no crees que ningún atacante va a manipular tu señal de 'stop'", explicaba Ilyas en referencia a los posibles efectos de los ataques antagónicos sobre el funcionamiento de los sistemas de conducción autónoma, "la mera posibilidad de que pueda ocurrir es preocupante". En Xataka Unas pegatinas en el asfalto bastan para 'hackear' el piloto automático de un Tesla… y convencerle para ir en dirección contraria Pocos llevan más tiempo que Pin-Yu Chen, investigador de IBM, trabajando en este problema: él formaba parte del equipo que, en 2017 (antes del mediático caso de las tortugas-rifle) dio la voz de alarma avisando de lo fácil que era manipular la visión artificial de un coche autónomo: él y sus compañeros demostraron cuán fácil era volver 'invisible' una señal de 'Stop' con tan sólo añadirles algunas pequeñas pegatinas blancas y negras, como las que se ven aquí: La señal de 'Stop' de arriba fue indetectable para la visión artificial de los coches autónomos usados en el experimento. La de abajo fue 'confundida' con un señalizador de límite de velocidad. (Vía: Arxiv.org) ¿Más posibles usos para esta clase de tecnología? Pues, por ejemplo, boicotear sistemas de reconocimiento facial. Pero... ¿y si en lugar de simplemente evitar ser reconocido, te hace pasar por otra persona, como Milla Jovovich? Científicos de la Universidad Carnegie Mellon lo consiguieron portando unas vistosas (ridículas) gafas que alteran la percepción de tus rasgos por parte de la IA de turno: (Vía Carnegie Mellon University) Pero aunque la manipulación de la visión artificial pueda ser el uso más obvio de esta clase de ataques, no deberíamos quedarnos ni mucho menos con la idea de que el resto de 'sentidos' de la IA son inmunes los ataques antagónicos: exactamente el mismo procedimiento usado antes permite ocultar en vídeos mensajes de audio dirigidos, por ejemplo, a asistentes digitales, pero imperceptibles para el oído humano, de tal manera que un tercero pueda dar órdenes a nuestro Amazon Echo, por ejemplo, sin nuestro conocimiento. Veamos un ejemplo: Malas noticias: la precisión y la vulnerabilidad ante los ataques antagónicos van de la mano Irónicamente, concentrarse en dotar de mayor precisión a los sistemas de reconocimiento (de imagen, de audio, de lo que sea) basados en IA es lo que está convirtiéndolos en vulnerables a los ataque antagónicos. Según Pin-Yu Chen, la precisión los convierte en "frágiles", por lo que la clave radica en buscar un equilibrio entre precisión y lo que llama 'robustez', medidas de protección contra estos ataques. La confirmación de esto llegó precisamente de la mano de Andrew Ilyas y su equipo (recordemos: los responsables del experimento de la tortuga): entrenaron una IA capaz de identificar gatos en base a características "consistentes" (reconocibles para los seres humanos) y "no consistentes" (aquellas que nuestra vista pasa por alto), y descubrieron que los clasificadores visuales eran capaces de identificar gatos recurriendo a ambos tipos de rasgos, pero que obtenían un mayor grado de precisión cuanto más tenían en cuenta las "no consistentes". También te recomendamos Destreza robótica: por qué los robots pueden hacer cálculos complejos pero no pelar un cable Google y OpenAI crean un método para que podamos saber cómo decide una red neuronal qué está viendo Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas - La noticia Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs) fue publicada originalmente en Xataka por Marcos Merino .

La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla

Hay muchas cosas que no sabemos. A veces es porque son cosas lejanas, perdidas en los confines del universo o en el fondo de las fosas más profundas; otras veces porque son detalles minúsculos que viven en mundos cuánticos donde las leyes que conocemos se deshacen en un mar de paradojas. Luego están esas preguntas que tenemos al alcance de la mano, pero que permanecen ocultas porque nos falta tecnología para estudiarlas correctamente. La pregunta de "¿Cómo se organiza un pequeño grupo de células para convertirse en un pulmón, en un cerebro o un hígado?" es una de esas preguntas. Aunque se trata de un período crítico del desarrollo, no teníamos ningún sensor lo suficientemente pequeño, flexible y preciso como para analizar esa pequeña obra de ingeniería sin causar daños en las células que lo protagonizan. Al menos, según se publica en NanoLetters, no los teníamos hasta ahora. Organoides ciborgs Un grupo de investigadores de la Universidad de Harvard (SEAS) ha desarrollado un enfoque nuevo creando organoides (órganos simplificados que se usan en la investigación biomédica como modelos de investigación) totalmente integrados con sensores nanométricos. El resultado nos da la oportunidad de examinar las primeras etapas de desarrollo de los órganos de una forma radicalmente nueva. En Xataka Estos robots están cultivando órganos microscópicos para encontrar nuevos tratamientos contra enfermedades imposibles Es algo que Jia Liu, asistente profesor de bioingeniería en John A. Paulson School of Engineering and Applied Sciences y autor principal del estudio, lleva rumiando desde la escuela secundaria cuando quedó realmente impresionado al estudiar que un puñado de estructuras en dos dimensiones eran capaces de formar complejísimas estructuras tridimensionales en muy poco tiempo. Con su equipo, Jia Liu empezó a pensar que “si pudiéran desarrollar un dispositivo nanoelectrónico que fuera tan flexible, elástico y suave que pudieran crecer junto con el tejido en desarrollo de forma natural, los sensores integrados podrían medir toda la actividad de este proceso de desarrollo". El resultado ha sido una malla de líneas rectas con una estructura similar a la que se utiliza en la electrónica portátil sobre la que el equipo colocó una hoja bidimensional de células madre. Una vez biología y electrónica se entrelazaron, solo hubo que esperar a que el proceso de desarrollo siguiera su curso para conseguir "tejidos con un dispositivo a nanoescala completamente distribuido e integrado en todo su volumen 3D". En Xataka El secreto de los colores lo guarda un ojo cultivado en una placa de petri Gracias a ello, los investigadores pudieron monitorizar y estudiar la actividad electrofisiológica de los órganos durante 90 días permitiendo entender mejor la dinámica por la cual "las células individuales comienzan a interactuar y sincronizarse durante todo el proceso de desarrollo". Esta es una investigación realmente interesante y no solo porque nos abre las puertas a entender cómo funcionan el desarrollo de órganos tan críticos como el corazón o el páncreas. También porque los organoides tienen un papel central en la búsqueda de tratamientos farmacológicos y si esta técnica se consolida podremos saber cómo actúan los medicamentos en los órganos con un nivel de precisión realmente increíble. Imagen | Robina Weermeijer También te recomendamos El teléfono plegable de Samsung llegaría en marzo de 2019, se llamaría 'Galaxy F' y no sería nada barato El smartphone plegable de Samsung aparecerá antes de lo que pensábamos: en noviembre durante la SDC 2018 El smartphone plegable de Samsung será una tablet que podremos poner en nuestro bolsillo, según el CEO de la compañía - La noticia La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla fue publicada originalmente en Xataka por Javier Jiménez .