Inicio / Tecno / Microsoft Surface Studio 2, toma de contacto: un maravilloso diseño donde la pantalla roba todo el protagonismo

Microsoft Surface Studio 2, toma de contacto: un maravilloso diseño donde la pantalla roba todo el protagonismo

Han tenido que pasar poco más de dos años para que nos llegara la segunda versión del que fuese el primer ordenador de escritorio de Microsoft, el Surface Studio. De este ordenador lo que llama la atencion es su diseño, una especie de iMac pero con un enfoque creativo que explota un paso más allá el diseño All-in-One al añadir un panel táctil, además de una atractiva solución que hace que el monitor se pueda colocar como si fuese una mesa de trabajo.

Aquella primera versión no llegó a España, es más, se vendió en muy pocos países fuera de los Estados Unidos. Ahora con el Surface Studio 2 la cosa será diferente, ya que el próximo 7 de febrero aterrizará en España, por lo que durante nuestra visita al CES 2019 tuvimos oportunidad de conocerlo y aprovechar una primera toma de contacto.

En Xataka Surface Go, análisis: más pequeño no siempre es mejor

Microsoft Surface Studio 2, toma de contacto en vídeo

Un atractivo e innovador All-in-One con diseño y enfoque Surface

Respecto a la primera generación, este Surface Studio 2 mejora notablemente en especificaciones, donde, por ejemplo, se opta por dejar el Hybrid Drive para añadir una unidad SSD en todas las versiones. También tendremos gráfica Nvidia, a elegir entre una GTX 1060 y 1070, así como procesadores Intel, aunque no de última generación, concretamente se trata de un Core i7 Kaby Lake de séptima generación.

De hecho, este Surface Studio 2 mantiene las dimensiones, peso y diseño de la primera generación, entonces ¿qué cambia? Además de las especificaciones, la pantalla. Se trata de un panel LCD de 28 pulgadas con resolución 4.5K (4500 x 3000 px) con relación de aspecto 3:2 y una densidad de píxeles de 192 ppp.

Según Microsoft, esta nueva pantalla es 38% más brillante, con mejor reproducción de color y con 22% más contraste, además de que mejora la compatibilidad con espacios de color DCI-P3 y sRGB. Y sí, la pantalla luce espectacular. Durante nuestras primeras pruebas pudimos comprobar que la pantalla luce mejor que nunca, con colores vivos y unos niveles de brillo que nos hacen apreciar el contenido a pesar de la iluminación del lugar.

Surface Studio 2 7

La pantalla es de cristal, y eso hace que los reflejos en ciertas situaciones sean bastante molestos, más cuando la usamos como mesa en tareas de escritura, dibujo o edición, por lo que tendremos que estar ajustando la posición del monitor. El grosor del monitor es de apenas 12,5 milímetros, y es que todos los componentes y conexiones están en la base, por lo que el monitor luce un diseño limpio y extremadamente atractivo.

Todos los acabados del Surface Studio 2 se perciben de primera calidad, además de que su diseño es muy vistoso y atractivo. Pero lo que más destaca es su solidez, ya que a pesar de podría parecer hasta cierto punto frágil, debido a la bisagra trasera para mover el monitor, este mecanismo es una pequeña maravilla que es muy sencillo de usar.

Para mover el monitor no necesitamos ejercer mucha presión, sólo un pequeño toque y se moverá, pero también es lo suficientemente solido para permanecer en su lugar ante toques accidentales. Sí, la pantalla es táctil y ese es otro de sus puntos fuertes. La bisagra trasera sólo nos permite mover el monitor hacia adelante y hacia atrás, permitiendo tener un ángulo de 90 grados o bien, una posición que adopta un ángulo al hacer presión contra nuestro escritorio y así poder trabajar como si fuese una mesa de dibujo.

Surface Studio 2 10

Para quienes aman tener la pantalla de su monitor inmaculada les tenemos malas noticias, ya que el mover el monitor de una posición a otra requerirá que toquemos la pantalla y eso significa tener que dejar nuestras huellas. Los marcos son pequeños, pero no lo suficientes para que parezca un monitor "todo pantalla". Eso sí, estamos hablando de 28 pulgadas y a pesar de ello no se siente que estemos ante un ordenador de gran tamaño.

Otro punto atractivo de la pantalla, es que a pesar de que cuenta con 10 puntos táctiles, cuenta con un sistema que detecta toques accidentales. Es decir, si estamos trabajando con el monitor en forma de mesa de trabajo, podremos escribir o dibujar con una mano o un Surface Pen, mientras la otra mano se apoya en la pantalla, y esto no representará un toque que afecte nuestro trabajo. Este sistema reacciona de igual forma si tocamos accidentalmente más allá de los marcos cuando ajustamos la posición del monitor.

Como mencionaba, el Surface Studio 2 se puede usar con el teclado y mouse de toda la vida o bien, con nuestros dedos sobre la superficie táctil, que también es compatible con Surface Pen. De hecho, el Surface Pen se puede colocar en cualquiera de los dos lados del monitor gracias a su sistema magnético y así no se nos extravíe.

Surface Studio 2 8

Por otro lado, también tenemos el Surface Dial, que esta primera toma de contacto sólo estaba habilitado para acciones relacionadas con el audio y la música, por lo que no pudimos probarlo en aplicaciones de diseño o en Microsoft Office, donde se acaban de añadir nuevas funciones. A grandes rasgos, el uso del Dial nos permite tener accesos directos en la pantalla y en la ubicación que deseemos, los cuales podremos operar con el mismo dispositivo o bien, de forma táctil.

Aquí hay que mencionar que el Surface Dial no posee ningún sistema de sujeción a la pantalla, por lo que no servirá cuando la pantalla esté en posición vertical y su uso queda limitado para cuando estamos en formato "mesa de trabajo". Por otro lado, para colocar el Dial tendremos que hacer un poco de presión en pantalla para que ésta lo detecte y así nos muestre las opciones disponibles de acuerdo al programa que estemos usando en ese momento.

Cuando tengamos oportunidad de hacer el análisis a fondo, pondremos a prueba su potencia y el resto de opciones que nos ofrece este interesante Surface Studio 2.

En Xataka Surface Book 2 15", análisis: la versión con más potencia gráfica sigue sintiéndose más cómoda como portátil que como tableta

Surface Studio 2, precio y disponibilidad en España

Otro punto que cambia, y mucho, entre la primera y esta segunda versión del Surface Studio es el precio, ya que mientras la primera versión partía de los 2.999 dólares y llegaba hasta los 4.199 dólares, dos años después, el Surface Studio 2 arranca en los 3.499 dólares para la versión de entrada, mientras que la más potente, con GTX 1070 de 8 GB, 32 GB de RAM y 2 TB SSD, tiene un precio de 4.799 dólares.

En el caso de España, el Surface Studio 2 llegará por primera vez y estará disponible a partir del 7 de febrero con los siguientes precios y configuraciones:

  • Intel Core i7-7820HQ, GeForce GTX 1060 con 6 GB, 16 GB en RAM y 1 TB SSD: 4.149 euros.
  • Intel Core i7-7820HQ, GeForce GTX 1060 con 6 GB, 32 GB en RAM y 1 TB SSD: 4.999 euros.
  • Intel Core i7-7820HQ, GeForce GTX 1070 con 8 GB, 32 GB en RAM y 2 TB SSD: 5.499 euros.

Finalmente le pusimos las manos encima al increíble Surface Studio 2, un ordenador all-in-one pensado en creadores y que cuenta con un atractivo diseño que podremos adaptar ya sea en forma de monitor o como una especie de mesa para aprovechar su pantalla táctil.

software #windows #computer #microsoft #tech #technology #gadgets #instatech #techie #device #gadget #techy #electronics #computers #screen #geek #nerd #office #surfacestudio2 #microsoftsurface #microsoftsurfacestudio2 #ces2019 #firstview #allinone #windows10 #surface #creator

    </p> </div> 

También te recomendamos

Mucho más que píxeles: cómo el estándar 8K cambiará el panorama tecnológico

BlackBerry KEY2 LE, primeras impresiones: la operación bikini y los colores sientan bien al teclado físico

Honor Play, primeras impresiones: los jugones tienen un nuevo candidato con un sonido 3D muy envolvente


La noticia Microsoft Surface Studio 2, toma de contacto: un maravilloso diseño donde la pantalla roba todo el protagonismo fue publicada originalmente en Xataka por Raúl Álvarez .

Chequea también

Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs)

La IA está cada vez más presente en nuestro día a día: a medida que aumenta su ámbito de uso, tanto nosotros como las grandes empresas o los gobiernos pasamos a depender más de esta tecnología. Y, a medida que esto ocurre, nos vemos obligados a valorar no sólo su funcionalidad, sino también su seguridad: ¿Qué probabilidad existe de que la IA falle o, peor aún, de que sea vulnerable a un ataque? La inteligencia artificial es, en el sentido amplio de la palabra, un arma; y, como todas las armas, puede ser usada para defendernos, pero también podemos ser atacados por ella. Así que reformulemos la anterior pregunta: ¿cómo de vulnerable es la inteligencia artificial a un ataque realizado recurriendo a la propia inteligencia artificial? En Xataka Usando la inteligencia artificial para el mal: así podrían aprovecharla ladrones y secuestradores Cuando la IA se engaña a sí misma Ya en 2013, algunos empleados de Google publicaron un artículo bautizado como "Las propiedades intrigantes de las redes neuronales", en el que planteaban cómo ésta tecnología podía ser manipulada mediante 'adversarial attacks' (ataques antagónicos), un término que se ha generalizado como modo de referirnos a las nuevas técnicas desarrolladas para manipular sistemas basados en machine learning a través de la introducción experimental de datos en un algoritmo. Así, si hacemos que un algoritmo de visión artificial procese una gran cantidad de imágenes, sería posible realizar lo que llamamos ingeniería inversa, para conocer al detalle su funcionamiento y garantizar que seremos capaces de manipularlo; bien haciendo que dicho algoritmo no sea capaz de ver algo... o bien convenciéndolo de que está viendo algo que no existe. Antes de seguir profundizando, remitámonos a un ejemplo real y concreto: en 2017, cuatro investigadores de la compañía LabSix pusieron a prueba el clasificador de imágenes Inception-v3, desarrollado por Google bajo código libre. Para ello, recurrieron a la impresión 3D para crear varias tortugas falsas totalmente realistas (indistinguibles de una verdadera para el ojo humano). Lo lógico hubiera sido que Inception-v3 las hubiera identificado como tortugas, pero el algoritmo de Google sólo veía... rifles. ¿Cómo era esto posible? Fácil: el equipo de investigadores había llevado a cabo lo que se conoce como 'ataque antagónico'. Mediante ingeniería inversa, habían identificado qué patrones concretos vinculaba el algoritmo a cada animal u objeto que era capaz de identificar, y una vez identificado el del rifle lo aplicaron al diseño del caparazón de las tortugas. Este patrón creado 'ex profeso' para manipular a una IA es lo que llamamos una 'muestra antagónica'. Un poco de 'ruido' correctamente aplicado y ¡voilá! Un oso panda 'se convierte' en un gibón. (Vía Arxiv.org) De esta forma, el ojo humano seguía viendo una tortuga normal y corriente, pero una IA no. No es algo tan extraño: nosotros, cuando vemos, percibimos formas, pero las máquinas sólo reconocen texturas; eso a veces ha permitido que la IA vea cosas que nosotros no podemos apreciar en modo alguno, pero también la ha convertido en vulnerable a algunos ataques. Los resultados de este experimento, llevado a cabo por Andrew Ilyas y sus compañeros de LabSix, se hicieron públicos durante la Conferencia Internacional sobre Aprendizaje Automático de 2018, recibiendo una amplia cobertura por parte de los medios de comunicación. "Incluso si no crees que ningún atacante va a manipular tu señal de 'stop'", explicaba Ilyas en referencia a los posibles efectos de los ataques antagónicos sobre el funcionamiento de los sistemas de conducción autónoma, "la mera posibilidad de que pueda ocurrir es preocupante". En Xataka Unas pegatinas en el asfalto bastan para 'hackear' el piloto automático de un Tesla… y convencerle para ir en dirección contraria Pocos llevan más tiempo que Pin-Yu Chen, investigador de IBM, trabajando en este problema: él formaba parte del equipo que, en 2017 (antes del mediático caso de las tortugas-rifle) dio la voz de alarma avisando de lo fácil que era manipular la visión artificial de un coche autónomo: él y sus compañeros demostraron cuán fácil era volver 'invisible' una señal de 'Stop' con tan sólo añadirles algunas pequeñas pegatinas blancas y negras, como las que se ven aquí: La señal de 'Stop' de arriba fue indetectable para la visión artificial de los coches autónomos usados en el experimento. La de abajo fue 'confundida' con un señalizador de límite de velocidad. (Vía: Arxiv.org) ¿Más posibles usos para esta clase de tecnología? Pues, por ejemplo, boicotear sistemas de reconocimiento facial. Pero... ¿y si en lugar de simplemente evitar ser reconocido, te hace pasar por otra persona, como Milla Jovovich? Científicos de la Universidad Carnegie Mellon lo consiguieron portando unas vistosas (ridículas) gafas que alteran la percepción de tus rasgos por parte de la IA de turno: (Vía Carnegie Mellon University) Pero aunque la manipulación de la visión artificial pueda ser el uso más obvio de esta clase de ataques, no deberíamos quedarnos ni mucho menos con la idea de que el resto de 'sentidos' de la IA son inmunes los ataques antagónicos: exactamente el mismo procedimiento usado antes permite ocultar en vídeos mensajes de audio dirigidos, por ejemplo, a asistentes digitales, pero imperceptibles para el oído humano, de tal manera que un tercero pueda dar órdenes a nuestro Amazon Echo, por ejemplo, sin nuestro conocimiento. Veamos un ejemplo: Malas noticias: la precisión y la vulnerabilidad ante los ataques antagónicos van de la mano Irónicamente, concentrarse en dotar de mayor precisión a los sistemas de reconocimiento (de imagen, de audio, de lo que sea) basados en IA es lo que está convirtiéndolos en vulnerables a los ataque antagónicos. Según Pin-Yu Chen, la precisión los convierte en "frágiles", por lo que la clave radica en buscar un equilibrio entre precisión y lo que llama 'robustez', medidas de protección contra estos ataques. La confirmación de esto llegó precisamente de la mano de Andrew Ilyas y su equipo (recordemos: los responsables del experimento de la tortuga): entrenaron una IA capaz de identificar gatos en base a características "consistentes" (reconocibles para los seres humanos) y "no consistentes" (aquellas que nuestra vista pasa por alto), y descubrieron que los clasificadores visuales eran capaces de identificar gatos recurriendo a ambos tipos de rasgos, pero que obtenían un mayor grado de precisión cuanto más tenían en cuenta las "no consistentes". También te recomendamos Destreza robótica: por qué los robots pueden hacer cálculos complejos pero no pelar un cable Google y OpenAI crean un método para que podamos saber cómo decide una red neuronal qué está viendo Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas - La noticia Conceptos de inteligencia artificial: qué es la inteligencia artificial antagónica (y cómo puede manipular a otras IAs) fue publicada originalmente en Xataka por Marcos Merino .

La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla

Hay muchas cosas que no sabemos. A veces es porque son cosas lejanas, perdidas en los confines del universo o en el fondo de las fosas más profundas; otras veces porque son detalles minúsculos que viven en mundos cuánticos donde las leyes que conocemos se deshacen en un mar de paradojas. Luego están esas preguntas que tenemos al alcance de la mano, pero que permanecen ocultas porque nos falta tecnología para estudiarlas correctamente. La pregunta de "¿Cómo se organiza un pequeño grupo de células para convertirse en un pulmón, en un cerebro o un hígado?" es una de esas preguntas. Aunque se trata de un período crítico del desarrollo, no teníamos ningún sensor lo suficientemente pequeño, flexible y preciso como para analizar esa pequeña obra de ingeniería sin causar daños en las células que lo protagonizan. Al menos, según se publica en NanoLetters, no los teníamos hasta ahora. Organoides ciborgs Un grupo de investigadores de la Universidad de Harvard (SEAS) ha desarrollado un enfoque nuevo creando organoides (órganos simplificados que se usan en la investigación biomédica como modelos de investigación) totalmente integrados con sensores nanométricos. El resultado nos da la oportunidad de examinar las primeras etapas de desarrollo de los órganos de una forma radicalmente nueva. En Xataka Estos robots están cultivando órganos microscópicos para encontrar nuevos tratamientos contra enfermedades imposibles Es algo que Jia Liu, asistente profesor de bioingeniería en John A. Paulson School of Engineering and Applied Sciences y autor principal del estudio, lleva rumiando desde la escuela secundaria cuando quedó realmente impresionado al estudiar que un puñado de estructuras en dos dimensiones eran capaces de formar complejísimas estructuras tridimensionales en muy poco tiempo. Con su equipo, Jia Liu empezó a pensar que “si pudiéran desarrollar un dispositivo nanoelectrónico que fuera tan flexible, elástico y suave que pudieran crecer junto con el tejido en desarrollo de forma natural, los sensores integrados podrían medir toda la actividad de este proceso de desarrollo". El resultado ha sido una malla de líneas rectas con una estructura similar a la que se utiliza en la electrónica portátil sobre la que el equipo colocó una hoja bidimensional de células madre. Una vez biología y electrónica se entrelazaron, solo hubo que esperar a que el proceso de desarrollo siguiera su curso para conseguir "tejidos con un dispositivo a nanoescala completamente distribuido e integrado en todo su volumen 3D". En Xataka El secreto de los colores lo guarda un ojo cultivado en una placa de petri Gracias a ello, los investigadores pudieron monitorizar y estudiar la actividad electrofisiológica de los órganos durante 90 días permitiendo entender mejor la dinámica por la cual "las células individuales comienzan a interactuar y sincronizarse durante todo el proceso de desarrollo". Esta es una investigación realmente interesante y no solo porque nos abre las puertas a entender cómo funcionan el desarrollo de órganos tan críticos como el corazón o el páncreas. También porque los organoides tienen un papel central en la búsqueda de tratamientos farmacológicos y si esta técnica se consolida podremos saber cómo actúan los medicamentos en los órganos con un nivel de precisión realmente increíble. Imagen | Robina Weermeijer También te recomendamos El teléfono plegable de Samsung llegaría en marzo de 2019, se llamaría 'Galaxy F' y no sería nada barato El smartphone plegable de Samsung aparecerá antes de lo que pensábamos: en noviembre durante la SDC 2018 El smartphone plegable de Samsung será una tablet que podremos poner en nuestro bolsillo, según el CEO de la compañía - La noticia La gran obra de ingeniería humana no son puentes, presas o túneles: está dentro de nuestro cuerpo y por fin empezamos a entenderla fue publicada originalmente en Xataka por Javier Jiménez .