lunes, 29 de febrero de 2016

Microsoft detalla las especificaciones de las HoloLens





El gigante de Redmond ha confirmado oficialmente las especificaciones de las HoloLens, sus conocidas gafas de realidad aumentada, uno de los productos que más interés ha generado y cuyo debut está marcado para el 30 de marzo, aunque eso sí, en su edición especial para desarrolladores.
Como ya os contamos en su momento el precio de esta edición es de 3.000 dólares, elevado pero a la vez comprensible si atendemos a sus posibilidades y al público al que va dirigido, ya que de momento no está orientado al mercado de consumo general.
Sin más preámbulo echamos un completo vistazo a las especificaciones técnicas clave:
  • Dos motores de luz 16:9 con resolución HD.
  • Calibración automática de distancia con la pupila.
  • Resolución holográfica máxima de 2,3 millones de puntos de luz.
  • Reconocimiento de gestos, seguimiento de la mirada y soporte de voz y sonido espacial.
  • Batería de hasta 3 horas de duración en uso activo.
  • Windows 10 como sistema operativo, con acceso a la Windows Store.
  • Disipación pasiva.
  • CPU Intel de 32 bits, respaldada por una unidad personalizada de procesamiento holográfico.
  • 2 GB de RAM.
  • 64 GB de almacenamiento.
  • WiFi AC, Bluetooth y microUSB.
  • Altavoces integrados, cámara de 2 MP (HD), cuatro cámaras de reconocimiento del entorno, cuatro micrófonos y sensor de luz.
Las especificaciones impresionan y demuestran, a su vez, que no todo es la potencia bruta del combo procesador y RAM, sino que la “magia” que crean las HoloLens se debe en buena parte a sus otros elementos, entre los que destaca especialmente la citada unidad de procesamiento holográfico.
Para empezar a desarrollar necesitaremos un equipo con Windows 10, capaz de mover Visual Studio 2015 y Unity 5.4.


Más información: Neowin.

MediaTek MT2511, nuevo chip para gadgets de vestir






El fabricante chino ha anunciado oficialmente el MT2511, un SoC que ha sido diseñado especialmente para ser utilizado en dispositivos y gadgets de vestir, más conocidos popularmente como wereables.
Esta solución incorpora una interfaz de biosensores que permite el acceso a funciones avanzadas, como por ejemplo electrocardiografía (ECG) y fotopletismografía (PPG) simultáneas, lo que le confiere un gran valor en soluciones orientadas a la salud y el deporte.
A nivel de consumo estamos ante un chip altamente eficiente, ya que apenas llega a los 0,6mA en funcionamiento (capturando PPG). Esto es posible gracias a su propia estructura, que ha sido totalmente optimizada para llevar a cabo distintas funciones con un consumo mínimo.
Os dejamos con un resumen que nos ha pasado MediaTek con sus características principales:
  • ECG + PPG para una fácil sincronización de datos (PLL interno).
  • Potencia activa: menos de 0,6mA para PPG (frecuencia de muestreo 125Hz sin LED ), menos de 0,6mA para ECG, menos de 1,25mA para PPG+ECG.
  • Intervalo del latido del corazón 4 KB integrados de SRAM.
  • Controlador de circuito impulsado por LED.
  • Alta precisión: Rango dinámico mayor a 100dB.
  • Soporte de interface SPI/I2C para conectividad.
  • 3 mm × 3,4 mm, 56-ball, 0.4 mm pitch, paquete WLCSP.
Su producción empezará antes de que termine la primera mitad de 2016.
Más información: MediaTek.

Transcend anunciaTranscend anuncia SSD M.2 de 1 TB para portátiles SSD M.2 de 1 TB para portátiles




El mercado de los SSDs sigue creciendo y ofrece cada vez una mayor cantidad y variedad de soluciones, todas ellas con precios diversos que se ajustan a la mayoría de presupuestos, incluso los más ajustados.
Una de las últimas compañías en presentar novedades ha sido Transcend, que ha anunciado un SSD M.2 con una capacidad de 1 TB, especialmente concebido para todos aquellos que quieran disfrutar del máximo rendimiento en portátiles ultraligeros.
Esa es la capacidad máxima, lo que quiere decir que es posible encontrarlo en versiones con tamaños inferiores. En este sentido Transcend ha sido muy cuidadosa y ha apostado por la variedad, por lo que podemos conseguirlo en variantes van desde unos ajustados 32 GB hasta ese impresionante terabyte.
¿Y de rendimiento qué tal? Pues bien, ya que esta gama de SSDs utiliza la interfaz SATA III y consigue velocidades de lectura y escritura secuencial de 560 MB/s y 460 MB/s, respectivamente, y viene acompañada además de tecnologías avanzadas, como Intel Smart Response Technology y Error Correction Code.
De momento no han confirmado fecha exacta de disponibilidad y tampoco han dado detalles sobre el precio, pero no debería diferir mucho del que tienen otras soluciones similares que podemos encontrar actualmente.
Más información: TweakTown.

Battlefield 5 podría llevarnos a la Primera Guerra Mundial




Una buena dosis de información sobre Nintendo NX se ha filtrado y nos deja una gran cantidad de detalles interesantes que en caso de ser ciertos confirman una cosa, Nintendo ha dado el do de pecho en todos los sentidos, excepto en el hardware.
Haremos un resumen con los puntos clave que nos deja la fuente original. Lo primero que llama la atención es que la consola ya se encontraba en un estado avanzado antes del fallecimiento de Satoru Iwata, lo que implica que aquellos rumores que hablaban de su posible lanzamiento a finales de este año no son nada descabellados.
Por otro lado se comenta que contaría con salida HDMI estándar y que los mandos de control tendrían unos motores especiales que simularían mejor las sensaciones al jugar. Así, y a modo de ejemplo, se cita que al chocar de frente con un muro el mando reaccionaría con una vibración y una respuesta en dirección contraria al muro.
La conectividad estaría muy cuidada ya que podría sincronizarse por Bluetooth con casi cualquier dispositivo, mientras que a nivel de hardware tendría la misma base que PS4 y Xbox One, aunque parece que en términos de potencia estaría más cerca de la segunda.
Con todo parece que el plato fuerte estaría en su sistema operativo, llamado NintendOS, que cuenta con capacidades de emulación muy buenas y es muy sencillo desarrollar juegos para él. En este sentido también ponen de relieve que sería posible portar juegos de Xbox One y PS4 a Nintendo NX casi sin hacer modificaciones.
Si ponemos todo en conjunto nos damos cuenta de que tenemos entre manos una consola prometedora, de eso no hay duda.
Más información: WCCFTech.

Nintendo NX podría correr juegos de Xbox One y PS4 sin problema





Una buena dosis de información sobre Nintendo NX se ha filtrado y nos deja una gran cantidad de detalles interesantes que en caso de ser ciertos confirman una cosa, Nintendo ha dado el do de pecho en todos los sentidos, excepto en el hardware.
Haremos un resumen con los puntos clave que nos deja la fuente original. Lo primero que llama la atención es que la consola ya se encontraba en un estado avanzado antes del fallecimiento de Satoru Iwata, lo que implica que aquellos rumores que hablaban de su posible lanzamiento a finales de este año no son nada descabellados.
Por otro lado se comenta que contaría con salida HDMI estándar y que los mandos de control tendrían unos motores especiales que simularían mejor las sensaciones al jugar. Así, y a modo de ejemplo, se cita que al chocar de frente con un muro el mando reaccionaría con una vibración y una respuesta en dirección contraria al muro.
La conectividad estaría muy cuidada ya que podría sincronizarse por Bluetooth con casi cualquier dispositivo, mientras que a nivel de hardware tendría la misma base que PS4 y Xbox One, aunque parece que en términos de potencia estaría más cerca de la segunda.
Con todo parece que el plato fuerte estaría en su sistema operativo, llamado NintendOS, que cuenta con capacidades de emulación muy buenas y es muy sencillo desarrollar juegos para él. En este sentido también ponen de relieve que sería posible portar juegos de Xbox One y PS4 a Nintendo NX casi sin hacer modificaciones.
Si ponemos todo en conjunto nos damos cuenta de que tenemos entre manos una consola prometedora, de eso no hay duda.
Más información: WCCFTech.

HP Elite x3, primer vistazo




HP Elite x3 ha sido uno de los grandes anuncios del MWC 2016. Una “oficina móvil” que pretende revolucionar la experiencia de informática móvil.
Un superphone grande y potente que además de sus posibilidades a máximo nivel como móvil inteligente, goza de una gran versatilidad por su capacidad de convertirse en portátil o PC de sobremesa, gracias a la función Continuum de Windows 10 y a los accesorios que comercializará HP,
Aunque tendremos tiempo para analizarlo a fondo porque su disponibilidad está prevista para el verano, te recomendamos un vistazo previo que han publicado en el blog de Movilidad Profesional.
En él se revisa su diseño en metal y cristal resistente al polvo y al agua con certificaciones IP 67 y MIL-STD; su pantallón AMOLED de 6 pulgadas con resolución 2K; su hardware interno con protagonismo para el chipset Snapdragon 820; su conectividad con USB Type C, LTE-A o el doble sensor de huellas y los accesorios que lo acompañan, desde la pantalla-teclado Mobile Extender para convertirlo en portátil y la base Desk Dock para usarlo como ordenador de sobremesa. Impresionante, sin duda.

Sony patenta un controlador VR, tipo Power Glove de Nintendo




Un usuario de NeoGAF ha descubierto una patente de Sony que describe un controlador VR al más puro estilo del Power Glove de Nintendo.
Algunos de nuestros lectores no habían nacido cuando en 1989 llegó al mercado el Power Glove, un mando para la NES de Nintendo que fue un fracaso de crítica y público pero que tuvo el honor de ser el primer controlador de su tipo.
A finales de los 80 las tecnologías de Realidad Virtual eran un sueño reservado a la ciencia ficción y a unos desarrollos tan “locos” para su época como Power Glove y su intento de recrear los movimiento de una mano humana, en tiempo real, para su uso en videojuegos. Ni la por entonces gran dominadora NES le salvó del fiasco comercial.
El controlador VR de Sony usa su “espíritu” pero con tecnologías actuales.
controladorsony
Un guante que incluye una serie de sensores que permite seguir el movimiento de la mano, de los dedos y también interactuar con objetos físicos, comunicando datos a un dispositivo de realidad virtual como podría ser el PlayStation VR.
controladorsony_2
Una tecnología mucho más avanzada que el propio mando PlayStation Move lanzado para la PS3.
controladorsony_4
Como todas las patentes, hay un largo trecho entre la mesa de diseño y la comercialización del dispositivo. Quizá no llegue nunca al mercado pero ahí está, un interesante controlador VR tipo Power Glove, de la misma Sony.

Cómo desactivar anuncios en la pantalla de bloqueo de Windows 10





Microsoft ha comenzado a incluir anuncios en la pantalla de bloqueo de Windows 10. Uno de los primeros anuncios es la promoción del videojuego Raise of the Tomb Raider y enlaza para su compra a la Windows Store.
Vaya por delante que estos anuncios no son -en mi opinión- ni molestos ni intrusivos. La mayoría de usuarios lo verán como un bonito tapiz, pulsarán enter directamente y pasarán al escritorio tras escribir la contraseña de autenticación en su caso. Por lo que leemos solo se ha implementado en Windows 10 Home no en las versiones Pro o Enterprise.
Por supuesto, no ha faltado quien se tire a la yugular de Microsoft por este motivo, exponiéndolo como prueba de que “Windows 10 no es tan gratis como parece y lo pagaremos a base de privacidad o publicidad”.
Los anuncios fueron explicados hace unos meses por un ejecutivo de Microsoft como“sugerencias personalizadas” aunque descartó que tuvieran planes de campañas publicitarias en Windows 10. Es decir, Microsoft no ha cobrado de Square Enix para publicitar el juego ni de otros desarrolladores y más parece una promoción de acceso a la Windows Store que una verdadera campaña publicitaria.
En todo caso y más allá del debate, lo importante es que este tipo de anuncios se pueden desactivar aunque tenemos que señalar que estos anuncios en la pantalla de bloqueo de Windows 10 no han sido implementados con carácter general, ni en todas las versiones de Windows 10, ni para todos los usuarios y regiones. Por si es tu caso y no te apetece recibirlos haz lo siguiente:
  • Accede a la herramienta de Configuración del sistema desde el botón de inicio:
Windows10_ads_3
  • Pulsa sobre el menú personalización
Windows10_ads_4
  • Accede a la gestión de la pantalla de bloqueo. Elige como fondo “imagen” o “presentación” y desmarca la opción “Mostrar datos curiosos, consejos y más en la pantalla de bloqueo”
Windows10_ads_5
Por contra, si los anuncios no te molestan olvida lo anterior. En su lugar si sólo quieres ver el contenido que está más adaptado tus intereses en su lugar, puedes decirle a Microsoft tus preferencias haciendo clic en el icono en la esquina superior derecha de la pantalla de bloqueo:
Windows10_ads_2
Varias posibilidades aunque como te decíamos, nosotros (desde España) no hemos detectado anuncios en la pantalla de bloqueo de Windows 10. Cuéntanos tus experiencias y tu opinión sobre el tema.

¿Quieres un HTC Vive? Estos son los precios internacionales





El kit de realidad virtual de la firma taiwanesa se muestra como uno de los rivales más importantes que deberá enfrentar el Oculus Rift, y en teoría tiene un nivel técnico superior al de éste, pero como contrapartida el HTC Vive también resulta más caro que aquél.
Sabíamos gracias a las primeras informaciones que dicho kit de realidad virtual iba a tener un precio en Estados Unidos de 799 dólares, cifra que superaría en 200 dólares el precio que tiene el Oculus Rift, pero no teníamos nada claros los precios internacionales.
Ahora, y gracias a una nueva información, sabemos cuánto costará oficialmente el HTC Vive más allá de tierras estadounidenses. Esta es la lista definitiva de precios:
  • Australia: 899 dólares.
  • Canadá: 1.149 dólares canadienses.
  • China: 6.888 yuanes.
  • Taiwán: 28.288 dólares taiwaneses.
  • Japón: 111.999 yenes.
  • Nueva Zelanda: 949 dólares.
  • Europa: 899 euros.
El periodo de reservas del HTC Vive empieza hoy mismo y está sujeto a un limite claro de una unidad por persona. Los envíos comenzarán a producirse a partir del 5 de abril.
Parece que la competencia dentro del sector de la realidad virtual es ya una competencia, y que por fin tenemos a jugadores que van en serio, ahora sólo nos queda ver cómo evoluciona todo, especialmente a nivel de soporte, juegos y aplicaciones compatibles.
Más información: TweakTown.

domingo, 28 de febrero de 2016

Las tendencias del Mobile World Congress

Aunque la realidad virtual ha acaparado el mayor protagonismo, el Internet de las Cosas, la eSIM o las redes 5G también se han ganado un hueco propio muy notable en Barcelona



El Mobile World Congress (MWC) se ha despedido hasta 2017. La mayor feria de tecnología que alberga nuestro país ha sido todo un éxito: ha rebasado lacifra récord de 100.000 asistentes en su undécima edición en Barcelona. De hecho, para la entidad organizadora GSMA ha sido «la mejor y más grande de la historia».
La ciudad condal ha sido el escaparate en el que las grandes compañías han mostrado al mundo, a lo largo de cuatro frenéticos día, las últimas novedades del sector a las que toca seguir la pista y comprobar su desarrollo en este 2016.

1. Realidad Virtual

Ha sido la reina de esta feria. No ha habido compañía que haya podido resistirse a los encantos de lo que Marzk Zuckerberg, CEO de Facebook, ha asegurado que «va a ser la siguiente gran plataforma social». La realidad virtual es el resultado de una evolución tecnológica. «Primero fue el texto, luego pasamos a las fotos y después al vídeo», recordó durante su conferencia en el MWC.
Aunque 2015 fue un año que despedimos con un cierto sabor agridulce, parece que este año la realidad virtual sí va a experimentar grandes avances. Y no sólo porque Zuckerberg -profeta- lo haya dicho. Sino porque también ha sido la apuesta por parte de varias compañías.
Cabe recordar cómo la imagen del fundador de Facebook abriéndose paso entre una audiencia de casi 5.000 personas absortas con las gafas Gear VR, durante la presentación del Samsung Galaxy S7, ha dado la vuelta al mundo. Zuckerberg y Samsung anunciaron en el Mobile que son ahora aliados. La estrategia de Facebook, desde hace tiempo, es potenciar el consumo de vídeos en 360 grados.
Por esta razón, nadie ha dudado en sumarse a la realidad virtual. Toca explotarla y Samsung, que ya tiene experiencia con las Gear VR, tiene previsto hacerlo también con la Gear 360, una cámara capaz de grabar vídeos en 360 grados. Lo mismo que hace la LG 360 CAM, otra de las protagonistas en esta feria.
HTC también ha dado más detalles de sus Vive, que llegarán al mercado en unas semanas y suponen una diferenciación con el resto de propuestas al incorporar una cámara frontal que permite reconocer el entorno real. Y Alcateltambién se ha estrenado: la caja de su recién estrenado Idol 4 se transforma en visor de realidad virtual si se pone en su interior el teléfono, que incorpora juegos para poder disfrutar en 3D.
INÉS BAUCELLS

2. «Smartphones»

Si la realidad virtual marca tendencia, a los «smartphones» no les queda más remedio que adaptarse porque el futuro pasa por la explotación de contenidos en 3D a través del teléfono inteligente. Por esta razón, deben ser compatibles.
Es lo que ha hecho Alcatel con el Idol 4 y 4S, su nueva gama de teléfonos inteligentes, cuya característica principal está en la «Boom Key», una tecla ubicada en el lateral del terminal que permite hacer fotografías con el dispositivo bloqueado. Aunque se trata de un dispositivo de gama media, Alcatel ha cuidado como nunca el diseño.
Samsung ha presentado en el Mobile su nuevo y esperado Galaxy S7 y S7 Edge, más potentes y resistentes al agua. Por supuesto, son compatibles con Gear 360 y Gear VR. El reto de la compañía ahora es ampliar la compatibilidad a la generación Galaxy S6.
LG, por su parte, ha sorprendido con un «smartphone» modular G5. Su diferencia se encuentra en sus accesorios que se introducen en el dispositivo mediante la ranura que da acceso a la batería. Así, el usuario puede transformar el teléfono en función de sus necesidades.

3. Redes 5G

Las redes móviles de quinta generación, conocidas como 5G, son el futuro, a pesar del desacuerdo de Zuckerberg, que criticó en Barcelona cómo la industria crece a dos velocidades teniendo en cuenta que aún hay 4.000 millones de personas que no tienen acceso a internet. Una diferencia a la que pretende poner fin con su proyecto Internet.org.
Pero la realidad manda. Cada vez son más los dispositivos conectados y aunque esta tecnología se encuentra aún en una fase de desarrollo, las principales compañías trabajan ya en cómo mejorar la latencia y el transporte de volúmenes de datos con el 5G, que permitirá que sea 1.000 veces superior a la red actual, al mismo tiempo que permitirá incrementar el número de dispositivos conectados entre 10 y 100 veces e incrementará la duración de las baterías hasta 10. El 5G es un ecosistema compuesto por tres partes: la red, la nube y la infraestructura.
Telefónica anunció durante el MWC que colaborará con Intel en la definición de los requisitos de las redes móviles de quinta generación. Ericsson yNokia, por ejemplo, también se han centrado en el 5G. Hay que trabajar -y mucho- de aquí a 2020, fecha prevista para que llegue.

4. Emprendedores y 4YFN

Si hay un sector que sobresale en el MWC es el salón de emprendedores4YFN. Este año, ha cerrado su su tercera edición con 500 startups y más de 12.500 asistentes, un 50 % más que el año anterior. Y ha contado con la participación del creador de Wikipedia, Jimmy Wales, o de directivos de multinacionales como Amazon, Google Ventures, IBM, Twitter o Facebook.
Se trata de una gran noticia porque se trata de cuatro días claves para jóvenes empresarios, inversores y directores de innovación, entre otros profesionales del mundo de la empresa y la tecnología. Y es que en el salón se suceden continuas reuniones entre inversores y emprendedores. Estos últimos cuentan sus ideas y proyectos en apenas unos minutos. Si la idea es buena, atraerán al inversor hacia su negocio. En esta edición, se han mantenido un total de 5.200 reuniones.
Para Ignasi Elías, CEO de Shootr, una de las startups participantes, esta cita es toda una «oportunidad para explicarle a la gente tu proyecto, ampliar tu red de contactos, obtener ‘feedback’ … y todo ello en un ambiente cargado de buen rollo y muchísima energía».

5. eSIM

La SIM física ha llegado a su fin. En el MWC se ha dejado ver la SIM virtual o eSIM, que se presentó hace un año en Barcelona. Para Pedro Gil, de la Unidad Global de Terminales de Telefónica, esta nueva tarjeta se convertirá en la herramienta clave de la conectividad a los miles de millones de dispositivos conectados que se esperan debido al fuerte crecimiento delInternet de las Cosas (IoT).
De esta manera, se ahorra espacio para la batería (recordemos que otro de los objetivos es alargar su duración), y, en el caso de los operadores, ayuda a gestionar la conectividad «de una manera más adaptada al siglo XXI y para millones de dispositivos», aseguró Gil
Telefónica ha anunciado también que comenzará a comercializar en el segundo trimestre de 2015 la eSIM con el Samsung Gear S2 Classic 3G.

6. Internet de las Cosas

Si el futuro pasa por las redes 5G y por la eSIM, es porque el Internet de las Cosas sigue avanzando. La conectividad sobrepasó hace tiempo al teléfono para extenderse a todo tipo de objetos de la realidad cotidiana como los coches o el hogar.
El objetivo es facilitar la vida a las personas, como han demostrado las innovaciones que multinacionales tecnológicas como Fujitsu, Ericsson, Sony, Alcatel o LG han traído al MWC.
Por ejemplo, Fujitsu ha presentado su habitación conectada en la que el usuario puede crear escritorios virtuales sobre una mesa normal y mover fotos o documentos a las paredes, donde ampliarlos o reducirlos, según necesite. Ericsson, por su parte, ha exhibido una parada de autobús que, además de informar de los tiempos de espera, cuenta con un sensor que capta los niveles de contaminación en el aire, está conectada con los servicios de emergencia y llega a grabar en tiempo real en caso de ser necesario.

7. Grafeno

El grafeno ha sido otra de las tendencias en el MWC de Barcelona. Por primera vez, este material, de propiedades increíbles, ha tenido un espacio propio muy destacado: un pabellón solo para él. Y la verdad es que se lo ha ganado porque, por ejemplo, es capaz de cargar un dispositivo móvil en cinco minutos.
El grafeno está formado por una línea de átomos de carbono y es prácticamente transparente. Una de sus principales propiedades es que tiene una gran conductividad de la electricidad y el calor, una dureza superior al acero y una gran flexibilidad. Se trata del material más fino y ligero del planeta.
Así, no es de extrañar que el profesor de la Universidad de ManchesterKostya Novoselov, premio Nobel por desarrollar el grafeno, haya defendido las ventajas de este material en Barcelona para impulsar, por ejemplo, el IoT.
Fuente: ABC.com

Requisitos, hardware y optimización, una reflexión





Cuando hablamos de hardware y optimización estamos haciendo referencia a dos elementos que deben ir claramente cogidos de la mano, ya que de nada sirve la una sin la otra.
Podríamos hacer un símil claro y sencillo al hablar por ejemplo del motor y las ruedas del coche, de nada sirve un motor muy potente con unas ruedas que son incapaces de darle el soporte que necesita, o siguiendo con el mundo automovilístico también cumple perfectamente la idea de unsupercoche conducido por un novel.
Todo esto nos lleva a la clásica idea de que la potencia no sirve de nada, algo que siempre ha estado presente en el mundo de la informática, pero que ha adquirido una nueva entidad con la llegada de Xbox One y PS4, y como no de los terribles ports de ambas que siguen llegando a PC.
1 (1)

Hardware poco potente y APIs de bajo nivel

Sabemos que tanto Xbox One como PS4 cuentan con un hardware que no puede compararse ni siquiera al de un PC de 460 euros, ya lo vimos en este artículo, pero la optimización les permite ofrecer un rendimiento mejor de lo que cabria esperar, y en este sentido juegan un papel esencial tanto el sistema operativo como las APIs de bajo nivel.
Hablamos, como no, de las versiones especialmente adaptadas de Windows y el SO con base Unix que montan Xbox One y PS4, y también de DirectX 12 en la primera y de la API de bajo nivel GNM en PS4, respaldada por la API de alto nivel GNMX.
Todo este software y conjunto de APIs ha sido diseñado únicamente para facilitar las tareas de desarrollo y permitir un aprovechamiento óptimo de los recursos de cada equipo, y de sus particularidades. Esto implica lo siguiente:
  • Óptima utilización de los siete núcleos libres de la CPU de cada consola, lo que permite conseguir un rendimiento aceptable a pesar del bajo IPC bruto del procesador, que recordamos es de bajo consumo y corre a frecuencias muy limitadas (1,75 GHz en Xbox One y 1,6 GHz en PS4).
  • Aprovechamiento de la arquitectura de memoria unificada, ya que como sabemos ambas consolas cuentan con 8 GB de RAM, de los que aproximadamente unos 6 GB quedan libres para ser utilizados como RAM y memoria gráfica.
  • Aprovechamiento real de CPUs multihilo y soporte de funciones avanzadas que todavía no se han implementado de forma amplia en PC, y que hacen posible aumentos de rendimiento muy grandes frente a lo que hemos visto hasta ahora en DirectX 11.
Hemos hecho un resumen simple para no entrar en complicaciones innecesarias, y tampoco dar pie a un artículo que pueda acabar siendo “el libro gordo de Petete”, gracias al cual podemos entender claramente la diferencia que marca el software y la optimización, entendido en sentido amplio, y cómo afecta al rendimiento.
Gracias a esa optimización es posible ver juegos que a pesar de las limitaciones que muestran PS4 y Xbox One consiguen correr mejor de lo que lo harían en PCs directamente equivalentes, y a su vez entendemos también las dificultades que implica portar juegos con esas “optimizaciones” a sistemas que carecen de soporte de ellas, es decir, a PC.
1 (2)

Requisitos en juegos, cambios polémicos

El punto anterior era necesario para tener una base mínima que nos permita comprender y razonar mejor todo lo que veremos en este punto, donde tocaremos un tema que está de rabiosa actualidad y que sigue causando estragos, sobre todo entre los usuarios menos expertos.
Los requisitos mínimos, en sus orígenes, era indicar el hardware mínimo para poder correr un juego, aunque sin garantías de conseguir un buen funcionamiento, concepto que hoy ha cambiado de forma clara, salvo contadas excepciones.
Para entenderlo mejor lo ilustramos con un ejemplo. Cuando llegó DOOM en los noventa se indicaba claramente que tenía unos requisitos mínimos formados por un procesador 386, 4 MB de RAM y tarjeta gráfica VGA. Bien, con dichos requisitos el juego arrancaba y funcionaba, pero eran “mínimos de verdad” y por tanto la experiencia de juego era muy pobre.
Ahora, sin embargo, la idea de requisitos mínimos ha dado un giro total, hasta el punto que si los cumplimos no sólo podremos mover el juego, sino que además es casi seguro que podremos moverlo con un buen nivel de calidad y una fluidez más que aceptable.
Lo dicho se ve claramente al repasar los requisitos de algunos de los juegos más actuales y ver cómo funcionan con ellos. ¿Ejemplos concretos? The Witcher 3, que requiere como mínimo una Radeon HD 7870 o una GTX 660, un Core i5 2500K y 6 GB de RAM, y lo cierto es que cumpliendo esas especificaciones podemos moverlo en 1080p con ajustes medios-altos y fluidez absoluta.
Podríamos poner muchos más ejemplos y todo ello demuestra lo que apuntamos, ese giro total en el que los requisitos mínimos han pasado a convertirse en “el mínimo para una buena experiencia”.
Llegados a este punto podemos preguntarnos por qué se ha producido este cambio. Antes de nada hay que tener claro que no es algo nuevo, o al menos no del todo, puesto que con la etapa final de Xbox 360 y PS3 también vimos una tendencia clara a inflar los requisitos mínimos.
Sin embargo ahora la misma se ha acentuado, tanto que tenemos unos requisitos mínimos muy altos y unos requisitos recomendados muy exagerados, ¿y por qué? Todo parece apuntar a que se prefiere fijar un mínimo óptimo que garantice al usuario una buena experiencia de juego, en lugar de un mínimo funcional pero sin garantías.
Esto está bien, pero genera una falsa sensación en el usuario que le lleva a pensar que necesita un equipo mucho más potente para mover el juego en buenas condiciones, cuando en realidad le basta con cualquier tarjeta gráfica de entre 150 y 200 euros para poder jugar a 1080p con garantías.
Lo dicho crea, como dijimos, una necesidad que en la mayoría de los casos es irreal, y “motiva” de forma injustificada a renovar y a actualizar equipos.
1 (1)

El mito de actualizar el PC cada dos años

Hemos hablado sobre la optimización y los requisitos mínimos, dos puntos que han quedado claros y en los que hemos hecho aclaraciones interesantes, pero queremos terminar este artículo con otro tema interesante que está también de actualidad, que se esgrime como ventaja de las consolas frente al PC y que además está profundamente relacionado con los dos elementos anteriores.
¿Necesito actualizar mi PC cada dos años para jugar en condiciones? Obviamente la respuesta es un no, aunque hayan matizaciones necesarias.
El no rotundo aplica a aquellos casos en los que hemos construido un PC de gama media o media-baja para jugar, es decir, con presupuestos a partir de los 400-500 euros, aproximadamente. Dichos equipos seguirán siendo hoy perfectamente viables, y para muestra volvemos con un ejemplo.
Un equipo de gama media de 2013, formado por 8 GB de RAM, una Radeon HD 7870 y un FX 6300 es capaz de mover juegos como The Witcher 3 en 1080p y calidad media con alguna cosa en alto y sin problemas, manteniendo una tasa de 30 a 40 FPS de media.
Como vemos hablamos de un equipo de hace tres años que sin embargo es capaz de mover un juego actual, considerado como exigente en requisitos, mucho mejor que Xbox One y PS4. ¿Necesito actualizar dicho equipo? La respuesta es un no rotundo, y tampoco será necesario hacerlo a medio plazo.
Conociendo la realidad podemos dar una respuesta clara, pero si no disponemos de este conocimiento es posible que al ver el requisito recomendado de una Radeon 290 pensemos que dicha solución es imprescindible para una experiencia óptima y nos decidamos a actualizar, sin que lo dicho sea realmente necesario.
Estoy seguro de que habéis entendido la clave de este punto, pero no podemos terminar sin hacer una segunda reflexión, ¿qué pasaría si la enorme optimización que se aplica en consolas se trasladase al PC? Simple, que el hardware se aprovecharía mucho mejor y el ciclo de renovación se dilataría, cosa que, obviamente, no beneficiaría en absoluto a los fabricantes de componentes.
Como siempre os animo a opinar en los comentarios sobre estos temas, igualmente interesantes y polémicos.