Arranque instantáneo de W7

Phoenix Technologies ha presentado en el IDF una nueva tecnología llamada Instant Boot BIOS que permite que combinándola con Windows 7 y con una buena configuración hardware se logren tiempos de arranque cercanos a un segundo. Para lograr esos tiempos es importante contar con un dispositivo de almacenamiento muy rápido, como los modernos SSD, y lo cierto es que el resultado, como se puede observar en el vídeo, es espectacular, y haría que olvidásemos los modos de suspensión e hibernación.

Ya hemos hablado en numerosas ocasiones de los sistemas Instant On, unas tecnologías desarrolladas por los principales fabricantes de BIOS y que permiten acceder a pequeños sistemas operativos en tiempos realmente cortos.

Sin embargo Phoenix Technologies -que es responsable de HyperSpace, una de esas alternativas- ha presentado un nuevo desarrollo en el IDF que se está celebrando actualmente. La tecnología Instant Boot BIOS permite que con una combinación adecuada de hardware -sobre todo en lo que se refiere a la presencia de una unidad SSD- y de software se logren tiempos de arranque de Windows 7 de alrededor de un segundo.

La nueva BIOS utiliza la tecnología UEFI para dar corriente a varios dispositivos del sistema al mismo tiempo y ejecutar inicialmente solo aquellos procesos que son absolutamente necesarios para poder cederle el control al sistema operativo.

En las pruebas con un Lenovo T400S con un SSD de alta velocidad se puede ver como el arranque de Windows 7 se produce en poco más de un segundo, una cifra impresionante que evitaría la necesidad en muchos casos de modos de suspensión e hibernación. Un descubrimiento prometedor.

¿Qué falla en Linux?

Mark Shuttleworth, creador de Canonical y responsable del desarrollo de la distribución Ubuntu, participó en las conferencias LinuxCon para hablar de los problemas que afectan a la adopción del sistema operativo Linux en el escritorio. A pesar de que la cuota de mercado de Linux es muy reducida, Shuttleworth anima a desarrolladores e industria a seguir esforzándose por extender su uso, y da algunas claves que podrían ayudar a esa expansión. Entre ellas, los tests de usabilidad de aplicaciones.

"En ningún caso deberíamos abandonar el escritorio", afirmó Shuttleworth en su charla de las conferencias LinuxCon que se han celebrado en Portland recientemente. El creador de la empresa Canonical, responsable del desarrollo de la popular distribución Linux Ubuntu, indicó las claves que podrían hacer que esta distribución tuviese más éxito entre los usuarios finales, que siguen fieles a otras alternativas como Mac OS X y, sobre todo, Windows.

Uno de los aspectos en los que más deberían centrarse los desarrollos es la perspectiva de la experiencia de usuario, que hasta la fecha ha sido muy pobre según Shuttleworth. Eso sí, ahí se quiso apuntar un tanto afirmando que Ubuntu ha tenido desde el principio su propio equipo de experiencia de usuario, responsable de tests de usabilidad a usuarios finales para ver cómo interactúan con el software.

Sin embargo, esa no parece ser la práctica normal entre los desarrolladores Open Source. Shuttleworth invitó a todos ellos a que les enviasen sus herramientas para ser probada por expertos en experiencia de usuario y usabilidad. Las sesiones serían grabadas para la posteridad, y los desarrolladores no podrían interactuar con los usuarios durante estas sesiones.

"Si el desarrollador está en la habitación, no puede decir nada. Es el protocolo del ‘cierra la bocaza’. La idea es que te sientes y veas cómo alguien se comporta y se pelea con el software que has desarrollado con tanto amor".

La tensión entre el desarrollo software y la interfaz de usuario ha sido uno de los problemas para la mejora de este apartado, y Shuttleworth cree que esos tests de usabilidad serían un buen paso adelante. "Si no logramos encontrar una forma de unir a esas dos comunidades de una forma potente, no creo que podamos lograr nuestro sueño. Si no podemos hacer que el software libre tenga un diseño genial no podremos llevarnos el primer premio", añadía Shuttleworth.

También habló de la ausencia de una coordinación a gran nivel entre las aplicaciones Open Source en materia de la salida de sus distintas versiones. Estas declaraciones ya fueron de hecho comentadas en el pasado, y en esta ocasión añadió que "cada vez que creamos fricción y diferencias en nuestras distribuciones por ese tema, estamos haciendo la vida más difícil a los usuarios y también complicando las actualizaciones".

GNOME 2.28: el final de una era

La última versión del conocido entorno de escritorio para Linux ya está disponible. En GNOME 2.28 mejoras en diversas áreas de productividad, y también en la elección de componentes clave como el navegadador web Epiphany, que ahora usa el motor WebKit en lugar de Gecko. El nuevo desarrollo para mensajería instantánea y videoconferencia, Empathy, también es otro de los puntos destacados, pero además en GNOME 2.28 encontraremos novedades relevantes para los desarrolladores.

Sin embargo, esta versión de GNOME destaca por ser probablemente la última de una era importante: a partir de ahora ya solo queda esperar por el prometedor GNOME 3.0, que llegará según el roadmap en marzo de 2010 y que introducirá un nuevo paradigma en la usabilidad y diseño de este entorno de escritorio.

gnome-2.28

Parte de ese paradigma se puede saborear en esta última versión de GNOME de la familia 2.x, y de hecho el gestor de ventanas tradicional, Metacity, se puede sustituir por una versión preliminar de GNOME Shell mediante el comando “gnome-shell –replace“, lo que dará acceso al gestor de ventanas que se usará en la futura versión y que es uno de los componentes más importantes de esa edición, como se puede ver en este buen repaso de lo que podremos ver en ese gestor.

Pero GNOME 2.28 tiene más novedades, aunque probablemente la entidad de las mismas es reducida comparada con lo que veremos en GNOME 3.0. Por ejemplo, se han incluido mejoras en Empathy, el cliente de mensajería instantánea por defecto de GNOME que ha desplazado a Pidgin. Este desarrollo ahora dispone por ejemplo de la posibilidad de dar acceso remoto a nuestros contactos desde el cliente de mensajería conjugándolo con Vino, el cliente VNC de GNOME.

Otro de los cambios importantes es el que afecta al navegador “ligero” de GNOME, Epiphany, que sigue sin captar demasiados adeptos pero que ahora podría ganar interés gracias a la inclusión del motor de navegación WebKit (usado por Chrome o Safari) en lugar de Gecko (la apuesta de Firefox).

Más cambios: mejoras en la gestión de la conexión de dispositivos Bluetooth con un asistente gráfico muy sencillo de usar, o las mejoras del applet Time Tracker, que permite gestionar pequeños proyectos personales fácilmente. También se han añadido algunas mejoras a Cheese, la aplicación ideal para usar la webcam en GNOME, y además hay cambios en la interfaz que han causado cierto revuelo y que hacen que ciertos botones de la interfaz solo muestren texto y no los tradicionales iconos.

Los desarrolladores también se verán afectados por GNOME 2.28, donde ya se han comenzado a preparar la futura eliminación de bibliotecas obsoletas que no formarán parte de GNOME 3.0, y lo cierto es que parece que ese camino hacia la esperada versión 3.0 es ya el claro foco de atención de los programadores de GNOME.

Más detalles sobre Windows 8

Al acercarse el lanzamiento de Windows 7 Microsoft empieza a considerarlo un producto terminado y va asignando más recursos al desarrollo de la nueva versión que se prevé estará lista en 2012. Hemos conocido algunos detalles nuevos sobre la siguente versión de Windows que han aparecido en blogs especializados. Un nuevo sistema de manejo de ficheros, un proceso de hibernación y suspensión mejorado, más protección para el núcleo del sistema, nueva estructura del entorno gráfico y otros detalles.

Windows 7 abandonará dentro de poco los ordenadores de los betatesters y programadores de Microsoft para poblar las estanterías de las tiendas y Microsoft ya está poniendo en marcha la maquinaria para su próximo Windows. Una vez desmentido de que fuera a ser el primer Windows "en la nube", se han podido saber algunos detalles de la siguiente generación de Windows.

Según hemos podido recoger del blog UX Evangelist y del de Mary Jo Foley, una de las principales novedades con las que va a contar Windows 8 es el manejo de ficheros. Hace tiempo Microsoft reclutaba ya programadores para desarrollar un sistema de mejoras para la replicación de archivos distribuidos en Windows 8. De los 12 equipos de programación que ya trabajan en el nuevo sistema, nueve al parecer se dedican a este punto concreto.

Otra mejora importante afectará a los sistemas de hibernación y suspensión. Por lo visto se aplicará un motor de compresión nuevo para que los archivos resultantes de los procesos de hibernación y suspensión sean más pequeños y el proceso sea más rápido, tanto al detener como al poner en marcha el sistema. Este nuevo proceso de compresión sustituiría el sistema Xpress de Windows Vista.

Un importante avance que se está desarrollando es la mejora del sistema PatchGuard presente en las versiones de 64 bits de Windows. Básicamente consiste en impedir a los programas que puedan modificar o "parchear" el núcleo del sistema operativo. En lo que respecta al entorno gráfico, según las noticias que hemos recogido se está emprendiendo el diseño de una nueva estructura definida como de "nueva generación".

Desde el punto de vista de los servidores, Windows 8 al parecer dispondrá de servidor de aplicaciones Dublin y su diseño será más adecuado para su instalación en centros de datos. Otro punto importante es la información de que 120 empresas de desarrollo de software participarán en la planificación de Windows 8. Al parecer se va a tener muy en cuenta la opinión de terceros para el desarrollo del sistema.

Ya hay precedentes de que algunas de las tecnologías desarrolladas para el siguiente Windows se han aplicado al sistema anterior, por lo que podríamos ver algunas de las características reseñadas aplicadas al propio Windows 7 a través de actualizaciones. Es posible que las primeras betas de Windows 8 puedan ver la luz incluso en 2010.

Intel 22 nm en 2011

IDF 2009. Paul Otellini, CEO de Intel, mostró una oblea de 300 milímetros (estándar en la industria de semiconductores) con los primeros chips funcionales construidos en el mundo mediante procesos tecnológicos de fabricación de 22 nanómetros. Además, reiteró los planes de la compañía para poner en el mercado los primeros microprocesadores con esta tecnología en 2011. Estos chips contendrán nada menos que 2.900 millones de transistores y utilizarán la tercera generación de la tecnología de fabricación de transistores high-k metal Gate.

Dos años después de presentar las primeras muestras fabricadas en 32 nanómetros, cuyos chips se pondrán a la venta a comienzos de 2010, Intel ha presentado un prototipo funcional -el primero del mundo en funcionamiento construido en procesos de 22 nm- con una densidad que dobla la de la generación de 32 nm en un área tan pequeña como una uña.

Los circuitos de prueba de 22 nanómetros incluyen la memoria SRAM y los circuitos lógicos que se usarán en los microprocesadores. Las células de SRAM de 0,108 y 0,092 micrómetros cuadrados funcionan en una matriz que totaliza 364 millones de bits y son las más pequeñas en circuitos reales que nadie ha conseguido construir.

El avance en los procesos de fabricación a 22 nanómetros permitiría al gigante del chip cumplir con la Ley de Moore, promulgada por el co-fundador de Intel y que establece que cada 18 meses se duplica el número de transistores en un circuito integrado. Para hacernos una idea, frente a los 731 millones de los Core i7 actuales, los chips de 22 nm tendrían 2.900 millones de transistores.

Además, permitiría la creación de microprocesadores más pequeños, de menor coste y consumo, aumentando de manera notable el rendimiento por vatio. Según el anuncio los primeros procesadores con esta tecnología llegarían en 2011.

El tamaño del kernel Linux

El ingeniero de software finlandés, Linus Benedict Torvalds, creador del kernel Linux y mantenedor del mismo, indicó durante una mesa redonda en LinuxCon 2009 que se celebra en Portland y a preguntas de un ingeniero de Novell, que el núcleo básico del sistema es enorme y está inflado reduciendo su rendimiento, quizá por incorporar demasiado rápido características al núcleo sin esperar que se estabilice antes. Una autocrítica que no ha sido bien entendida y ha iniciado el típico flame.

El evento organizado por la Fundación Linux se calienta por momentos (quizá sin mucho sentido), y si Bob Sutor, vicepresidente de código abierto y Linux en IBM, indicó ayer que “luchar contra Windows por cuota de mercado en los PCs es un callejón sin salida”, hoy ha sido Torvarlds el que ha impulsado un nuevo debate.

En una de las mesas redondas organizadas en la LinuxCon, el moderador y distinguido ingeniero de Novell, James Bottomley, citó un estudio interno de Intel que rastrea los lanzamientos del kernel determinando que su rendimiento había caído un 12 por ciento acumulado en los últimos lanzamientos. Con estos datos, Bottomley preguntó a Torvalds si era un problema que las características del kernel se estaban incorporando demasiado rápido sin esperar a que el kernel se estabilizara antes, reconociendo éste que “sí, que era un problema y que el kernel estaba inflado y era ya enorme”.

Preguntado por un plan para solucionarlo, Linus respondió que “Me encantaría decir que tenemos un plan. Quiero decir, algunas veces es un poco triste pensar que no contamos con el pequeño, aerodinámico e hiper-eficiente kernel que imaginé hace 15 años… El kernel es enorme y está inflado y la huella de nuestra cache asusta. No hay duda sobre eso, y siempre que agregamos una nueva característica, la situación empeora”. Sin embargo, resaltó la estabilidad del sistema “encontrando y corrigiendo errores tan rápido” como agregaban el código.

Las declaraciones de Torvalds sobre el “código enorme” y “el descenso de rendimiento” han servido para iniciar uno de los típicos flames en nuestra modesta opinión sin mucho sentido. Linus da la pista cuando indica que esta situación es “inaceptable pero inevitable”, lo que significa que forma parte de la misma arquitectura del kernel.

Un núcleo que ha pasado en diez años de un millón y medio a diez millones y medio de líneas del código fuente que tiene la versión 2.6.30. En número de ficheros ha pasado de 4.599 a los 27.878 que contiene la última versión, lo que da idea de la inmensidad de tecnologías, características, funciones o controladores que se han añadido. Lo dicho, un debate sin mucha sustancia fuera de la deseable optimización del código oficial, ya que como sabéis el núcleo Linux se puede recompilar para cada máquina y los sistemas operativos basados en él llegan al usuario final cada vez más optimizados, ayudados por el aumento del hardware.

Ubuntu se pone como objetivo arrancar en 5 segundos

Ubuntu

Las primeras pruebas con la Alpha 6 de la nueva versión de Ubuntu que llegará el 29 de octubre muestran mejoras significativas en el rendimiento. Particularmente en los tiempos de arranque y empleando unidades de estado sólido, en cuyos test con sistemas optimizados de la última versión de prueba de Ubuntu 9.10, logra ponerse en marcha en cinco segundos. El objetivo para arrancar cualquier equipo en menos de 25 segundos está al alcance, así como los 10 segundos máximos en Ubuntu 10.04.

Como sabéis, los desarrolladores de Ubuntu esperan que la versión final de Ubuntu 9.10 (sin optimizaciones y en cualquier tipo de hardware) tenga un tiempo de arranque de 25 segundos, para alcanzar con la versión 10.04 los 10 segundos como tiempo máximo para iniciar el sistema en cualquier equipo.

Ubuntu

Para comprobar el estado del desarrollo desde ars technica han realizado pruebas con la Alpha 6 recién publicada, sobre un portátil Dell Inspiron 1420n, confirmando las mejoras en el rendimiento con tiempos medios de arranque de 22 segundos, con el servidor Xorg comenzando a los 13 segundos.

Un tiempo de arranque que se ha logrado reducir a los 5 segundos optimizando el sistema operativo con almacenamiento basado en unidades de estado sólido y demonios como Sreadahead que elimina los tiempos de espera con dos partes diferenciadas, una que lee y otra que genera datos acelerando los tiempos de inicio.

No será la única mejora para lograr en la versión final de Ubuntu 10.04 los diez segundos máximos prometidos para cualquier tipo de equipo. La tarea más importante consistirá en levantar Xorg lo antes posible. Para ello reducirán el tiempo de carga de Initramfs -sistema de archivos temporal responsable de montar el sistema de ficheros raíz y cargar los módulos del kernel- y udev, el gestor que controla los ficheros de dispositivos.

La idea sería eliminar funciones innecesarias que retrasen el arranque del mismo y los desarrolladores ya tienen asignado el tiempo total de cada proceso para cumplir el objetivo: dos segundos para la carga del kernel e Initramfs, dos para controladores y montaje del sistema de archivos y otros dos para el servidor X.Org. Los cuatro segundos restantes se emplearían para iniciar el entorno de escritorio y otros servicios de usuario.

Grandes mejoras en el tiempo de arranque, en el rendimiento general, en la interfaz y en prácticamente todos los componentes de la distribución GNU/Linux más popular del mercado.