Más detalles sobre Windows 8

Al acercarse el lanzamiento de Windows 7 Microsoft empieza a considerarlo un producto terminado y va asignando más recursos al desarrollo de la nueva versión que se prevé estará lista en 2012. Hemos conocido algunos detalles nuevos sobre la siguente versión de Windows que han aparecido en blogs especializados. Un nuevo sistema de manejo de ficheros, un proceso de hibernación y suspensión mejorado, más protección para el núcleo del sistema, nueva estructura del entorno gráfico y otros detalles.

Windows 7 abandonará dentro de poco los ordenadores de los betatesters y programadores de Microsoft para poblar las estanterías de las tiendas y Microsoft ya está poniendo en marcha la maquinaria para su próximo Windows. Una vez desmentido de que fuera a ser el primer Windows "en la nube", se han podido saber algunos detalles de la siguiente generación de Windows.

Según hemos podido recoger del blog UX Evangelist y del de Mary Jo Foley, una de las principales novedades con las que va a contar Windows 8 es el manejo de ficheros. Hace tiempo Microsoft reclutaba ya programadores para desarrollar un sistema de mejoras para la replicación de archivos distribuidos en Windows 8. De los 12 equipos de programación que ya trabajan en el nuevo sistema, nueve al parecer se dedican a este punto concreto.

Otra mejora importante afectará a los sistemas de hibernación y suspensión. Por lo visto se aplicará un motor de compresión nuevo para que los archivos resultantes de los procesos de hibernación y suspensión sean más pequeños y el proceso sea más rápido, tanto al detener como al poner en marcha el sistema. Este nuevo proceso de compresión sustituiría el sistema Xpress de Windows Vista.

Un importante avance que se está desarrollando es la mejora del sistema PatchGuard presente en las versiones de 64 bits de Windows. Básicamente consiste en impedir a los programas que puedan modificar o "parchear" el núcleo del sistema operativo. En lo que respecta al entorno gráfico, según las noticias que hemos recogido se está emprendiendo el diseño de una nueva estructura definida como de "nueva generación".

Desde el punto de vista de los servidores, Windows 8 al parecer dispondrá de servidor de aplicaciones Dublin y su diseño será más adecuado para su instalación en centros de datos. Otro punto importante es la información de que 120 empresas de desarrollo de software participarán en la planificación de Windows 8. Al parecer se va a tener muy en cuenta la opinión de terceros para el desarrollo del sistema.

Ya hay precedentes de que algunas de las tecnologías desarrolladas para el siguiente Windows se han aplicado al sistema anterior, por lo que podríamos ver algunas de las características reseñadas aplicadas al propio Windows 7 a través de actualizaciones. Es posible que las primeras betas de Windows 8 puedan ver la luz incluso en 2010.

Intel 22 nm en 2011

IDF 2009. Paul Otellini, CEO de Intel, mostró una oblea de 300 milímetros (estándar en la industria de semiconductores) con los primeros chips funcionales construidos en el mundo mediante procesos tecnológicos de fabricación de 22 nanómetros. Además, reiteró los planes de la compañía para poner en el mercado los primeros microprocesadores con esta tecnología en 2011. Estos chips contendrán nada menos que 2.900 millones de transistores y utilizarán la tercera generación de la tecnología de fabricación de transistores high-k metal Gate.

Dos años después de presentar las primeras muestras fabricadas en 32 nanómetros, cuyos chips se pondrán a la venta a comienzos de 2010, Intel ha presentado un prototipo funcional -el primero del mundo en funcionamiento construido en procesos de 22 nm- con una densidad que dobla la de la generación de 32 nm en un área tan pequeña como una uña.

Los circuitos de prueba de 22 nanómetros incluyen la memoria SRAM y los circuitos lógicos que se usarán en los microprocesadores. Las células de SRAM de 0,108 y 0,092 micrómetros cuadrados funcionan en una matriz que totaliza 364 millones de bits y son las más pequeñas en circuitos reales que nadie ha conseguido construir.

El avance en los procesos de fabricación a 22 nanómetros permitiría al gigante del chip cumplir con la Ley de Moore, promulgada por el co-fundador de Intel y que establece que cada 18 meses se duplica el número de transistores en un circuito integrado. Para hacernos una idea, frente a los 731 millones de los Core i7 actuales, los chips de 22 nm tendrían 2.900 millones de transistores.

Además, permitiría la creación de microprocesadores más pequeños, de menor coste y consumo, aumentando de manera notable el rendimiento por vatio. Según el anuncio los primeros procesadores con esta tecnología llegarían en 2011.

El tamaño del kernel Linux

El ingeniero de software finlandés, Linus Benedict Torvalds, creador del kernel Linux y mantenedor del mismo, indicó durante una mesa redonda en LinuxCon 2009 que se celebra en Portland y a preguntas de un ingeniero de Novell, que el núcleo básico del sistema es enorme y está inflado reduciendo su rendimiento, quizá por incorporar demasiado rápido características al núcleo sin esperar que se estabilice antes. Una autocrítica que no ha sido bien entendida y ha iniciado el típico flame.

El evento organizado por la Fundación Linux se calienta por momentos (quizá sin mucho sentido), y si Bob Sutor, vicepresidente de código abierto y Linux en IBM, indicó ayer que “luchar contra Windows por cuota de mercado en los PCs es un callejón sin salida”, hoy ha sido Torvarlds el que ha impulsado un nuevo debate.

En una de las mesas redondas organizadas en la LinuxCon, el moderador y distinguido ingeniero de Novell, James Bottomley, citó un estudio interno de Intel que rastrea los lanzamientos del kernel determinando que su rendimiento había caído un 12 por ciento acumulado en los últimos lanzamientos. Con estos datos, Bottomley preguntó a Torvalds si era un problema que las características del kernel se estaban incorporando demasiado rápido sin esperar a que el kernel se estabilizara antes, reconociendo éste que “sí, que era un problema y que el kernel estaba inflado y era ya enorme”.

Preguntado por un plan para solucionarlo, Linus respondió que “Me encantaría decir que tenemos un plan. Quiero decir, algunas veces es un poco triste pensar que no contamos con el pequeño, aerodinámico e hiper-eficiente kernel que imaginé hace 15 años… El kernel es enorme y está inflado y la huella de nuestra cache asusta. No hay duda sobre eso, y siempre que agregamos una nueva característica, la situación empeora”. Sin embargo, resaltó la estabilidad del sistema “encontrando y corrigiendo errores tan rápido” como agregaban el código.

Las declaraciones de Torvalds sobre el “código enorme” y “el descenso de rendimiento” han servido para iniciar uno de los típicos flames en nuestra modesta opinión sin mucho sentido. Linus da la pista cuando indica que esta situación es “inaceptable pero inevitable”, lo que significa que forma parte de la misma arquitectura del kernel.

Un núcleo que ha pasado en diez años de un millón y medio a diez millones y medio de líneas del código fuente que tiene la versión 2.6.30. En número de ficheros ha pasado de 4.599 a los 27.878 que contiene la última versión, lo que da idea de la inmensidad de tecnologías, características, funciones o controladores que se han añadido. Lo dicho, un debate sin mucha sustancia fuera de la deseable optimización del código oficial, ya que como sabéis el núcleo Linux se puede recompilar para cada máquina y los sistemas operativos basados en él llegan al usuario final cada vez más optimizados, ayudados por el aumento del hardware.

Ubuntu se pone como objetivo arrancar en 5 segundos

Ubuntu

Las primeras pruebas con la Alpha 6 de la nueva versión de Ubuntu que llegará el 29 de octubre muestran mejoras significativas en el rendimiento. Particularmente en los tiempos de arranque y empleando unidades de estado sólido, en cuyos test con sistemas optimizados de la última versión de prueba de Ubuntu 9.10, logra ponerse en marcha en cinco segundos. El objetivo para arrancar cualquier equipo en menos de 25 segundos está al alcance, así como los 10 segundos máximos en Ubuntu 10.04.

Como sabéis, los desarrolladores de Ubuntu esperan que la versión final de Ubuntu 9.10 (sin optimizaciones y en cualquier tipo de hardware) tenga un tiempo de arranque de 25 segundos, para alcanzar con la versión 10.04 los 10 segundos como tiempo máximo para iniciar el sistema en cualquier equipo.

Ubuntu

Para comprobar el estado del desarrollo desde ars technica han realizado pruebas con la Alpha 6 recién publicada, sobre un portátil Dell Inspiron 1420n, confirmando las mejoras en el rendimiento con tiempos medios de arranque de 22 segundos, con el servidor Xorg comenzando a los 13 segundos.

Un tiempo de arranque que se ha logrado reducir a los 5 segundos optimizando el sistema operativo con almacenamiento basado en unidades de estado sólido y demonios como Sreadahead que elimina los tiempos de espera con dos partes diferenciadas, una que lee y otra que genera datos acelerando los tiempos de inicio.

No será la única mejora para lograr en la versión final de Ubuntu 10.04 los diez segundos máximos prometidos para cualquier tipo de equipo. La tarea más importante consistirá en levantar Xorg lo antes posible. Para ello reducirán el tiempo de carga de Initramfs -sistema de archivos temporal responsable de montar el sistema de ficheros raíz y cargar los módulos del kernel- y udev, el gestor que controla los ficheros de dispositivos.

La idea sería eliminar funciones innecesarias que retrasen el arranque del mismo y los desarrolladores ya tienen asignado el tiempo total de cada proceso para cumplir el objetivo: dos segundos para la carga del kernel e Initramfs, dos para controladores y montaje del sistema de archivos y otros dos para el servidor X.Org. Los cuatro segundos restantes se emplearían para iniciar el entorno de escritorio y otros servicios de usuario.

Grandes mejoras en el tiempo de arranque, en el rendimiento general, en la interfaz y en prácticamente todos los componentes de la distribución GNU/Linux más popular del mercado.

Retoca tus fotos en Pho.to

VicMan Software acaba de presentar en DEMOFall 09 su nuevo portal web de retoque de fotografías on-line. Gracias a ello, podemos eliminar los ojos rojos, ajustar el balance de blancos y brillo, entre otros, de nuestra imagen de manera sencilla y sin necesidad de tener que instalar ningún programa en el ordenador o smartphone desde el que estemos conectados. Sin duda alguna la plataforma promete buenos resultados y lo mejor de todo es que está disponible en español. Veamos qué tal pinta Pho.to.

El nuevo portal de retoque fotográfico Pho.to es accesible desde http://pho.to y está disponible en español, por lo que no habrá ningún problema para que puedas usarlo de manera sencilla. La gran mayoría de cámaras digitales e incluso las que los móviles integran no suelen conseguir gran calidad en las imágenes, obteniendo balances de blancos poco reales, ruido en imágenes oscuras e incluso los típicos ojos rojos. Pero gracias al retoque fotográfico se puede conseguir mejorar la gran mayoría de imágenes. Pho.to te ayudará en tales menesteres sin necesidad de conocimientos de retoque fotográfico.

Portal gratuito de retoque fotográfico Pho.to

El portal web nos invita además a aprender cómo sacar mejores fotografías mediante sencillos consejos, y lo más interesante es que además han realizado un API para que puedas integrar sus servicios en tu propia página web, para retocar de manera directa los ojos rojos, ajuste de brillo/contraste e incluso la creación de avatares animados, estilo Matrix por ejemplo.

Si queréis ver la totalidad de retoques, filtros y efectos no dudéis en visitar Pho.to

Disponible Mandriva Linux 2010 RC1

 

Mandriva Linux 2010 RC1

El equipo de Mandriva también muestra su intenso trabajo en su distribución y libera Mandriva Linux 2010 RC1. Esta es la primera versión candidata del nuevo sistema, quedará pasar por una segunda fase RC, una versión interna y la versión final para todos los usuarios que verá la luz el día 3 de noviembre, según los planes.

Por el momento podemos ir viendo cómo evoluciona el desarrollo de la distribución, cuyas versiones en desarrollo se encuentras disponibles para su descarga libre desde la página oficial del proyecto.

En esta Release Candidate 1 algunas de las características más importantes son:

  • Última versión del kernel de Linux y los entornos de escritorio GNOME, KDE y XFCE.
  • Integración de Nepomuk en KDE, una aplicación para añadir notas, etiquetas o comentarios a archivos o carpetas para facilitar la gestión y búsqueda de ficheros por parte del usuario.
  • Plymouth para el arranque del sistema, sustituyendo a Splashy.
  • VirtualBox 3, la última versión de la herramienta de virtualización de Sun.

El proceso de instalación de Mandriva sigue mejorando versión tras versión, hasta el punto de llegar a ser probablemente el más atractivo de todas las distribuciones actuales. Quizá la única pega que se le puede sacar es el paso del particionado de discos, que me sigue pareciendo poco intuitivo para usuarios que no tienen mucha experiencia en estos entornos.

Vía | Official Mandriva Blog
Enlace | Mandriva 2010 RC1

WebGL llegará en Firefox 3.7

El nuevo estándar de aceleración gráfica para navegadores y sitios web, que ha nacido de la mano del Grupo Khronos, padres del estandar OpenGL entre otros, y llegará como solución para aprovechar las capacidades de la tarjeta gráfica en navegadores web. Ello hará que la navegación sea más fluida y se puedan construir web más ricas en contenidos sin necesidad de disponer de un gran procesador, gracias al uso de la potencia de tu tarjeta gráfica tanto para renderizar y redibujar contenidos.

Mozilla ha anunciado que Firefox 3.7 será la primera versión de su popular navegador que integre WebGL, que como ya os anunciamos, será una nueva implementación de OpenGL aplicada al mundo de navegadores. Ello hará posible ejecutar de forma muy eficiente aplicaciones 3D en el navegador sin un gran impacto en la CPU, como sucede actualmente.

Firefox 3.7 integrará WebGL.

El desarrollador de Mozilla, Vladimir Vukićević, escribió sobre WebGL y el estado actual del proyecto, afirmando que se trata de la evolución de lo que Mozilla comenzó a denominar Canvas3D, que se trataba de una forma de acceder a OpenGL desde el navegador, a través de la etiqueta canvas de HTML5. Se produjo una estandarización del protocolo por parte del grupo Khronos, WebGL, y desde entonces el proyecto va avanzando rápidamente.

De hecho ha sido integrado en la última revisión del motor WebKit que integran Chrome y Safari, aunque no viene activado por defecto. Por parte de Mozilla, comentan que seguirán puliendo problemas actuales y será la versión Firefox 3.7 la primera en integrar WebGL.

Ubuntu 10.04 ya tiene nombre

En la conferencia Ubuntucon que tuvo lugar ayer, día del Software Libre, durante el Atlanta Linux Fest, Mark Shuttleworth anunció el nombre en clave de la siguiente versión de Ubuntu, versión 10.04. Se llamará Lucid Lynx y se espera su llegada para abril del próximo año, 2010. Ubuntu sigue avanzando paso a paso con la integración de nuevas versiones de kernel junto con soporte de nuevas características como EXT 4 o la tienda de aplicaciones Ubuntu, ya integrada en la última alpha, 9.10.

Finalmente y ya que se está aproximando la fecha estimada del final del desarrollo de la versión 9.10 de Ubuntu, primera beta el 1 de octubre y fecha de salida de la versión final 29 de octubre. Mark Shuttleworth, el impulsor económico de Canonical y Ubuntu, ha anunciado el nombre en clave de la siguiente versión de Ubuntu, Ubuntu 10.04, que será llamada Lucid Lynx. Según el ciclo de desarrollo de 6 meses debería llegar al mercado para finales de abril de 2010.

Nuevo Ubuntu 10.04, Lucid Lynx.

Ubuntu 9.10 (Karmic Koala) ya ha llegado a su versión alpha 6, aún verde, pero mostrando bastantes características nuevas, como son un arranque más rápido gracias a la eliminación del tradicional Usplash, la pantalla con Ubuntu y una barra de carga bajo ella que aparece durante el arranque. Ahora, al arrancar el equipo, verás la BIOS arrancando y posteriormente una pantalla negra, a la que sucede una pantalla de login con las X cargadas. Tras ello, aparecerá una pantalla denominada XSplash que permanecerá hasta que el escritorio cargue en segundo plano.

Otra de las novedades será que va a integrar una tienda de aplicaciones propia, conocida como Ubuntu Software Store que permitirá adquirir aplicaciones de manera sencilla y muy similar a las tiendas de aplicaciones que han nacido este año en telefonía móvil. No viene a ser más que una versión clasificada de Synaptic, el gestor gráfico de paquetes que integraba al distribución.

Ubuntu Software Store.

Puppy Linux 4.3, disponible

Los responsables de la distribución australiana GNU/Linux Puppy Linux han publicado la versión final 4.3 de la misma. Una versión minimalista en formato LiveCD, autoejecutable sin necesidad de instalación a unidades de almacenamiento, especializada en sacar el máximo partido a equipos de baja potencia. La versión 4.3 únicamente pesa 110 Mbytes y viene cargada de las aplicaciones necesarias para ofimática, reproducción multimedia y acceso a herramientas y servicios de Internet. Distro perfecta para revivir tu viejo ordenador.

Puppy Linux 4.3 utiliza la versión 2.6.30.5 del kernel y cuenta con soporte completo para el sistema de archivos ext4, con la actualización de GParted, e2fsprogs, disktype y GRUB. A destacar el nuevo sistema de gestión de paquetes, denominado Puppy Package Manager, que soporta el formato de cualquier distribución.

Entre los cambios y mejoras que podemos leer en las notas de la versión se encuentran el soporte para acceso a Internet desde módem telefónico analógico, la interfaz gráfica Pstreamvid para vídeo en streaming, el gestor de ventanas JWM Theme Maker, herramientas de reproducción de audio como Aqualung y PCD, utilidad para captura de pantalla derivado de mtPain, el editor NicoEdit, el cliente de chat Ayttm, una barra lateral de gadgets y una larga lista junto a las correcciones de errores reportados desde la versión anterior.

Puppy Linux 4.3 sigue utilizando la suite de Internet Sea Monkey de Mozilla que cuenta con navegador web, cliente de correo electrónico, libreta de contactos, editor de páginas web y cliente de IRC. Además incluye el procesador de textos Abiword, el editor de dibujo Draw o la interfaz de reproducción multimedia Gxin, junto a la multitud de aplicaciones de código abierto que se pueden encontrar en su repositorio. En los enlaces puedes encontrar más información y la descarga.

Luz de la muerte en la PS3

Al igual que en su día la Xbox 360 comenzó a fallar sin previo aviso mostrando los famosos “anillos rojos de la muerte”, a algunos modelos de PS3 les está ocurriendo algo similar, una luz amarilla intermitente que indica la "muerte" de la consola. Una avería que deja inservible la máquina y que parece ir en aumento principalmente con el modelo de 60 Gbytes a partir de los 18 meses de vida. Aunque la incidencia de fallos de la PS3 es muy inferior al de la 360, el tema preocupa según explica un reportaje de la web de consumo de la BBC.

Ciertamente no hay comparación posible en los dos casos (al menos de momento), ya que la incidencia en la Xbox360 ha sido infinitamente superior y algunos la estiman en un 68% de unidades. Un problema muy grave de fiabilidad, que afectaba a los primeros modelos, pero al que Microsoft respondió "dando la cara" con la actualización de componentes en la placa base del modelo y especialmente con un programa de ampliación de garantías ante el cariz que estaba tomando la situación: algunos usuarios cambiaron la consola hasta cuatro veces, eso sí, reparadas gratuitamente por el servicio técnico.

Quizá por el fiasco de las primeras Xbox360, la luz amarilla de las PS3 está comenzando a preocupar en el Reino Unido aunque de momento la incidencia afecta a 12.500 consolas sobre 2,5 millones de unidades. Una cifra oficial de Sony, que de no ser realmente superior o no aumentar en el futuro, podríamos considerar como “admisible” en este tipo de producto.

La compañía indica sobre esta avería que "no hay ningún fallo inherente o algún defecto de diseño en PlayStation 3” y la luz amarilla de la muerte (un término que no gusta nada en Sony) “puede desencadenarse por varios motivos”. Este argumento es la línea fundamental que separa no tener que cambiarlas masivamente o ampliar los periodos de garantía como en las Xbox360, donde sí se demostró que era un problema interno y crónico de las consolas.

Garantía, que es donde radica el principal problema ya que Sony sustituye las consolas averiadas por este fallo (del que la compañía no ha publicado el motivo concreto) en los primeros 12 meses. El problema llega en los meses posteriores cuando la incidencia de la avería es superior, y donde Sony factura 145 libras por la sustitución o reparación del modelo. Esperemos que este tipo de incidencias no aumenten ya que la situación cambiaría si se demuestra que el fallo es problema de diseño o componentes internos, un caso que a Microsoft, dicen, le costó la friolera de 1.000 millones de dólares por la extensión del programa de garantía.