martes, 8 de enero de 2008

Matsushita lanza el televisor más grande del mundo, 150 pulgadas

BUEHHH CEGATONES LLEGO SU HORA

El conglomerado japonés de electrónica Matsushita Electric Industrial lanzó el lunes un televisor plasma de 150 pulgadas, que según la empresa es el más grande del mundo.

El aparato, dado a conocer en la Feria de Electrónica de Consumo de Las Vegas, superó al plasma de 103 pulgadas que el fabricante de la marca Panasonic lanzó el año pasado. El televisor de 103 pulgadas ha vendido 3.000 unidades en el último año, dijo Matsushita.

Matsushita, el mayor fabricante de televisores plasma del mundo, dijo que el televisor de 150 pulgadas (medido diagonalmente), llamado "Life Screen", estará disponible en el 2009 a un precio que no se dio a conocer, pero que estaría dirigido principalmente a un uso comercial.*.

viernes, 4 de enero de 2008

Ahora Utilizan la Estrategia de Colmena Para Mejorar Internet


De alguna forma, las abejas se las ingenian para recolectar eficientemente una gran cantidad de néctar con recursos limitados y sin una autoridad central; después de todo, la abeja reina está muy ocupada poniendo huevos para supervisar algo tan mundano como dónde se puede encontrar el mejor néctar en una mañana específica. Según una nueva investigación del Instituto Tecnológico de Georgia, la inteligencia de enjambre de estas abejas asombrosamente organizadas también puede usarse para mejorar la eficiencia de servidores de internet con retos que, aunque no lo parezca, en el fondo son muy similares.

Un sistema de comunicaciones basado en la danza que las abejas ejecutan para comunicarse entre ellas, desarrollado por el Tecnológico de Georgia, ayuda a servidores de internet que normalmente deberían estar dedicados sólo a una tarea, a moverse entre tareas según sea necesario, reduciendo las posibilidades de que un sitio web pueda verse sobrepasado con peticiones y no pueda atender a usuarios y clientes potenciales. Comparado con la forma en que operan comúnmente los servidores de bancos, el método de las abejas suele mejorar el servicio de un 4 a un 25 por ciento en tests basados en tráficos reales de internet.

Después de estudiar la eficiencia de las abejas, el profesor Craig Tovey (del Tecnológico de Georgia), a través de conversaciones con su colega Sunil Nakrani (experto en ciencias de la computación, de la Universidad de Oxford), se dio cuenta de que las abejas y los servidores tienen que vencer obstáculos sorprendentemente similares para ser eficientes.

Las abejas tienen un número limitado de obreras en cualquier momento dado para volar hacia las flores, recolectar el néctar, regresar a la colmena y repetir este proceso hasta que se agote la fuente de alimento. Algunas veces, hay abundante néctar para recolectar; otras veces escasea. El entorno de las abejas está cambiando de manera constante; algunas parcelas de flores ocasionalmente producen un néctar mucho mejor que otras, las estaciones cambian y los días lluviosos hacen difícil la recolección del néctar.

Los servidores de internet, que proporcionan la potencia de computación necesaria para mantener los sitios web en marcha y accesibles, están organizados típicamente como una cantidad determinada de servidores dedicados a determinado cliente o sitio web. Cuando los usuarios acceden a un sitio web, los servidores proporcionan potencia de cómputo hasta que se satisfagan todas las solicitudes para acceder y utilizar el sitio. En ocasiones, hay una gran cantidad de peticiones para acceder a un sitio (por ejemplo, una tienda online de una compañía de confecciones después de un efectivo anuncio publicitario televisivo durante un evento deportivo popular) y a veces hay muy pocas. Predecir la demanda para los sitios web, incluyendo si un usuario accederá a un videoclip o si iniciará una compra, es extremadamente difícil en un contexto tan variable como es internet, y con frecuencia los servidores se sobrecargan y más tarde se quedan inactivos, de maneras impredecibles.

Las abejas afrontan sus problemas utilizando un sistema de comunicación automático y simple, basado en "danzas". Las abejas exploradoras dejan la colmena en busca de néctar. Una vez que han encontrado un lugar prometedor, regresan a la colmena (la "pista de baile") y realizan una danza. Las peculiaridades del baile indican a las abejas que esperaban, hacia qué dirección volar, la distancia hasta la parcela de flores y la dulzura del néctar.

Las abejas exploradoras danzan ante las otras hasta que éstas reciben la información. Entonces, salen a recolectar el néctar siguiendo las indicaciones que a través de la danza les han proporcionado las compañeras que ya han estado allí. Mientras siga habiendo néctar disponible para ser recolectado, las abejas que regresan a la colmena seguirán ejecutando la danza, y otras abejas continuarán volando a la fuente de néctar hasta que la danza va perdiendo fuerza porque la provisión de néctar ha menguado mucho y ya no despierta tanto entusiasmo, o porque otra abeja ha estado en un sitio que ahora resulta mejor y por eso su danza es mucho más elocuente.

Aunque este modelo de las danzas puede no sonar, a priori, como un sistema de gran eficacia, resulta óptimo para el mundo impredecible de fuentes de néctar en el que se desarrolla el día a día de las abejas. Su sistema es automático y permite a la perfección que las abejas dejen de volar hacia una fuente de néctar para hacerlo hacia una que sea mejor, en cuestión de minutos, siguiendo la marcha imprevisible de los acontecimientos. Y todo esto sin una líder clara ni un centro de mando que se ocupe de procesar los datos, tomar decisiones y dar las órdenes oportunas.

Tovey y Nakrani trasladaron la estrategia de las abejas a los servidores de internet desocupados o con escasa actividad (las abejas que aguardan en la colmena). Desarrollaron una "danza" virtual para la red de servidores. Cuando un servidor recibe la petición de un usuario para acceder a un determinado sitio web, un anuncio interno es colocado en la "pista de baile" para atraer a servidores disponibles. La duración del anuncio depende de la demanda que tenga el sitio web y del nivel de beneficios comerciales que puedan generar sus usuarios. Cuanto más tiempo permanece un anuncio sobre la pista de baile, más potencia dedican los servidores disponibles a atender las peticiones de acceso al sitio web anunciado.

Representación Gráfica de Conjuntos Inmensos de Datos Para Detectar Peligros


Poco después del 11-S, los estadounidenses se preguntaron alarmados: ¿Cómo nuestros servicios de vigilancia pasaron por alto los indicios? Sospechosos que figuraban en listas de observación movieron dinero en formas llamativas. El "parloteo" sospechoso había aumentado en los meses anteriores. Un sujeto de visita en el país había ofrecido dinero en efectivo para aprender a pilotar, pero no a aterrizar, un avión de pasajeros. En retrospectiva, estas pepitas de información delatora proporcionaron indicios del terrible ataque que se avecinaba.

El problema fue que la mayoría de tales pepitas estaban ocultas en medio de una avalancha de datos que llegaron más rápido de lo que los analistas podían procesar. La recogida de datos de un día podría llenar más de 6 millones de iPods de 160 gigas. Lo que es más, como las personas, las pepitas algunas veces discrepan. Y, como una historia contada y recontada que se va distorsionando, sus mensajes cambiaron, a veces de manera imperceptible.

Finalmente, la mayoría de las pepitas están bajo la forma de datos difusos no estructurados. Por ejemplo, el mismo rostro puede aparecer en tres videos de vigilancia. Tales indicios, como la mayoría, no vienen convenientemente empaquetados en una hoja de cálculo ordenada o en un texto escudriñable letra a letra; deben ser inferidos a partir de fotos, videos y voces.

Para impedir un próximo 11-S, los analistas deben mezclar, por así decirlo, el ojo enciclopédico de Google con el genio deductivo de Sherlock Holmes.

A finales del siglo pasado, Edward Tufte catalogó formas de visualizar datos estructurados (por ejemplo, horarios de trenes) o similares (por ejemplo, tasas de mortalidad). Hoy en día, los investigadores de la Dirección de Ciencia y Tecnología del Departamento de Seguridad Nacional de Estados Unidos están creando formas de apreciar datos difusos como una imagen tridimensional donde los indicios de amenazas pueden resaltar de entre todo lo demás.

El emergente campo del análisis visual lleva ahora el trabajo de Tufte a su siguiente fase. Los investigadores que trabajan en esta labor están automatizando la forma en que los analistas reconocen y valoran las amenazas potenciales. Los matemáticos, lingüistas y expertos en lógica hacen que el universo colectivo de datos asuma una forma significativa. Ellos le asignan brillo, color, textura, y tamaño a miles de millones de datos conocidos o supuestos, y crean reglas para integrar estos valores de forma que resalten las amenazas. Por ejemplo, las grabaciones de video de un día, llamadas de teléfonos móviles, fotos, registros bancarios, salas de chat en internet y mensajes de correo electrónico, pueden tomar la forma de una nube gris azulada. Si un gran peligro acecha a Los Ángeles y a Boston, estas ciudades son resaltadas en un mapa de Estados Unidos.

Las imágenes estáticas de un mes pueden ser animadas como una película que presenta de manera acelerada el paso del tiempo, y en la que una "cordillera" creciendo revela una amenaza en auge.

Pasarán años antes que el análisis visual pueda detectar automáticamente pistas a partir de datos difusos tales como el video, pero se van haciendo progresos hacia esa meta.

Motocicleta Eléctrica Plegable y Barata


Es energéticamente eficaz, limpia, compacta y simple, y tiene una apariencia maravillosa. Todos estos factores pueden ser significativos para lograr que las personas adopten una motocicleta ligera de tipo vespa propulsada por electricidad, diseñada por el profesor William J. Mitchell y sus colegas en el MIT, en colaboración con SYM, uno de los mayores fabricantes de vespas en Taiwán, y con el ITRI (el Instituto de Investigación Tecnológica Industrial de Taiwán). Un prototipo del nuevo diseño fue un éxito en la Feria Automovilística de Milán, donde fue presentada hace varias semanas.

Las vespas son un medio de transporte muy popular en las ciudades asiáticas y europeas, debido a que resultan un modo barato y fácil de desplazarse. Pero las vespas convencionales, que utilizan motores ineficientes de dos tiempos a gasolina, son también una fuente local de contaminación del aire. El nuevo diseño fue orientado a proporcionar una vespa eléctrica limpia, ecológica y silenciosa que podrá aportar, e inclusive mejorar, el mismo tipo de movilidad urbana.

A manera de valor añadido, la simplicidad del diseño eléctrico, que elimina algunos mecanismos complejos situando los motores directamente dentro de cada una de las dos ruedas, hizo posible diseñar la vespa de forma que pueda plegarse hasta cerca de la mitad de su tamaño, haciendo aún más fácil de alojar en los abarrotados entornos urbanos.

En las áreas urbanas muy masificadas donde aparcar vehículos, incluso motos convencionales, es un gran problema, el tamaño pequeño de esta motocicleta eléctrica es una gran ventaja. Hace posible estacionarla en calles estrechas. Cuando está plegada, también se la puede arrastrar sobre sus ruedas como a una de esas típicas maletas de viaje provistas de ruedecillas, y no es más grande, haciendo sencillo llevarla en trenes o inclusive dejarla en habitaciones de capacidad discreta.

El diseño simplificado podrá hacer descender los costos de producción de manera significativa. Una vespa de gasolina típica tiene cerca de 1.000 piezas, pero la nueva tiene sólo 150.

El proyecto entero de diseño, partiendo de la hoja en blanco hasta llegar al concepto ya construido, fue ejecutado en tan sólo ocho meses.

El equipo ahora planea desarrollar más el prototipo para crear dos modelos de producción diferentes. Uno será un refinamiento de la vespa plegable presentada en Milán, y el otro será un modelo más sencillo, sin la capacidad de poder ser plegado, que se fabricará para regiones donde el bajo costo es más importante y las restricciones de espacio no son tan cruciales.

jueves, 3 de enero de 2008

Adios Bill Gates


Bill Gates ya está empacando sus maletas. El 'chief software architect' de Microsoft saldrá de su oficina para no volver en Junio del 2008 a la edad de 53 años.

Nadie en la historia de la computación le ha dado el empuje a la tecnología como Billy. Te guste o no, mas de un 95 por ciento de las computadoras de hoy tienen el software de Gates instalado como sistema operativo. Pero la mayoría de las personas se enfocan en los fallos del hombre de negocios que en sus éxitos.

Gates es sinónimo de 'Pantalla azul de la muerte', con los recuerdos de relaciones públicas en el mundo de la informática y por su monopolio y el hecho de evitar la mayoría de las condenas propuestas contra él dentro de los Estados Unidos.

Se puede hablar mucho sobre lo que odiamos de Gates, pero al final todo lo que queda es su cuenta de banco...algo que puede silenciar a la mayoría de los críticos.

En el 2008, Bill planifica trabajar mas dedicadamente a su fundación de caridad y ayudar a los desposeídos con la fortuna que ha hecho. Puedes no estar de acuerdo con la forma en la que se ganó su dinero, pero no podrás refutar la forma en la que lo gastará.

viernes, 28 de diciembre de 2007

IE 8 ha aprobado la "prueba del ácido" para estándares web


Una versión beta del próximo navegador de Microsoft incorpora soporte mejorado para importantes estándares web.

Durante varios años, el navegador Internet Explorer de Microsoft ha sido objeto de críticas debido a que no ha observado cabalmente algunos de los estándares web más importantes, como HTML y CSS. Esta situación surgió debido a que Microsoft no dedicó mayores esfuerzos a desarrollar el navegador desde la versión 6, lanzada en 2001, hasta la versión 7 lanzada en octubre de 2006.

Aunque IE7 representó una importante actualización, el navegador no es del todo compatible con los estándares vigentes. Cabe señalar que ningún navegador tiene un soporte 100% compatible con los estándares, aunque los competidores de IE asignan mayor importancia a tal factor que Microsoft.

Después de haber tenido una cuota del mercado del 90%, el dominio de Internet Explorer se está reduciendo marcadamente. El 80% de los usuarios de Internet continúa usando IE, aunque hay millones de usuarios que ya prefieren navegadores alternativos. Esta es una situación que Microsoft necesariamente debe tener en consideración.

Si todos los navegadores fuesen compatibles con los mismos estándares, los usuarios de Internet evitarían encontrarse con sitios diseñados especialmente para navegadores determinados. En la mayoría de los casos, los sitios son adaptados al navegador dominante. Para los desarrolladores de sitios web, al existir navegadores compatibles los sitios pueden ser desarrollados según los estándares y no necesitan ser adaptados especialmente a cada navegador.

La versión 8 de Internet Explorer incorporará varias mejoras respecto de la compatibilidad con estándares. En un blog, el director del Grupo Internet Explorer de Microsoft, Dean Machamovitch, escribe que la versión beta de IE8 ha aprobado la difícil prueba Acid2.

Hasta el momento, solo Konqueror y Safari han aprobado la prueba. Si desea probar la compatibilidad de su navegador haga clic en el enlace al final de este artículo (sitio de Webstandards.org). La imagen mostrada por el navegador debería ser idéntica a la ilustración.

miércoles, 26 de diciembre de 2007

Sofisticados Modelos Tridimensionales de Lugares Usando Fotos de Aficionados


Más de 10 millones de miembros del sitio web Flickr de intercambio de fotos fotografían sus entornos y entonces publican estas fotos en internet. Unos investigadores en la Universidad de Washington están realizando la operación inversa, descargan miles de fotos desde Flickr y las utilizan para recrear las escenas originales. Estas fotos pueden ser empleadas para crear un modelo virtual 3D de lugares distintivos, incluyendo la Catedral de Notre Dame en París y la Estatua de la Libertad en la Ciudad de Nueva York.

El gran logro aquí es la capacidad de computar modelos tridimensionales muy exactos a partir de las típicas fotos de vacaciones que la gente toma. La perspectiva a largo plazo es tener la capacidad de reconstruir la geometría detallada de todas las estructuras en la superficie de la Tierra. Muchas personas están trabajando para alcanzar ese ambicioso objetivo, pero al utilizar colecciones fotográficas online, la labor adquiere una nueva dimensión, prometedora aunque también desafiante, al poder contar con una inmensa cantidad de imágenes pero también con niveles de detalle muy distintos.

Los sitios web de intercambio de imágenes tales como Flickr y Google son populares debido a que ofrecen una manera fácil y gratuita de compartir fotos. Flickr contiene ahora más de mil millones de fotos; una búsqueda para "Notre Dame París" encuentra más de 80.000 documentos. Los autores del estudio, expertos en visión por ordenador, creen que ésta es la fuente más diversa y menos explotada de imágenes digitales del mundo.

Pero las fotos disponibles libremente presentan un reto: son fotografías personales y recreativas, sin mayores pretensiones, no imágenes profesionales con calidad de laboratorio orientadas a la investigación científica. Aunque algunas sí pueden ser representaciones profesionalmente perfectas de un escenario, dignas de una postal, otras pueden ser oscuras, borrosas o tener personas cubriendo la mayor parte de la escena.

Para realizar los modelos digitales en 3D, los investigadores comienzan por descargar todas las fotos disponibles del objetivo seleccionado. Por ejemplo, podrían descargar las aproximadamente 60.000 imágenes de Flickr que están etiquetadas con las palabras "Estatua de la Libertad". El sistema informático encuentra fotos que podrán ser utilizadas en la reconstrucción y descarta otras que son de muy baja calidad fotográfica o tienen demasiadas partes tapadas por personas u objetos. El Photo Tourism (Foto Turismo), una herramienta informática desarrollada en la Universidad de Washington, calcula entonces el punto exacto desde el cual cada persona tomó su fotografía. Comparando 2 fotos del mismo objetivo que fueron tomadas desde perspectivas ligeramente diferentes, el software aplica principios de visión por ordenador para determinar la distancia a cada punto.

En las pruebas realizadas, una computadora empleó menos de 2 horas en hacer una reconstrucción tridimensional de la Basílica de San Pedro en Roma, utilizando 151 fotos tomadas por 50 fotógrafos diferentes. Una reconstrucción de la Catedral de Notre Dame usó 206 imágenes tomadas por 92 personas. Todos los cálculos y el proceso de ordenar las imágenes se realizaron automáticamente.
Búsqueda personalizada