viernes, 4 de enero de 2008
Motocicleta Eléctrica Plegable y Barata
Es energéticamente eficaz, limpia, compacta y simple, y tiene una apariencia maravillosa. Todos estos factores pueden ser significativos para lograr que las personas adopten una motocicleta ligera de tipo vespa propulsada por electricidad, diseñada por el profesor William J. Mitchell y sus colegas en el MIT, en colaboración con SYM, uno de los mayores fabricantes de vespas en Taiwán, y con el ITRI (el Instituto de Investigación Tecnológica Industrial de Taiwán). Un prototipo del nuevo diseño fue un éxito en la Feria Automovilística de Milán, donde fue presentada hace varias semanas.
Las vespas son un medio de transporte muy popular en las ciudades asiáticas y europeas, debido a que resultan un modo barato y fácil de desplazarse. Pero las vespas convencionales, que utilizan motores ineficientes de dos tiempos a gasolina, son también una fuente local de contaminación del aire. El nuevo diseño fue orientado a proporcionar una vespa eléctrica limpia, ecológica y silenciosa que podrá aportar, e inclusive mejorar, el mismo tipo de movilidad urbana.
A manera de valor añadido, la simplicidad del diseño eléctrico, que elimina algunos mecanismos complejos situando los motores directamente dentro de cada una de las dos ruedas, hizo posible diseñar la vespa de forma que pueda plegarse hasta cerca de la mitad de su tamaño, haciendo aún más fácil de alojar en los abarrotados entornos urbanos.
En las áreas urbanas muy masificadas donde aparcar vehículos, incluso motos convencionales, es un gran problema, el tamaño pequeño de esta motocicleta eléctrica es una gran ventaja. Hace posible estacionarla en calles estrechas. Cuando está plegada, también se la puede arrastrar sobre sus ruedas como a una de esas típicas maletas de viaje provistas de ruedecillas, y no es más grande, haciendo sencillo llevarla en trenes o inclusive dejarla en habitaciones de capacidad discreta.
El diseño simplificado podrá hacer descender los costos de producción de manera significativa. Una vespa de gasolina típica tiene cerca de 1.000 piezas, pero la nueva tiene sólo 150.
El proyecto entero de diseño, partiendo de la hoja en blanco hasta llegar al concepto ya construido, fue ejecutado en tan sólo ocho meses.
El equipo ahora planea desarrollar más el prototipo para crear dos modelos de producción diferentes. Uno será un refinamiento de la vespa plegable presentada en Milán, y el otro será un modelo más sencillo, sin la capacidad de poder ser plegado, que se fabricará para regiones donde el bajo costo es más importante y las restricciones de espacio no son tan cruciales.
jueves, 3 de enero de 2008
Adios Bill Gates
Bill Gates ya está empacando sus maletas. El 'chief software architect' de Microsoft saldrá de su oficina para no volver en Junio del 2008 a la edad de 53 años.
Nadie en la historia de la computación le ha dado el empuje a la tecnología como Billy. Te guste o no, mas de un 95 por ciento de las computadoras de hoy tienen el software de Gates instalado como sistema operativo. Pero la mayoría de las personas se enfocan en los fallos del hombre de negocios que en sus éxitos.
Gates es sinónimo de 'Pantalla azul de la muerte', con los recuerdos de relaciones públicas en el mundo de la informática y por su monopolio y el hecho de evitar la mayoría de las condenas propuestas contra él dentro de los Estados Unidos.
Se puede hablar mucho sobre lo que odiamos de Gates, pero al final todo lo que queda es su cuenta de banco...algo que puede silenciar a la mayoría de los críticos.
En el 2008, Bill planifica trabajar mas dedicadamente a su fundación de caridad y ayudar a los desposeídos con la fortuna que ha hecho. Puedes no estar de acuerdo con la forma en la que se ganó su dinero, pero no podrás refutar la forma en la que lo gastará.
viernes, 28 de diciembre de 2007
IE 8 ha aprobado la "prueba del ácido" para estándares web
Una versión beta del próximo navegador de Microsoft incorpora soporte mejorado para importantes estándares web.
Durante varios años, el navegador Internet Explorer de Microsoft ha sido objeto de críticas debido a que no ha observado cabalmente algunos de los estándares web más importantes, como HTML y CSS. Esta situación surgió debido a que Microsoft no dedicó mayores esfuerzos a desarrollar el navegador desde la versión 6, lanzada en 2001, hasta la versión 7 lanzada en octubre de 2006.
Aunque IE7 representó una importante actualización, el navegador no es del todo compatible con los estándares vigentes. Cabe señalar que ningún navegador tiene un soporte 100% compatible con los estándares, aunque los competidores de IE asignan mayor importancia a tal factor que Microsoft.
Después de haber tenido una cuota del mercado del 90%, el dominio de Internet Explorer se está reduciendo marcadamente. El 80% de los usuarios de Internet continúa usando IE, aunque hay millones de usuarios que ya prefieren navegadores alternativos. Esta es una situación que Microsoft necesariamente debe tener en consideración.
Si todos los navegadores fuesen compatibles con los mismos estándares, los usuarios de Internet evitarían encontrarse con sitios diseñados especialmente para navegadores determinados. En la mayoría de los casos, los sitios son adaptados al navegador dominante. Para los desarrolladores de sitios web, al existir navegadores compatibles los sitios pueden ser desarrollados según los estándares y no necesitan ser adaptados especialmente a cada navegador.
La versión 8 de Internet Explorer incorporará varias mejoras respecto de la compatibilidad con estándares. En un blog, el director del Grupo Internet Explorer de Microsoft, Dean Machamovitch, escribe que la versión beta de IE8 ha aprobado la difícil prueba Acid2.
Hasta el momento, solo Konqueror y Safari han aprobado la prueba. Si desea probar la compatibilidad de su navegador haga clic en el enlace al final de este artículo (sitio de Webstandards.org). La imagen mostrada por el navegador debería ser idéntica a la ilustración.
miércoles, 26 de diciembre de 2007
Sofisticados Modelos Tridimensionales de Lugares Usando Fotos de Aficionados
Más de 10 millones de miembros del sitio web Flickr de intercambio de fotos fotografían sus entornos y entonces publican estas fotos en internet. Unos investigadores en la Universidad de Washington están realizando la operación inversa, descargan miles de fotos desde Flickr y las utilizan para recrear las escenas originales. Estas fotos pueden ser empleadas para crear un modelo virtual 3D de lugares distintivos, incluyendo la Catedral de Notre Dame en París y la Estatua de la Libertad en la Ciudad de Nueva York.
El gran logro aquí es la capacidad de computar modelos tridimensionales muy exactos a partir de las típicas fotos de vacaciones que la gente toma. La perspectiva a largo plazo es tener la capacidad de reconstruir la geometría detallada de todas las estructuras en la superficie de la Tierra. Muchas personas están trabajando para alcanzar ese ambicioso objetivo, pero al utilizar colecciones fotográficas online, la labor adquiere una nueva dimensión, prometedora aunque también desafiante, al poder contar con una inmensa cantidad de imágenes pero también con niveles de detalle muy distintos.
Los sitios web de intercambio de imágenes tales como Flickr y Google son populares debido a que ofrecen una manera fácil y gratuita de compartir fotos. Flickr contiene ahora más de mil millones de fotos; una búsqueda para "Notre Dame París" encuentra más de 80.000 documentos. Los autores del estudio, expertos en visión por ordenador, creen que ésta es la fuente más diversa y menos explotada de imágenes digitales del mundo.
Pero las fotos disponibles libremente presentan un reto: son fotografías personales y recreativas, sin mayores pretensiones, no imágenes profesionales con calidad de laboratorio orientadas a la investigación científica. Aunque algunas sí pueden ser representaciones profesionalmente perfectas de un escenario, dignas de una postal, otras pueden ser oscuras, borrosas o tener personas cubriendo la mayor parte de la escena.
Para realizar los modelos digitales en 3D, los investigadores comienzan por descargar todas las fotos disponibles del objetivo seleccionado. Por ejemplo, podrían descargar las aproximadamente 60.000 imágenes de Flickr que están etiquetadas con las palabras "Estatua de la Libertad". El sistema informático encuentra fotos que podrán ser utilizadas en la reconstrucción y descarta otras que son de muy baja calidad fotográfica o tienen demasiadas partes tapadas por personas u objetos. El Photo Tourism (Foto Turismo), una herramienta informática desarrollada en la Universidad de Washington, calcula entonces el punto exacto desde el cual cada persona tomó su fotografía. Comparando 2 fotos del mismo objetivo que fueron tomadas desde perspectivas ligeramente diferentes, el software aplica principios de visión por ordenador para determinar la distancia a cada punto.
En las pruebas realizadas, una computadora empleó menos de 2 horas en hacer una reconstrucción tridimensional de la Basílica de San Pedro en Roma, utilizando 151 fotos tomadas por 50 fotógrafos diferentes. Una reconstrucción de la Catedral de Notre Dame usó 206 imágenes tomadas por 92 personas. Todos los cálculos y el proceso de ordenar las imágenes se realizaron automáticamente.
Retrasos en el Tránsito de Rayos Gamma Pueden Delatar una Física Más Allá del Modelo Establecido
Mediante el telescopio MAGIC, se ha descubierto que unos fotones de alta energía de radiación gamma provenientes de una galaxia distante llegaron a la Tierra cuatro minutos después que los fotones de baja energía, aunque al parecer fueron emitidos simultáneamente. Si esto es cierto, sería una contradicción de la Teoría de la Relatividad de Einstein, que dice que todos los fotones (las partículas de luz) deben moverse a la velocidad de la luz.
Daniel Ferenc, profesor de física en la Universidad de California en Davis y miembro del equipo de colaboradores del MAGIC, advierte, sin embargo, que los resultados necesitan ser repetidos con otras fuentes de rayos gamma y que no se ha descartado una explicación más simple. Pero que, en cualquier caso, esto demuestra que tales mediciones son posibles de hacer.
Los investigadores proponen que el retraso pudiera ser producido por las interacciones entre los fotones y la "espuma cuántica", un tipo de estructura del propio espacio. La espuma cuántica está predicha por la Teoría de la Gravedad Cuántica, un esfuerzo para unir la física cuántica y la relatividad a escalas cósmicas.
Los astrónomos dirigieron el telescopio hacia Markarian 501, una galaxia a quinientos millones de años-luz de distancia que contiene un "blazar", un agujero negro masivo que emite estallidos de rayos gamma. Parte de la materia que se precipita hacia el agujero negro, es comprimida en chorros que son expulsados desde los polos del agujero a velocidades cercanas a la de la luz. Estos chorros brutales producen destellos de rayos gamma de varios minutos de duración.
Los investigadores separaron los fotones de alta y de baja energía de los rayos gamma de cada uno de esos fogonazos provenientes del objeto. En colaboración con un grupo de físicos teóricos dirigido por John Ellis, del CERN, el equipo del MAGIC llegó a la conclusión de que los fotones de alta y de baja energía parecían haber sido emitidos al mismo tiempo. Pero los fotones de alta energía llegaron cuatro minutos tarde, después de viajar a través del espacio durante aproximadamente 500 millones de años.
Como Predecir el Comportamiento de las Ondas Evanescentes
Investigadores del Instituto Tecnológico de Georgia han descubierto una forma de predecir el comportamiento de las ondas evanescentes durante la transferencia a escala nanométrica de calor por radiación, abriendo el camino al diseño de una nueva gama de nanodispositivos y nanotecnologías, incluyendo tecnologías para la energía térmica solar.
Los dispositivos de tamaño nanométrico presentan un desafío único para cualquier tecnología óptica: no hay suficiente espacio para que la luz viaje en línea recta.
En la escala nanométrica, la energía puede producirse por los fotones de luz radiados entre dos superficies muy cercanas, a veces tan cerca como 10 manómetros, una distancia más pequeña que la longitud de onda de la luz. La luz se comporta de modo muy diferente en la escala nanométrica ya que su longitud de onda se interrumpe, produciendo ondas inestables denominadas ondas evanescentes. La dirección de estas ondas imprevisibles no puede ser calculada, por lo que los investigadores se enfrentan a la desalentadora tarea de diseñar nanotecnologías para que operen en tales condiciones de incertidumbre y a pesar de ello logren aprovechar las ondas de luz.
Para estudiar las ondas evanescentes, el equipo de investigación del Tecnológico de Georgia partió de la transferencia de energía por radiación en la escala nanométrica (entre dos superficies muy cercanas a diferentes temperaturas, por medio de la radiación térmica). Puesto que la dirección de las ondas evanescentes aparentemente es imposible de conocer en términos de la física (se le adjudica pues un valor imaginario), el grupo de Zhang optó por seguir la dirección del flujo de energía electromagnética para predecir su comportamiento, en lugar de la dirección de los fotones.
"Estamos empleando la electrodinámica clásica para explicar el comportamiento de las ondas, no la mecánica cuántica", señala el investigador Zhuomin Zhang. "Estamos prediciendo la propagación de la energía, y no el movimiento real, de los fotones".
El reto de ese trabajo consiste en que la electrodinámica funciona de modo diferente a escala nanométrica, y el equipo del Tecnológico de Georgia necesitó localizar esas diferencias. La ley de Planck, una teoría con más de cien años de antigüedad sobre cómo se radian las ondas electromagnéticas, no se aplica en el ámbito nanométrico debido a que el espacio entre las superficies es más pequeño que la longitud de onda.
El equipo del Tecnológico de Georgia observó que en lugar de la radiación en línea recta normal, la luz era doblada cuando los protones sufrían el efecto túnel a través del vacío entre las dos superficies separadas sólo por una distancia de pocos nanómetros. El equipo también notó que las ondas evanescentes se separaban durante este proceso térmico, permitiéndoles visualizar y predecir el camino de la energía de las ondas.
Entender el comportamiento de tales ondas resulta decisivo para el diseño de muchos dispositivos basados en la nanotecnología.
lunes, 24 de diciembre de 2007
Robots Netwrorks Marítimos Con Cobertura Mundial
Los esfuerzos de los científicos por conocer mejor cómo los océanos influyen en el clima y en la productividad de los recursos pesqueros, entran ahora en una nueva era con el establecimiento de una red de 3.000 robots marítimos de metro y medio que operarán simultáneamente en todos los océanos del mundo.
El proyecto ARGO ya ha ayudado a los científicos australianos a: monitorizar detalladamente a qué velocidad y dónde la temperatura oceánica se eleva debido a las emisiones antropogénicas de los gases que producen el efecto invernadero; proporcionar un torrente de datos esenciales para los nuevos intentos de pronósticos oceánicos; y, además, apoyar los esfuerzos para incluir el Océano Indico en los pronósticos de los ciclos australianos de sequía o inundación.
"Concebido hace sólo 7 años por un pequeño grupo de oceanógrafos, el proyecto Argo madura para convertirse en uno de los grandes pasos dados por la ciencia oceánica; un paso del cual se pueden beneficiar todos los países", explica la investigadora Susan Wijffels. "Argo nos permitirá enfrentarnos a algunos de los grandes problemas climáticos, y también, nos brindará una visión profunda de cómo el siempre cambiante clima de los océanos afecta a los ecosistemas marinos.
Con el empleo de un sistema de suministro de datos vía satélite, los robots Argo brindarán cada 10 días a los especialistas encargados de hacer pronósticos sobre el estado del mar, y a los científicos que estudian el clima, un conocimiento detallado del estado de las aguas en casi todos los sectores de los océanos del mundo. Vastas regiones marítimas del hemisferio sur, que anteriormente no podían ser inspeccionadas por ser tan remotas y a menudo tormentosas, ya se están escudriñando sistemáticamente por primera vez.
Después de haber establecido la red para tener una cobertura global uniforme, y de haber construido un sistema de entrega de datos efectivo, el próximo desafío es mantener todo el equipamiento durante una década en una fase preoperativa de mantenimiento y sostenibilidad. Esto permitirá optimizar el diseño de los equipos, así como demostrar y explotar al máximo su valor estratégico.