viernes, 28 de diciembre de 2007
IE 8 ha aprobado la "prueba del ácido" para estándares web
Una versión beta del próximo navegador de Microsoft incorpora soporte mejorado para importantes estándares web.
Durante varios años, el navegador Internet Explorer de Microsoft ha sido objeto de críticas debido a que no ha observado cabalmente algunos de los estándares web más importantes, como HTML y CSS. Esta situación surgió debido a que Microsoft no dedicó mayores esfuerzos a desarrollar el navegador desde la versión 6, lanzada en 2001, hasta la versión 7 lanzada en octubre de 2006.
Aunque IE7 representó una importante actualización, el navegador no es del todo compatible con los estándares vigentes. Cabe señalar que ningún navegador tiene un soporte 100% compatible con los estándares, aunque los competidores de IE asignan mayor importancia a tal factor que Microsoft.
Después de haber tenido una cuota del mercado del 90%, el dominio de Internet Explorer se está reduciendo marcadamente. El 80% de los usuarios de Internet continúa usando IE, aunque hay millones de usuarios que ya prefieren navegadores alternativos. Esta es una situación que Microsoft necesariamente debe tener en consideración.
Si todos los navegadores fuesen compatibles con los mismos estándares, los usuarios de Internet evitarían encontrarse con sitios diseñados especialmente para navegadores determinados. En la mayoría de los casos, los sitios son adaptados al navegador dominante. Para los desarrolladores de sitios web, al existir navegadores compatibles los sitios pueden ser desarrollados según los estándares y no necesitan ser adaptados especialmente a cada navegador.
La versión 8 de Internet Explorer incorporará varias mejoras respecto de la compatibilidad con estándares. En un blog, el director del Grupo Internet Explorer de Microsoft, Dean Machamovitch, escribe que la versión beta de IE8 ha aprobado la difícil prueba Acid2.
Hasta el momento, solo Konqueror y Safari han aprobado la prueba. Si desea probar la compatibilidad de su navegador haga clic en el enlace al final de este artículo (sitio de Webstandards.org). La imagen mostrada por el navegador debería ser idéntica a la ilustración.
miércoles, 26 de diciembre de 2007
Sofisticados Modelos Tridimensionales de Lugares Usando Fotos de Aficionados
Más de 10 millones de miembros del sitio web Flickr de intercambio de fotos fotografían sus entornos y entonces publican estas fotos en internet. Unos investigadores en la Universidad de Washington están realizando la operación inversa, descargan miles de fotos desde Flickr y las utilizan para recrear las escenas originales. Estas fotos pueden ser empleadas para crear un modelo virtual 3D de lugares distintivos, incluyendo la Catedral de Notre Dame en París y la Estatua de la Libertad en la Ciudad de Nueva York.
El gran logro aquí es la capacidad de computar modelos tridimensionales muy exactos a partir de las típicas fotos de vacaciones que la gente toma. La perspectiva a largo plazo es tener la capacidad de reconstruir la geometría detallada de todas las estructuras en la superficie de la Tierra. Muchas personas están trabajando para alcanzar ese ambicioso objetivo, pero al utilizar colecciones fotográficas online, la labor adquiere una nueva dimensión, prometedora aunque también desafiante, al poder contar con una inmensa cantidad de imágenes pero también con niveles de detalle muy distintos.
Los sitios web de intercambio de imágenes tales como Flickr y Google son populares debido a que ofrecen una manera fácil y gratuita de compartir fotos. Flickr contiene ahora más de mil millones de fotos; una búsqueda para "Notre Dame París" encuentra más de 80.000 documentos. Los autores del estudio, expertos en visión por ordenador, creen que ésta es la fuente más diversa y menos explotada de imágenes digitales del mundo.
Pero las fotos disponibles libremente presentan un reto: son fotografías personales y recreativas, sin mayores pretensiones, no imágenes profesionales con calidad de laboratorio orientadas a la investigación científica. Aunque algunas sí pueden ser representaciones profesionalmente perfectas de un escenario, dignas de una postal, otras pueden ser oscuras, borrosas o tener personas cubriendo la mayor parte de la escena.
Para realizar los modelos digitales en 3D, los investigadores comienzan por descargar todas las fotos disponibles del objetivo seleccionado. Por ejemplo, podrían descargar las aproximadamente 60.000 imágenes de Flickr que están etiquetadas con las palabras "Estatua de la Libertad". El sistema informático encuentra fotos que podrán ser utilizadas en la reconstrucción y descarta otras que son de muy baja calidad fotográfica o tienen demasiadas partes tapadas por personas u objetos. El Photo Tourism (Foto Turismo), una herramienta informática desarrollada en la Universidad de Washington, calcula entonces el punto exacto desde el cual cada persona tomó su fotografía. Comparando 2 fotos del mismo objetivo que fueron tomadas desde perspectivas ligeramente diferentes, el software aplica principios de visión por ordenador para determinar la distancia a cada punto.
En las pruebas realizadas, una computadora empleó menos de 2 horas en hacer una reconstrucción tridimensional de la Basílica de San Pedro en Roma, utilizando 151 fotos tomadas por 50 fotógrafos diferentes. Una reconstrucción de la Catedral de Notre Dame usó 206 imágenes tomadas por 92 personas. Todos los cálculos y el proceso de ordenar las imágenes se realizaron automáticamente.
Etiquetas:
Cultura Informatica,
Informatica,
Informativo,
Ingenieria,
SPANISH
Retrasos en el Tránsito de Rayos Gamma Pueden Delatar una Física Más Allá del Modelo Establecido
Mediante el telescopio MAGIC, se ha descubierto que unos fotones de alta energía de radiación gamma provenientes de una galaxia distante llegaron a la Tierra cuatro minutos después que los fotones de baja energía, aunque al parecer fueron emitidos simultáneamente. Si esto es cierto, sería una contradicción de la Teoría de la Relatividad de Einstein, que dice que todos los fotones (las partículas de luz) deben moverse a la velocidad de la luz.
Daniel Ferenc, profesor de física en la Universidad de California en Davis y miembro del equipo de colaboradores del MAGIC, advierte, sin embargo, que los resultados necesitan ser repetidos con otras fuentes de rayos gamma y que no se ha descartado una explicación más simple. Pero que, en cualquier caso, esto demuestra que tales mediciones son posibles de hacer.
Los investigadores proponen que el retraso pudiera ser producido por las interacciones entre los fotones y la "espuma cuántica", un tipo de estructura del propio espacio. La espuma cuántica está predicha por la Teoría de la Gravedad Cuántica, un esfuerzo para unir la física cuántica y la relatividad a escalas cósmicas.
Los astrónomos dirigieron el telescopio hacia Markarian 501, una galaxia a quinientos millones de años-luz de distancia que contiene un "blazar", un agujero negro masivo que emite estallidos de rayos gamma. Parte de la materia que se precipita hacia el agujero negro, es comprimida en chorros que son expulsados desde los polos del agujero a velocidades cercanas a la de la luz. Estos chorros brutales producen destellos de rayos gamma de varios minutos de duración.
Los investigadores separaron los fotones de alta y de baja energía de los rayos gamma de cada uno de esos fogonazos provenientes del objeto. En colaboración con un grupo de físicos teóricos dirigido por John Ellis, del CERN, el equipo del MAGIC llegó a la conclusión de que los fotones de alta y de baja energía parecían haber sido emitidos al mismo tiempo. Pero los fotones de alta energía llegaron cuatro minutos tarde, después de viajar a través del espacio durante aproximadamente 500 millones de años.
Etiquetas:
Fisica,
Informativo,
Ingenieria,
SPANISH
Como Predecir el Comportamiento de las Ondas Evanescentes
Investigadores del Instituto Tecnológico de Georgia han descubierto una forma de predecir el comportamiento de las ondas evanescentes durante la transferencia a escala nanométrica de calor por radiación, abriendo el camino al diseño de una nueva gama de nanodispositivos y nanotecnologías, incluyendo tecnologías para la energía térmica solar.
Los dispositivos de tamaño nanométrico presentan un desafío único para cualquier tecnología óptica: no hay suficiente espacio para que la luz viaje en línea recta.
En la escala nanométrica, la energía puede producirse por los fotones de luz radiados entre dos superficies muy cercanas, a veces tan cerca como 10 manómetros, una distancia más pequeña que la longitud de onda de la luz. La luz se comporta de modo muy diferente en la escala nanométrica ya que su longitud de onda se interrumpe, produciendo ondas inestables denominadas ondas evanescentes. La dirección de estas ondas imprevisibles no puede ser calculada, por lo que los investigadores se enfrentan a la desalentadora tarea de diseñar nanotecnologías para que operen en tales condiciones de incertidumbre y a pesar de ello logren aprovechar las ondas de luz.
Para estudiar las ondas evanescentes, el equipo de investigación del Tecnológico de Georgia partió de la transferencia de energía por radiación en la escala nanométrica (entre dos superficies muy cercanas a diferentes temperaturas, por medio de la radiación térmica). Puesto que la dirección de las ondas evanescentes aparentemente es imposible de conocer en términos de la física (se le adjudica pues un valor imaginario), el grupo de Zhang optó por seguir la dirección del flujo de energía electromagnética para predecir su comportamiento, en lugar de la dirección de los fotones.
"Estamos empleando la electrodinámica clásica para explicar el comportamiento de las ondas, no la mecánica cuántica", señala el investigador Zhuomin Zhang. "Estamos prediciendo la propagación de la energía, y no el movimiento real, de los fotones".
El reto de ese trabajo consiste en que la electrodinámica funciona de modo diferente a escala nanométrica, y el equipo del Tecnológico de Georgia necesitó localizar esas diferencias. La ley de Planck, una teoría con más de cien años de antigüedad sobre cómo se radian las ondas electromagnéticas, no se aplica en el ámbito nanométrico debido a que el espacio entre las superficies es más pequeño que la longitud de onda.
El equipo del Tecnológico de Georgia observó que en lugar de la radiación en línea recta normal, la luz era doblada cuando los protones sufrían el efecto túnel a través del vacío entre las dos superficies separadas sólo por una distancia de pocos nanómetros. El equipo también notó que las ondas evanescentes se separaban durante este proceso térmico, permitiéndoles visualizar y predecir el camino de la energía de las ondas.
Entender el comportamiento de tales ondas resulta decisivo para el diseño de muchos dispositivos basados en la nanotecnología.
lunes, 24 de diciembre de 2007
Robots Netwrorks Marítimos Con Cobertura Mundial
Los esfuerzos de los científicos por conocer mejor cómo los océanos influyen en el clima y en la productividad de los recursos pesqueros, entran ahora en una nueva era con el establecimiento de una red de 3.000 robots marítimos de metro y medio que operarán simultáneamente en todos los océanos del mundo.
El proyecto ARGO ya ha ayudado a los científicos australianos a: monitorizar detalladamente a qué velocidad y dónde la temperatura oceánica se eleva debido a las emisiones antropogénicas de los gases que producen el efecto invernadero; proporcionar un torrente de datos esenciales para los nuevos intentos de pronósticos oceánicos; y, además, apoyar los esfuerzos para incluir el Océano Indico en los pronósticos de los ciclos australianos de sequía o inundación.
"Concebido hace sólo 7 años por un pequeño grupo de oceanógrafos, el proyecto Argo madura para convertirse en uno de los grandes pasos dados por la ciencia oceánica; un paso del cual se pueden beneficiar todos los países", explica la investigadora Susan Wijffels. "Argo nos permitirá enfrentarnos a algunos de los grandes problemas climáticos, y también, nos brindará una visión profunda de cómo el siempre cambiante clima de los océanos afecta a los ecosistemas marinos.
Con el empleo de un sistema de suministro de datos vía satélite, los robots Argo brindarán cada 10 días a los especialistas encargados de hacer pronósticos sobre el estado del mar, y a los científicos que estudian el clima, un conocimiento detallado del estado de las aguas en casi todos los sectores de los océanos del mundo. Vastas regiones marítimas del hemisferio sur, que anteriormente no podían ser inspeccionadas por ser tan remotas y a menudo tormentosas, ya se están escudriñando sistemáticamente por primera vez.
Después de haber establecido la red para tener una cobertura global uniforme, y de haber construido un sistema de entrega de datos efectivo, el próximo desafío es mantener todo el equipamiento durante una década en una fase preoperativa de mantenimiento y sostenibilidad. Esto permitirá optimizar el diseño de los equipos, así como demostrar y explotar al máximo su valor estratégico.
Mejoran el Diseño de Vegetales en un Modelo Informático
nvestigadores de la Universidad de Illinois han "diseñado" una planta que resulta mejor en ciertos aspectos. Produce más hojas y frutos sin necesidad de recibir fertilizante extra. Los investigadores lo consiguieron empleando un modelo digital que imita al proceso de la evolución. El suyo es el primer modelo que simula cada paso del proceso fotosintético.
En vegetales, algas, fitoplancton y algunas especies de bacterias y de arqueas, la fotosíntesis convierte la energía lumínica en energía química. En la fotosíntesis vegetal interviene un complejo conjunto de reacciones químicas que requiere numerosas enzimas y otros compuestos. La mayor parte de la fotosíntesis se lleva a cabo en las hojas de la planta.
La cuestión que deseaban explorar Steve Long, profesor de biología vegetal y ciencias de los cultivos en la citada universidad, y sus colegas en la investigación, era: ¿Podemos idear un diseño mejor que el de la planta, en términos de productividad?
No resultaba factible responder a esta pregunta mediante experimentos físicos sobre vegetales específicos. Con más de 100 proteínas involucradas en la fotosíntesis, poner a prueba las proteínas de una en una requeriría una enorme inversión de tiempo y de recursos. Probar todas las posibles combinaciones en una supercomputadora resultó el mejor enfoque.
Los investigadores primero construyeron un modelo fiable de la fotosíntesis, uno que pudiera imitar de manera precisa la respuesta fotosintética a diferentes cambios en el ambiente. El equipo probó y ajustó el modelo hasta que éste predijo con éxito el resultado de experimentos efectuados con hojas reales, incluyendo su respuesta dinámica a las variaciones medioambientales.
Antes de que una planta de cultivo, como por ejemplo el trigo, produzca grano, la mayor parte del nitrógeno que absorbe es empleado en la producción de las enzimas fotosintetizadoras en las hojas. Sabiendo que no es deseable añadir más nitrógeno a las plantas, los investigadores se hicieron una pregunta simple pero crucial: "¿Podemos hacer un mejor trabajo que la planta en la manera en que la cantidad del nitrógeno fijado es gestionada e invertida en las diferentes proteínas fotosintetizadoras?".
Empleando "algoritmos evolutivos", los cuales imitan a la evolución seleccionando los rasgos deseables, el modelo se lanzó a la búsqueda de las enzimas que, si se producían en mayor cantidad, podrían potenciar la productividad de las plantas. Si concentraciones más altas de una enzima respecto a las demás mejoraban la eficiencia fotosintética, el modelo empleaba los resultados de ese experimento como punto de partida para la siguiente generación de ensayos.
Este proceso identificó varias proteínas que podían, si estaban presentes en mayor concentración respecto a las demás, elevar de manera notable la productividad de la planta. Los nuevos resultados concuerdan con los obtenidos por otros investigadores, quienes encontraron que al elevar la concentración de una de estas proteínas en plantas transgénicas se elevaba la productividad.
Una pregunta obvia que surge de la investigación es el por qué las plantas no han evolucionado para ser tan eficientes como en teoría sí es posible.
"La respuesta puede estar en el hecho de que la evolución selecciona especies con arreglo a la supervivencia y la fecundidad, mientras que nosotros estábamos seleccionando especies sobre la base de la productividad", explica Long. Los cambios sugeridos en el modelo podrían sabotear la supervivencia de una planta que viva en condiciones silvestres, según reconoce este investigador, aunque los análisis que él y su equipo han realizado sugieren que la especie sí sería viable en campos agrícolas bajo el cuidado humano.
Etiquetas:
Informatica,
Informativo,
Ingenieria,
SPANISH
viernes, 21 de diciembre de 2007
Detectan Nueva Teoría acerca del Inicio y el Fin del Universo
El reloj del universo no tiene comienzo ni final, pero pese a ello el tiempo es finito, según un teórico de Nueva Zelanda. La teoría, que aborda el misterio histórico del origen del universo junto con otros problemas y paradojas de la cosmología, plantea un nuevo modo de ver el concepto del tiempo; uno que tiene más en común con la visión "cíclica" del tiempo sostenida por pensadores antiguos tales como Platón, Aristóteles y Leonardo Da Vinci, que con la creencia influenciada por el calendario cristiano y la Biblia sobre un tiempo "lineal", ahora tan profundamente enraizado en el pensamiento occidental moderno.
La teoría de Peter Lynds involucra a la segunda ley de la termodinámica, uno de los pilares de la física, y la explicación subyacente de por qué en la naturaleza siempre experimentamos acontecimientos que sólo se desarrollan en una dirección del tiempo. Esta ley se relaciona con el hecho de que el calor nunca puede pasar espontáneamente de un cuerpo más frío a otro más caliente. La capacidad del calor para dispersarse le hace fluir hacia zonas frías. Debido a esto, los procesos naturales que implican transferencia de energía tienden a tener una dirección y a ser irreversibles. Sin embargo, ¿qué sucedería si, debido a ciertas condiciones físicas extremas, el calor no pudiera fluir hacia una zona fría y fuera forzado a fluir hacia una zona más caliente?
En su teoría, Lynds postula que en lugar de que esto inevitablemente suceda y se quiebre la segunda ley de la termodinámica, justo antes de que el universo se colapse gravitacionalmente en un "big crunch" o que la materia alcance el centro de un agujero negro, el orden de los eventos debería invertir su dirección.
Asumiendo que todas las leyes de la física (con la excepción de la segunda ley de la termodinámica) son reversibles en el tiempo y funcionan igualmente bien en ambas direcciones, Lynds afirma que no se contravendría ninguna ley de la física por tal reversión, y que también permitiría que se continuase sosteniendo la segunda ley de la termodinámica.
Esto contrasta con teorías anteriores que implican la reversión termodinámica del tiempo, incluyendo la de Thomas Gold en los años 60 y la de Stephen Hawking en los 80, que implican romper la segunda ley de la termodinámica. Tales teorías generalmente han sido descartadas por los físicos debido a las contradicciones que surgían directamente de una violación de la segunda ley; contradicciones que la teoría de Lynds evita, según él.
Lynds afirma que si dentro de muchos miles de millones de años el universo deja de expandirse y se contrae en un Big Crunch, ese concepto revisado de la reversión termodinámica del tiempo conduciría a un esquema coherente de un cosmos en el cual no hay diferencia entre pasado y futuro, y, sobre el así llamado comienzo del universo, el Big Bang, podría decirse igualmente que ocurre en el pasado o en el futuro del Big Crunch. Esto implica que el Big Bang y el Big Crunch podrían ser uno la causa del otro, proveyendo así una respuesta a la más insuperable de las preguntas: ¿que fue lo que causó el Big Bang?
Suscribirse a:
Entradas (Atom)
Búsqueda personalizada