viernes, 28 de diciembre de 2007

IE 8 ha aprobado la "prueba del ácido" para estándares web


Una versión beta del próximo navegador de Microsoft incorpora soporte mejorado para importantes estándares web.

Durante varios años, el navegador Internet Explorer de Microsoft ha sido objeto de críticas debido a que no ha observado cabalmente algunos de los estándares web más importantes, como HTML y CSS. Esta situación surgió debido a que Microsoft no dedicó mayores esfuerzos a desarrollar el navegador desde la versión 6, lanzada en 2001, hasta la versión 7 lanzada en octubre de 2006.

Aunque IE7 representó una importante actualización, el navegador no es del todo compatible con los estándares vigentes. Cabe señalar que ningún navegador tiene un soporte 100% compatible con los estándares, aunque los competidores de IE asignan mayor importancia a tal factor que Microsoft.

Después de haber tenido una cuota del mercado del 90%, el dominio de Internet Explorer se está reduciendo marcadamente. El 80% de los usuarios de Internet continúa usando IE, aunque hay millones de usuarios que ya prefieren navegadores alternativos. Esta es una situación que Microsoft necesariamente debe tener en consideración.

Si todos los navegadores fuesen compatibles con los mismos estándares, los usuarios de Internet evitarían encontrarse con sitios diseñados especialmente para navegadores determinados. En la mayoría de los casos, los sitios son adaptados al navegador dominante. Para los desarrolladores de sitios web, al existir navegadores compatibles los sitios pueden ser desarrollados según los estándares y no necesitan ser adaptados especialmente a cada navegador.

La versión 8 de Internet Explorer incorporará varias mejoras respecto de la compatibilidad con estándares. En un blog, el director del Grupo Internet Explorer de Microsoft, Dean Machamovitch, escribe que la versión beta de IE8 ha aprobado la difícil prueba Acid2.

Hasta el momento, solo Konqueror y Safari han aprobado la prueba. Si desea probar la compatibilidad de su navegador haga clic en el enlace al final de este artículo (sitio de Webstandards.org). La imagen mostrada por el navegador debería ser idéntica a la ilustración.

miércoles, 26 de diciembre de 2007

Sofisticados Modelos Tridimensionales de Lugares Usando Fotos de Aficionados


Más de 10 millones de miembros del sitio web Flickr de intercambio de fotos fotografían sus entornos y entonces publican estas fotos en internet. Unos investigadores en la Universidad de Washington están realizando la operación inversa, descargan miles de fotos desde Flickr y las utilizan para recrear las escenas originales. Estas fotos pueden ser empleadas para crear un modelo virtual 3D de lugares distintivos, incluyendo la Catedral de Notre Dame en París y la Estatua de la Libertad en la Ciudad de Nueva York.

El gran logro aquí es la capacidad de computar modelos tridimensionales muy exactos a partir de las típicas fotos de vacaciones que la gente toma. La perspectiva a largo plazo es tener la capacidad de reconstruir la geometría detallada de todas las estructuras en la superficie de la Tierra. Muchas personas están trabajando para alcanzar ese ambicioso objetivo, pero al utilizar colecciones fotográficas online, la labor adquiere una nueva dimensión, prometedora aunque también desafiante, al poder contar con una inmensa cantidad de imágenes pero también con niveles de detalle muy distintos.

Los sitios web de intercambio de imágenes tales como Flickr y Google son populares debido a que ofrecen una manera fácil y gratuita de compartir fotos. Flickr contiene ahora más de mil millones de fotos; una búsqueda para "Notre Dame París" encuentra más de 80.000 documentos. Los autores del estudio, expertos en visión por ordenador, creen que ésta es la fuente más diversa y menos explotada de imágenes digitales del mundo.

Pero las fotos disponibles libremente presentan un reto: son fotografías personales y recreativas, sin mayores pretensiones, no imágenes profesionales con calidad de laboratorio orientadas a la investigación científica. Aunque algunas sí pueden ser representaciones profesionalmente perfectas de un escenario, dignas de una postal, otras pueden ser oscuras, borrosas o tener personas cubriendo la mayor parte de la escena.

Para realizar los modelos digitales en 3D, los investigadores comienzan por descargar todas las fotos disponibles del objetivo seleccionado. Por ejemplo, podrían descargar las aproximadamente 60.000 imágenes de Flickr que están etiquetadas con las palabras "Estatua de la Libertad". El sistema informático encuentra fotos que podrán ser utilizadas en la reconstrucción y descarta otras que son de muy baja calidad fotográfica o tienen demasiadas partes tapadas por personas u objetos. El Photo Tourism (Foto Turismo), una herramienta informática desarrollada en la Universidad de Washington, calcula entonces el punto exacto desde el cual cada persona tomó su fotografía. Comparando 2 fotos del mismo objetivo que fueron tomadas desde perspectivas ligeramente diferentes, el software aplica principios de visión por ordenador para determinar la distancia a cada punto.

En las pruebas realizadas, una computadora empleó menos de 2 horas en hacer una reconstrucción tridimensional de la Basílica de San Pedro en Roma, utilizando 151 fotos tomadas por 50 fotógrafos diferentes. Una reconstrucción de la Catedral de Notre Dame usó 206 imágenes tomadas por 92 personas. Todos los cálculos y el proceso de ordenar las imágenes se realizaron automáticamente.

Retrasos en el Tránsito de Rayos Gamma Pueden Delatar una Física Más Allá del Modelo Establecido


Mediante el telescopio MAGIC, se ha descubierto que unos fotones de alta energía de radiación gamma provenientes de una galaxia distante llegaron a la Tierra cuatro minutos después que los fotones de baja energía, aunque al parecer fueron emitidos simultáneamente. Si esto es cierto, sería una contradicción de la Teoría de la Relatividad de Einstein, que dice que todos los fotones (las partículas de luz) deben moverse a la velocidad de la luz.


Daniel Ferenc, profesor de física en la Universidad de California en Davis y miembro del equipo de colaboradores del MAGIC, advierte, sin embargo, que los resultados necesitan ser repetidos con otras fuentes de rayos gamma y que no se ha descartado una explicación más simple. Pero que, en cualquier caso, esto demuestra que tales mediciones son posibles de hacer.

Los investigadores proponen que el retraso pudiera ser producido por las interacciones entre los fotones y la "espuma cuántica", un tipo de estructura del propio espacio. La espuma cuántica está predicha por la Teoría de la Gravedad Cuántica, un esfuerzo para unir la física cuántica y la relatividad a escalas cósmicas.

Los astrónomos dirigieron el telescopio hacia Markarian 501, una galaxia a quinientos millones de años-luz de distancia que contiene un "blazar", un agujero negro masivo que emite estallidos de rayos gamma. Parte de la materia que se precipita hacia el agujero negro, es comprimida en chorros que son expulsados desde los polos del agujero a velocidades cercanas a la de la luz. Estos chorros brutales producen destellos de rayos gamma de varios minutos de duración.

Los investigadores separaron los fotones de alta y de baja energía de los rayos gamma de cada uno de esos fogonazos provenientes del objeto. En colaboración con un grupo de físicos teóricos dirigido por John Ellis, del CERN, el equipo del MAGIC llegó a la conclusión de que los fotones de alta y de baja energía parecían haber sido emitidos al mismo tiempo. Pero los fotones de alta energía llegaron cuatro minutos tarde, después de viajar a través del espacio durante aproximadamente 500 millones de años.

Como Predecir el Comportamiento de las Ondas Evanescentes


Investigadores del Instituto Tecnológico de Georgia han descubierto una forma de predecir el comportamiento de las ondas evanescentes durante la transferencia a escala nanométrica de calor por radiación, abriendo el camino al diseño de una nueva gama de nanodispositivos y nanotecnologías, incluyendo tecnologías para la energía térmica solar.

Los dispositivos de tamaño nanométrico presentan un desafío único para cualquier tecnología óptica: no hay suficiente espacio para que la luz viaje en línea recta.

En la escala nanométrica, la energía puede producirse por los fotones de luz radiados entre dos superficies muy cercanas, a veces tan cerca como 10 manómetros, una distancia más pequeña que la longitud de onda de la luz. La luz se comporta de modo muy diferente en la escala nanométrica ya que su longitud de onda se interrumpe, produciendo ondas inestables denominadas ondas evanescentes. La dirección de estas ondas imprevisibles no puede ser calculada, por lo que los investigadores se enfrentan a la desalentadora tarea de diseñar nanotecnologías para que operen en tales condiciones de incertidumbre y a pesar de ello logren aprovechar las ondas de luz.

Para estudiar las ondas evanescentes, el equipo de investigación del Tecnológico de Georgia partió de la transferencia de energía por radiación en la escala nanométrica (entre dos superficies muy cercanas a diferentes temperaturas, por medio de la radiación térmica). Puesto que la dirección de las ondas evanescentes aparentemente es imposible de conocer en términos de la física (se le adjudica pues un valor imaginario), el grupo de Zhang optó por seguir la dirección del flujo de energía electromagnética para predecir su comportamiento, en lugar de la dirección de los fotones.

"Estamos empleando la electrodinámica clásica para explicar el comportamiento de las ondas, no la mecánica cuántica", señala el investigador Zhuomin Zhang. "Estamos prediciendo la propagación de la energía, y no el movimiento real, de los fotones".

El reto de ese trabajo consiste en que la electrodinámica funciona de modo diferente a escala nanométrica, y el equipo del Tecnológico de Georgia necesitó localizar esas diferencias. La ley de Planck, una teoría con más de cien años de antigüedad sobre cómo se radian las ondas electromagnéticas, no se aplica en el ámbito nanométrico debido a que el espacio entre las superficies es más pequeño que la longitud de onda.

El equipo del Tecnológico de Georgia observó que en lugar de la radiación en línea recta normal, la luz era doblada cuando los protones sufrían el efecto túnel a través del vacío entre las dos superficies separadas sólo por una distancia de pocos nanómetros. El equipo también notó que las ondas evanescentes se separaban durante este proceso térmico, permitiéndoles visualizar y predecir el camino de la energía de las ondas.

Entender el comportamiento de tales ondas resulta decisivo para el diseño de muchos dispositivos basados en la nanotecnología.

lunes, 24 de diciembre de 2007

Robots Netwrorks Marítimos Con Cobertura Mundial


Los esfuerzos de los científicos por conocer mejor cómo los océanos influyen en el clima y en la productividad de los recursos pesqueros, entran ahora en una nueva era con el establecimiento de una red de 3.000 robots marítimos de metro y medio que operarán simultáneamente en todos los océanos del mundo.

El proyecto ARGO ya ha ayudado a los científicos australianos a: monitorizar detalladamente a qué velocidad y dónde la temperatura oceánica se eleva debido a las emisiones antropogénicas de los gases que producen el efecto invernadero; proporcionar un torrente de datos esenciales para los nuevos intentos de pronósticos oceánicos; y, además, apoyar los esfuerzos para incluir el Océano Indico en los pronósticos de los ciclos australianos de sequía o inundación.

"Concebido hace sólo 7 años por un pequeño grupo de oceanógrafos, el proyecto Argo madura para convertirse en uno de los grandes pasos dados por la ciencia oceánica; un paso del cual se pueden beneficiar todos los países", explica la investigadora Susan Wijffels. "Argo nos permitirá enfrentarnos a algunos de los grandes problemas climáticos, y también, nos brindará una visión profunda de cómo el siempre cambiante clima de los océanos afecta a los ecosistemas marinos.

Con el empleo de un sistema de suministro de datos vía satélite, los robots Argo brindarán cada 10 días a los especialistas encargados de hacer pronósticos sobre el estado del mar, y a los científicos que estudian el clima, un conocimiento detallado del estado de las aguas en casi todos los sectores de los océanos del mundo. Vastas regiones marítimas del hemisferio sur, que anteriormente no podían ser inspeccionadas por ser tan remotas y a menudo tormentosas, ya se están escudriñando sistemáticamente por primera vez.

Después de haber establecido la red para tener una cobertura global uniforme, y de haber construido un sistema de entrega de datos efectivo, el próximo desafío es mantener todo el equipamiento durante una década en una fase preoperativa de mantenimiento y sostenibilidad. Esto permitirá optimizar el diseño de los equipos, así como demostrar y explotar al máximo su valor estratégico.

Mejoran el Diseño de Vegetales en un Modelo Informático


nvestigadores de la Universidad de Illinois han "diseñado" una planta que resulta mejor en ciertos aspectos. Produce más hojas y frutos sin necesidad de recibir fertilizante extra. Los investigadores lo consiguieron empleando un modelo digital que imita al proceso de la evolución. El suyo es el primer modelo que simula cada paso del proceso fotosintético.

En vegetales, algas, fitoplancton y algunas especies de bacterias y de arqueas, la fotosíntesis convierte la energía lumínica en energía química. En la fotosíntesis vegetal interviene un complejo conjunto de reacciones químicas que requiere numerosas enzimas y otros compuestos. La mayor parte de la fotosíntesis se lleva a cabo en las hojas de la planta.

La cuestión que deseaban explorar Steve Long, profesor de biología vegetal y ciencias de los cultivos en la citada universidad, y sus colegas en la investigación, era: ¿Podemos idear un diseño mejor que el de la planta, en términos de productividad?

No resultaba factible responder a esta pregunta mediante experimentos físicos sobre vegetales específicos. Con más de 100 proteínas involucradas en la fotosíntesis, poner a prueba las proteínas de una en una requeriría una enorme inversión de tiempo y de recursos. Probar todas las posibles combinaciones en una supercomputadora resultó el mejor enfoque.

Los investigadores primero construyeron un modelo fiable de la fotosíntesis, uno que pudiera imitar de manera precisa la respuesta fotosintética a diferentes cambios en el ambiente. El equipo probó y ajustó el modelo hasta que éste predijo con éxito el resultado de experimentos efectuados con hojas reales, incluyendo su respuesta dinámica a las variaciones medioambientales.

Antes de que una planta de cultivo, como por ejemplo el trigo, produzca grano, la mayor parte del nitrógeno que absorbe es empleado en la producción de las enzimas fotosintetizadoras en las hojas. Sabiendo que no es deseable añadir más nitrógeno a las plantas, los investigadores se hicieron una pregunta simple pero crucial: "¿Podemos hacer un mejor trabajo que la planta en la manera en que la cantidad del nitrógeno fijado es gestionada e invertida en las diferentes proteínas fotosintetizadoras?".

Empleando "algoritmos evolutivos", los cuales imitan a la evolución seleccionando los rasgos deseables, el modelo se lanzó a la búsqueda de las enzimas que, si se producían en mayor cantidad, podrían potenciar la productividad de las plantas. Si concentraciones más altas de una enzima respecto a las demás mejoraban la eficiencia fotosintética, el modelo empleaba los resultados de ese experimento como punto de partida para la siguiente generación de ensayos.

Este proceso identificó varias proteínas que podían, si estaban presentes en mayor concentración respecto a las demás, elevar de manera notable la productividad de la planta. Los nuevos resultados concuerdan con los obtenidos por otros investigadores, quienes encontraron que al elevar la concentración de una de estas proteínas en plantas transgénicas se elevaba la productividad.

Una pregunta obvia que surge de la investigación es el por qué las plantas no han evolucionado para ser tan eficientes como en teoría sí es posible.

"La respuesta puede estar en el hecho de que la evolución selecciona especies con arreglo a la supervivencia y la fecundidad, mientras que nosotros estábamos seleccionando especies sobre la base de la productividad", explica Long. Los cambios sugeridos en el modelo podrían sabotear la supervivencia de una planta que viva en condiciones silvestres, según reconoce este investigador, aunque los análisis que él y su equipo han realizado sugieren que la especie sí sería viable en campos agrícolas bajo el cuidado humano.

viernes, 21 de diciembre de 2007

Detectan Nueva Teoría acerca del Inicio y el Fin del Universo


El reloj del universo no tiene comienzo ni final, pero pese a ello el tiempo es finito, según un teórico de Nueva Zelanda. La teoría, que aborda el misterio histórico del origen del universo junto con otros problemas y paradojas de la cosmología, plantea un nuevo modo de ver el concepto del tiempo; uno que tiene más en común con la visión "cíclica" del tiempo sostenida por pensadores antiguos tales como Platón, Aristóteles y Leonardo Da Vinci, que con la creencia influenciada por el calendario cristiano y la Biblia sobre un tiempo "lineal", ahora tan profundamente enraizado en el pensamiento occidental moderno.

La teoría de Peter Lynds involucra a la segunda ley de la termodinámica, uno de los pilares de la física, y la explicación subyacente de por qué en la naturaleza siempre experimentamos acontecimientos que sólo se desarrollan en una dirección del tiempo. Esta ley se relaciona con el hecho de que el calor nunca puede pasar espontáneamente de un cuerpo más frío a otro más caliente. La capacidad del calor para dispersarse le hace fluir hacia zonas frías. Debido a esto, los procesos naturales que implican transferencia de energía tienden a tener una dirección y a ser irreversibles. Sin embargo, ¿qué sucedería si, debido a ciertas condiciones físicas extremas, el calor no pudiera fluir hacia una zona fría y fuera forzado a fluir hacia una zona más caliente?

En su teoría, Lynds postula que en lugar de que esto inevitablemente suceda y se quiebre la segunda ley de la termodinámica, justo antes de que el universo se colapse gravitacionalmente en un "big crunch" o que la materia alcance el centro de un agujero negro, el orden de los eventos debería invertir su dirección.

Asumiendo que todas las leyes de la física (con la excepción de la segunda ley de la termodinámica) son reversibles en el tiempo y funcionan igualmente bien en ambas direcciones, Lynds afirma que no se contravendría ninguna ley de la física por tal reversión, y que también permitiría que se continuase sosteniendo la segunda ley de la termodinámica.

Esto contrasta con teorías anteriores que implican la reversión termodinámica del tiempo, incluyendo la de Thomas Gold en los años 60 y la de Stephen Hawking en los 80, que implican romper la segunda ley de la termodinámica. Tales teorías generalmente han sido descartadas por los físicos debido a las contradicciones que surgían directamente de una violación de la segunda ley; contradicciones que la teoría de Lynds evita, según él.

Lynds afirma que si dentro de muchos miles de millones de años el universo deja de expandirse y se contrae en un Big Crunch, ese concepto revisado de la reversión termodinámica del tiempo conduciría a un esquema coherente de un cosmos en el cual no hay diferencia entre pasado y futuro, y, sobre el así llamado comienzo del universo, el Big Bang, podría decirse igualmente que ocurre en el pasado o en el futuro del Big Crunch. Esto implica que el Big Bang y el Big Crunch podrían ser uno la causa del otro, proveyendo así una respuesta a la más insuperable de las preguntas: ¿que fue lo que causó el Big Bang?

jueves, 20 de diciembre de 2007

Es mejor Usar graficos ?


Una manera ingeniosa de mejorar la seguridad de las contraseñas para dispositivos portátiles ha sido desarrollada en la Universidad de Newcastle. El software, que utiliza imágenes en lugar de letras y números, ha sido diseñado inicialmente para dispositivos portátiles, pero muy pronto podría ser expandido hacia otras áreas.

Las personas que tomaron parte en la experimentación con este sistema, crearon contraseñas que fueron un millar de veces más seguras que las contraseñas ordinarias de texto. La mayoría de los participantes también las encontraron más fáciles de recordar.

Los investigadores ahora desean examinar las potencialidades del sistema para ayudar a las personas con dificultades en el lenguaje, tales como la dislexia.

Hoy, el uso de contraseñas es muy común. Además de en ordenadores, se las utiliza para muchos otros aparatos, desde teléfonos móviles hasta cajeros automáticos. Pero a consecuencia de las crecientes preocupaciones acerca de las contraseñas "débiles" tradicionales creadas a partir de palabras y números, unos expertos en ciencias de la computación de la Universidad de Newcastle han estado desarrollando un software alternativo que permite a los usuarios dibujar una contraseña a modo de imagen, conocida como "contraseña gráfica".

Muchas personas tienen dificultades para recordar las contraseñas, así que eligen palabras fáciles de recordar y por tanto más susceptibles de ser descubiertas por los hackers.

Jeff Yan y Paul Dunphy han tomado la emergente tecnología DAS, un sistema de contraseñas gráficas donde los usuarios dibujan sus contraseñas secretas como una imagen con la forma deseada en una cuadrícula, y la han llevado un paso mas allá.

En un sistema DAS, el usuario dibuja una imagen, la cual es entonces codificada como una secuencia ordenada de celdas. El software memoriza los trazos, junto con el número de veces que el lápiz es levantado.

Superponiendo una imagen de fondo sobre la cuadrícula DAS en blanco, los investigadores de la Universidad de Newcastle han creado un sistema llamado BDAS. Éste ayuda a los usuarios a recordar dónde comenzaron a dibujar la imagen que están utilizando como contraseña, y además conduce a contraseñas gráficas que son menos predecibles, más extensas y más complicadas.

Durante las pruebas, el software BDAS permitió a las personas dibujar contraseñas gráficas más complicadas. Esto las hace mucho más difíciles de adivinar por personas o por programas de hackeo automático. En esencia, ésta es una idea muy simple así como intuitiva. Como resultado, puede consumir más tiempo crear la contraseña original pero es más fácil de recordar y más segura.

Por ejemplo, si una persona elige una flor como imagen de fondo y entonces dibuja sobre la misma una mariposa como contraseña secreta, la persona tiene que recordar el lugar donde comenzó a dibujar en la cuadrícula y el orden de los trazos. Es reconocida como idéntica si la codificación es la misma, no el dibujo en sí, lo que permite cierto margen de error ya que el dibujo no tiene que ser recreado con toda exactitud.

"La mayoría de nosotros ha olvidado un número pin o una contraseña al menos una vez, lo que constituye el motivo por el cual tendemos a hacerlos tan fáciles de adivinar", explica Yan. "Sin embargo, la mente humana tiene mucha más capacidad para recordar imágenes, y, ciertamente, una imagen vale mil palabras en este caso".

Se ha Creado la primera Radio Funcional a partir de un solo nanotubo de carbono


Un equipo de investigadores del Laboratorio Nacional Lawrence Berkeley y la Universidad de California en Berkeley ha creado la primera radio totalmente funcional a partir de un solo nanotubo de carbono, lo que la hace, por varios órdenes de magnitud, la radio más pequeña construida hasta el momento.

La molécula única que forma el nanotubo de carbono sirve simultáneamente para cumplir los cometidos de todos los componentes esenciales de una radio: la antena, el filtro de paso de banda sintonizable, el amplificador y el demodulador.

El físico Alex Zettl es el principal responsable de la invención de esta singular radio de un nanotubo. Usando las ondas portadoras comercialmente empleadas de 40 a 400 MHz, y tanto FM como AM, él y sus colegas han sido capaces de demostrar la recepción de música y voz con pleno éxito.

Dado que la radio de un nanotubo esencialmente se autoensambla y puede sintonizarse con facilidad en la banda de frecuencias deseada después de su fabricación, Zettl cree que las nanorradios serán relativamente fáciles de fabricar en serie. Las aplicaciones potenciales, además de para receptores de radio increíblemente diminutos, incluyen una nueva generación de dispositivos inalámbricos de comunicación y monitorización.

La tecnología empleada en esta radio de un nanotubo podría demostrar ser especialmente valiosa para las aplicaciones biológicas y médicas.

La radio entera encajaría con facilidad dentro de una célula viva, y ese pequeño tamaño debiera permitirle interactuar con los sistemas biológicos de manera segura. Los investigadores creen que en el futuro podría ser posible producir interfaces para permitir su acoplamiento a funciones del cerebro o de los músculos, o dispositivos teledirigidos que se muevan a través del torrente sanguíneo.

También es posible que la radio de un nanotubo pudiera ser implantada en el oído interno como una forma discreta y del todo nueva de transmitir información, o como un método radicalmente nuevo de corregir daños auditivos.

El Departamento de Transferencia de Tecnología del Laboratorio Nacional Lawrence Berkeley está buscando socios potenciales en la industria para perfeccionar y comercializar esta tecnología.

Si quieres ver mas Información adicional en Ingles , mAs fotos , video y como funciona dicha radio visita:

No olvides Inscribirte en nuestro boletin Inscribete ya!!!!!!

"Muchos Más Aspectos Que el Térmico Intervienen en la Dinámica Interna de la Tierra"


Un equipo de sismólogos ha replanteado el modo de ver el funcionamiento interno de la Tierra. De asumir un medio relativamente homogéneo, han pasado a considerar uno que es mucho más dinámico y químicamente diverso. Ellos ven el interior de la Tierra como una compleja interacción de presión, temperatura y química.

El estudio ha sido llevado a cabo por los científicos Nicholas Schmerr y Edward Garnero de la Universidad Estatal de Arizona en Tempe.

Esta visión del funcionamiento interno de la Tierra la describe como comparable en cierto modo a un organismo vivo, y subraya que los eventos que suceden en lo profundo del planeta pueden tener efectos, a veces insospechados, en la superficie.

Este estudio revela que en el manto superior de la Tierra (una zona que se extiende hasta 660 kilómetros de profundidad) la presión y la temperatura no son los únicos actores.

El modelo mas simple del manto (la capa de la Tierra justo debajo de la corteza) es el de una máquina calorífica convectiva. Como una olla con agua hirviendo, el manto tiene partes que están calientes y que ascienden, como en la grieta a mitad del Atlántico; y partes más frías que descienden, como en las zonas de subducción. Ahí, la corteza se "hunde" en la Tierra, mezclándose y transformándose en otras "fases" materiales, como el grafito en diamante.

Gran parte de la investigación pasada sobre la estructura del manto ha interpretado las anomalías en los registros sísmicos como efecto de variaciones térmicas en el manto. El trabajo de Schmerr y Garnero muestra que el interior del planeta es una estructura exótica que va mucho más allá de las corrientes de convección.

Usando ondas sísmicas de terremotos, Schmerr y Garnero localizaron dónde se producen los cambios de fase en el interior de la Tierra. Esto lo lograron buscando dónde las ondas se reflejan en dichas fronteras.

Bajo Sudamérica, su investigación descubrió que la frontera de fase a 410 kilómetros se doblaba hacia el lado contrario al esperado. Según las predicciones barajadas, el manto bajo Sudamérica sería relativamente frío. En una región así, esta frontera a 410 kilómetros debería permanecer inalterada; sin embargo, valiéndose de la energía de seísmos muy lejanos que se refleja en estas discontinuidades profundas en el área, Schmerr y Garnero encontraron que la discontinuidad de 410 kilómetros se hundía significativamente.

Su hipótesis es que concentraciones, ya sea de oxígeno o de hierro, son las responsables de la desviación observada en la discontinuidad.

Información adicional en:

El software no está a la altura de los microprocesadores


Dentro de poco comenzarán a circular los procesadores de ocho núcleos. Sin embargo, los programas actuales no están en condiciones de aprovechar la capacidad extraordinaria de cálculo.

Durante muchos años, los procesadores se han desarrollado a la par con el software que ha de ejecutarlos. Las compañías Intel y AMD siguen la denominada ley de Moore, segú la cual el número de transistores en un circuito es doblado cada año. La ley no ha fallado por más de 40 años. Por su parte, los desarrolladores de software procuran que sus programas en todo momento estén en condiciones de aprovechar la capacidad extra de cálculo para mostrar gráficos cada vez más sorprendentes, cálculos cada vez más rápidos o nuevas funciones. Tal parece ser, en todo caso, la teoría.

Pero en la práctica la situación es bastante distinta. Lo cierto es que los procesadores y el software ya no avanzan al mismo ritmo. Incluso la actual generación de procesadores de doble núcleo no están siendo aprovechados al máximo por los programas disponibles actualmente. La situación será aún peor con los nuevos procesadores de 4 núcleos y los anunciados procesadores multinúcleo con más de 8 núcleos.

La situación ha motivado a Microsoft a iniciar una iniciativa en que un gran porcentaje de los programas de la compañía serán reescritos en un modelo paralelo de computación. En combinación con los nuevos procesadores multinúcleo, los programas podrán ser ejecutados varios cientos de veces más rápido. Sin embargo, la tarea es de una envergadura tal que tomará varios años antes que los usuarios finales puedan beneficiarse de la iniciativa.

Microsoft espera que los nuevos procesadores multinúcleo estarán disponibles casi simultáneamente con Windows 7, el seguidor de Windows Vista.

Fuente: CNET

miércoles, 19 de diciembre de 2007

Google lanza sistema de Informacion personalizada


Google continúa dando pasos para integrar todos sus servicios. El gigante que ya cuenta con servicios de vídeo, correo electrónico, buscador o geolocalización da un paso más mediante un sistema de perfiles que propocionara informacion personalizada de cada producto de Google.


Los Usuarios compartiran la informacion que quieran facilitar, el objetivo es presentarse a los otros habitantes del universo Google. Los parámetros a rellenar incluye un seudónimo -el nombre real puede facilitarse sólo a los contactos-, ocupación, ubicación, enlaces de-interés -por ejemplo, el blog del usuario-, una fotografía y una breve descripción del sujeto.

EL tiempo dejara los pros y contras que puede tener este sistema, pero lo que deja claro es que Google siendo un gigante en expansión.Tanto que ya en EE UU ciculan estudios comparativos respecto a otro de los intocables ,Microsoft

martes, 18 de diciembre de 2007

“Shake to connect"


Asi como mi movil al sacudirlo obtengo diferentes temas de los que estoy escuchando ahora Al sacudir dos teléfonos celulares es posible obtener una conexión inalámbrica Bluetooth entre ellos.

Científicos de Gran Bretaña han desarrollado una nueva tecnología destinada a incrementar la seguridad de las conexiones inalámbricas. Dos científicos de la universidad de Lancaster han desarrollado un sistema que permite establecer una conexión inalámbrica segura entre teléfonos móviles sosteniéndolos en la misma mano y agitándolos.

Los científicos dicen haber encontrado una solución inteligente a un problema clásico; ¿cómo estar seguro de que se ha establecido una conexión inalámbrica con el teléfono correcto?. Actualmente es necesario seleccionar la unidad en cuestión de una lista y luego digitar un código, que en la mayoría de los terminales es “0000". A juicio de los científicos, tal sistema implica por definición un agujero de seguridad. Por tal razón, sugieren usar el acelerómetro incorporado en la mayoría de los teléfonos celulares, con el fin de medir las oscilaciones que se generan al agitar los aparatos. De esa forma, únicamente al agitar dos teléfonos sostenidos en la misma mano, el patrón de oscilación será coincidente en un 100%.

El sistema también puede ser usado para crear una conexión inalámbrica entre un teléfono móvil y una impresora. En tal caso, los investigadores indican que es necesario golpear la impresora con el teléfono móvil. La ventaja del nuevo sistema es que no requiere la instalación de nuevo hardware, debido a que numerosos teléfonos móviles vienen con un acelerómetro incorporado.

A futuro, la tecnología Shake-to-connect también puede ser usada para transferir dinero entre tarjetas de crédito, sosteniéndolas en la misma mano y agitándolas, anuncian los científicos.

Las Consolas de juego deben ser disenadas en base al Medio ambiente


Segun investigadores los fabricantes de consolas de video juego deben disenar sus estandares acorde al medio ambiente , veamos mas >

La organización ecologista Greenpeace ha iniciado una campaña en que dirige su atención a las tres consolas más vendidas en la actualidad: Xbox 360, PS3 y Nintendo Wii.


Según la organización, el mercado de las consolas experimenta un crecimiento tan marcado, que es importante que sus fabricantes diseñen las máquinas teniendo mayor consideración por el medio ambiente.

En el sitio Clash of the Consoles (ver enlace al final de este artículo) se ha publicado una comparativa de las tres consolas, con los siguientes resultados.

Sonys PS3 (versión de 40 GB) es criticada debido a su consumo eléctrico extremadamente alto y los químicos peligrosos que son usados en la producción. No obstante, Greenpeace reconoce y elogia el programa de reciclaje de Sony.

La consola Xbox 360 obtiene una puntuación intermedia. Microsoft usa sustancias químicas peligrosas en la fabricación del producto, pero se ha comprometido a eliminarlas antes del año 2011. La compañía no tiene un plan de reciclaje. Xbox 360 Elite ocupa la segunda peor puntuación después de PS3 en términos de consumo eléctrico.

Finalmente llega el turno a Nintendo Wii. El aparato es fabricado usando sustancias químicas peligrosas, y Nintendo no tiene planes de reducir su uso ni tampoco tiene un plan de reciclaje. Sin embargo, la consola Wii tiene un consumo eléctrico tan reducido, que ocupa el primer lugar, como la más “benevolente" con la factura eléctrica.

Sin embargo, en términos de consideración por el medio ambiente, la consola Wii es la peor de la lista según la organización Greenpeace.

El informe completo está disponible en el sitio Web de la compañía (ver enlace).

viernes, 14 de diciembre de 2007

Hackers 4ta Parte


TIPOS DE ATAQUES



Los métodos de ataque descritos a continuación están divididos en categorías generales que pueden estar relacionadas entre sí, ya que el uso de un método en una categoría permite el uso de otros métodos en otras. Por ejemplo: después de hackear un password, un intruso realiza un login como usuario legítimo para navegar entre los archivos y explotar vulnerabilidades del sistema. Eventualmente también, el atacante puede adquirir derechos a lugares que le permitan dejar un virus u otras bombas lógicas para paralizar todo un sistema antes de huir.

EAVESDROPPING Y PACKET SNIFFING

Muchas redes son vulnerables al eavesdropping, o la pasiva intercepción (sin modificación) del tráfico de red. En Internet esto es realizado por packet sniffers, que son programas que monitorean los paquetes de red que están direccionados a la computadora donde están instalados. El sniffer puede ser colocado tanto en una estación de trabajo conectada a red, como a un equipo router o a un gateway de Internet, y esto puede ser realizado por un usuario con legítimo acceso, o por un intruso que ha ingresado por otras vías. Existen kits disponibles para facilitar su instalación.

Este método es muy utilizado para capturar logins, IP‘s y passwords de usuarios, que generalmente viajan claros (sin encriptar) al ingresar a sistemas de acceso remoto (RAS). También son utilizados para capturar números de tarjetas de crédito y direcciones de e-mail entrantes y salientes. El análisis de tráfico puede ser utilizado también para determinar relaciones entre organizaciones e individuos.

SNOOPING Y DOWNLOADING

Los ataques de esta categoría tienen el mismo objetivo que el sniffing, obtener la información sin modificarla. Sin embargo los métodos son diferentes. Además de interceptar el tráfico de red, el atacante ingresa a los documentos, mensajes de e-mail y otra información guardada, realizando en la mayoría de los casos un downloading de esa información a su propia computadora.

El Snooping puede ser realizado por simple curiosidad, pero también es realizado con fines de espionaje y robo de información o software. Los casos más resonantes de este tipo de ataques fueron: el robo de un archivo con mas de 1700 números de tarjetas de crédito desde una compañía de música Mundialmente famosa, y la difusión ilegal de reportes oficiales reservados de las Naciones Unidas, acerca de la violación de derechos humanos en algunos países europeos en estado de guerra.

TAMPERING O DATA DIDDLING

Esta categoría se refiere a la modificación desautorizada a los datos, o al software instalado en un sistema, incluyendo borrado de archivos. Este tipo de ataques son particularmente serios cuando el que lo realiza ha obtenido derechos de administrador o supervisor, con la capacidad de disparar cualquier comando y poder alterar o borrar cualquier información que puede incluso terminar en la baja total del sistema en forma deliberada. O aún si no hubo intenciones de ello, el administrador posiblemente necesite dar de baja por horas o días hasta chequear y tratar de recuperar aquella información que ha sido alterada o borrada. Como siempre, esto puede ser realizado por insiders o outsiders, generalmente con el propósito de fraude o dejar fuera de servicio un competidor.

Son innumerables los casos de este tipo como empleados (o externos) bancarios que crean falsas cuentas para derivar fondos de otras cuentas, estudiantes que modifican calificaciones de exámenes, o contribuyentes que pagan para que se les anule la deuda por impuestos en el sistema municipal.

Múltiples web han sido víctimas del cambio de sus home page por imágenes terroristas o humorísticas, o el reemplazo de versiones de software para cambiarlos por otros con el mismo nombre pero que incorporan código malicioso (virus, troyanos).

La utilización de programas troyanos esta dentro de esta categoría, y refiere a falsas versiones de un software con el objetivo de averiguar información, borrar archivos y hasta tomar control remoto de una computadora a través de Internet.

SPOOFING

Esta técnica es utilizada para actuar en nombre de otros usuarios, usualmente para realizar tareas de snoofing o tampering. Una forma común de spoofing, es conseguir el nombre y password de un usuario legítimo para, una vez ingresado al sistema, tomar acciones en nombre de él, como puede ser el envío de falsos e-mails.

El intruso usualmente utiliza un sistema para obtener información e ingresar en otro, y luego utiliza este para entrar en otro, y en otro. Este proceso, llamado Looping, tiene la finalidad de evaporar la identificación y la ubicación del atacante. El camino tomado desde el origen hasta el destino puede tener muchas estaciones, que exceden obviamente los límites de un país. Otra consecuencia del looping es que una compañía o gobierno pueden suponer que están siendo atacados por un competidor o una agencia de gobierno extranjera, cuando en realidad están seguramente siendo atacado por un insider, o por un estudiante a miles de Km. de distancia, pero que ha tomado la identidad de otros.

El looping hace su investigación casi imposible, ya que el investigador debe contar con la colaboración de cada administrador de cada red utilizada en la ruta, que pueden ser de distintas jurisdicciones.

Los protocolos de red también son vulnerables al spoofing. Con el IP spoofing, el atacante genera paquetes de Internet con una dirección de red falsa en el campo From, pero que es aceptada por el destinatario del paquete.

El envío de falsos e-mails es otra forma de spoofing permitida por las redes. Aquí el atacante envía a nombre de otra persona e-mails con otros objetivos. Tal fue el caso de una universidad en USA que en 1998 debió reprogramar una fecha completa de exámenes ya que alguien en nombre de la secretaría había cancelado la fecha verdadera y enviado el mensaje a toda la nómina (163 estudiantes).

JAMMING o FLOODING

Este tipo de ataques desactivan o saturan los recursos del sistema. Por ejemplo, un atacante puede consumir toda la memoria o espacio en disco disponible, así como enviar tanto tráfico a la red que nadie más puede utilizarla.

Muchos ISPs (proveedores de Internet) han sufrido bajas temporales del servicio por ataques que explotan el protocolo TCP. Aquí el atacante satura el sistema con mensajes que requieren establecer conexión. Sin embargo, en vez de proveer la dirección IP del emisor, el mensaje contiene falsas direcciones IP (o sea que este ataque involucra también spoofing). El sistema responde al mensaje, pero como no recibe respuesta, acumula buffers con información de las conexiones abiertas, no dejando lugar a las conexiones legítimas.

Muchos servidores de Internet han sido dados de baja por el "ping de la muerte", una versión-trampa del comando ping. Mientras que el ping normal simplemente verifica si un sistema esta enlazado a la red, el ping de la muerte causa el reinicio o el apagado instantáneo del equipo.

Otra acción común es la de enviar millares de e-mails sin sentido a todos los usuarios posibles en forma continua, saturando los distintos servidores de destino.

CABALLOS DE TROYA

Consiste en introducir dentro de un programa una rutina o conjunto de instrucciones, por supuesto no autorizadas y que la persona que lo ejecuta no conoce, para que dicho programa actúe de una forma diferente a como estaba previsto (Por ej. Formatear el disco duro, modificar un fichero, sacar un mensaje, etc..).

BOMBAS LOGICAS

Este suele ser el procedimiento de sabotaje mas comúnmente utilizado por empleados descontentos. Consiste en introducir un programa o rutina que en una fecha determinada destruirá, modificara la información o provocara el cuelgue del sistema.

INGENIERA SOCIAL

Básicamente convencer a la gente de que haga lo que en realidad no debería. Por ejemplo llamar a un usuario haciéndose pasar por administrador del sistema y requerirle la password con alguna excusa convincente. Esto es común cuando en el Centro de Computo los administradores son amigos o conocidos.

DIFUSION DE VIRUS

Si bien es un ataque de tipo tampering, difiere de este porque puede ser ingresado al sistema por un dispositivo externo (diskettes) o través de la red (e-mails u otros protocolos) sin intervención directa del atacante. Dado que el virus tiene como característica propia su autoreproducción, no necesita de mucha ayuda para propagarse a traves de una LAN o WAN rápidamente, si es que no esta instalada una protección antivirus en los servidores, estaciones de trabajo, y los servidores de e-mail.

Existen distintos tipos de virus, como aquellos que infectan archivos ejecutables (.exe, .com, .bat, etc.) y los sectores de inicio de discos y diskettes, pero aquellos que causan en estos tiempos mas problemas son los macro-virus, que están ocultos en simples documentos o planilla de cálculo, aplicaciones que utiliza cualquier usuario de PC, y cuya difusión se potencia con la posibilidad de su transmisión de un continente a otro a través de cualquier red o Internet. Y además son multiplataforma, es decir, no están atados a un sistema operativo en particular, ya que un documento de MS-Word puede ser procesado tanto en un equipo Windows 3.x/95/98 , como en una Macintosh u otras.

Cientos de virus son descubiertos mes a mes, y técnicas más complejas se desarrollan a una velocidad muy importante a medida que el avance tecnológico permite la creación de nuevas puertas de entrada. Por eso es indispensable contar con una herramienta antivirus actualizada y que pueda responder rápidamente ante cada nueva amenaza.

El ataque de virus es el más común para la mayoría de las empresas, ya que en un gran porcentaje responden afirmativamente cuando se les pregunta si han sido víctimas de algún virus en los últimos 5 años.

OBTENCIÓN DE PASSWORDS, CÓDIGOS Y CLAVES

Este método (usualmente denominado cracking), comprende la obtención "por fuerza bruta" de aquellas claves que permiten ingresar a servidores, aplicaciones, cuentas, etc. Muchos passwords de acceso son obtenidos fácilmente porque involucran el nombre u otro dato familiar del usuario, que además nunca lo cambia. En esta caso el ataque se simplifica e involucra algún tiempo de prueba y error. Otras veces se realizan ataques sistemáticos (incluso con varias computadoras a la vez) con la ayuda de programas especiales y "diccionarios" que prueban millones de posibles claves hasta encontrar el password correcto. Es muy frecuente crackear un password explotando agujeros en los algoritmos de encriptación utilizados, o en la administración de las claves por parte la empresa.

Por ser el uso de passwords la herramienta de seguridad más cercana a los usuarios, es aquí donde hay que poner énfasis en la parte "humana" con políticas claras (¿cómo se define un password?, A quien se esta autorizado a revelarla?) y una administración eficiente (¿cada cuanto se están cambiando?)
No muchas organizaciones están exentas de mostrar passwords escritos y pegados en la base del monitor de sus usuarios, u obtenerlos simplemente preguntando al responsable de cualquier PC, cual es su password?.

Una Breve CONCLUSIÓN.

Los hackers son personas con grandes habilidades informáticas, que exigen que la red (Internet) sea de uso público, sin restricciones de pagos por información. Lamentablemente esto choca con el capitalismo imperante en nuestros tiempos, pasa a ser una idea casi surrealista la de tener una red de libre acceso sin ningún costo, más para las grandes empresas que proporcionan los servicios de conexión y acceso a datos las cuales jamás permitirían que esto sucediera ya que se quedarían sin la mayoría de sus ingresos.

Así, me parece una idea bastante acertada la que compara a los actuales hackers con el personaje Robin Hood, por buscar un fin bastante ilusorio para nuestros días.

Debo mencionar si a los que, siendo personas con grandes conocimientos, los usan en menoscabo de simples usuarios de la red, perjudicándolos en su acceso a la red, estas personas si son ciber-criminales, por hacerlo solo buscando una satisfacción propia y egoísta.

miércoles, 12 de diciembre de 2007

Hackers 3ra Parte


El Juego de la Vida y el símbolo hacker

glider.png

El gráfico que se ve aquí encima es lo que se llama un deslizador. glider.pngEs un patrón de una simulación matemática llamada El Juego de la Vida. En esta simulación, un conjunto de reglas muy simples acerca del comportamiento de puntos en una grilla generan un complejo y maravilloso fenómeno. El deslizador es el patrón más simple que tiene movimiento, y de reconocimiento casi instantáneo entre todos los patrones.

La comunidad hacker es, en efecto, una comunidad, unida por lazos de confianza a través de Internet, los emblemas visibles de la comunidad son tan valiosos para los hackers como lo son para otra clase de seres humanos.

Usar este emblema significa algo un poco diferente de simplemente presentarse como una fan de Linux, o un miembro de cualquier tribu hacker. Estos son desarrollos relativamente recientes en una tradición que se remonta a décadas.

Si una persona lo usa entonces se está identificando con la cultura hacker. Esto no es lo mismo que decir que es un hacker, ese es un título honorario que generalmente tiene que ser otorgado por otros hackers, no puede ser asumido por uno mismo. Pero usando este emblema se expresa simpatía por los objetivos de los hackers, sus valores y el modo de vida de los hackers.

El Juego e la Vida fueron descritos públicamente por primera vez en la revista Científica Americana en 1970. Nació a la vez que lo hicieron Internet y Unís. Y fascinó a los acres desde entonces.

En El Juego de la Vida, simples reglas de cooperación con las celdas vecinas llevan a lo inesperado, inclusive a estructuras complejas que no podrían haber sido predichas con solo mirar las reglas (fenómeno emergente. Este es un paralelo con la forma en que el desarrollo de programas de código abierto surgió en la comunidad hacker.

El deslizador cumple con los requisitos para un buen logo. Es simple, elegante, inconfundible y fácil de imprimir. Puede tener variantes, ser combinado con otros emblemas, o modificado y repetido indefinidamente para ser usado como un fondo de pantalla o en una página web.

Mucha gente cree que este emblema puede volerse inútil porque los script kiddies, crackers pueden usarlo. Y si, es un riesgo, pero otros emblemas (como el símbolo de la paz o al de anarquía) que tienen riesgos similares han sabido retener su utilidad

Parte de la efectividad de un emblema es el reconocimiento inmediato.

¿QUE SE NECESITA PARA HACKEAR?

La mayoria de las personas piensa que un hacker necesita caros equipos informaticos y estanterias llenas de manuales técnicos, pero la respuesta es NO!

Hackear puede ser sorprendentemente fácil, mejor todavía, si se sabe cómo explorar el World Wide Web, se puede encontrar casi cualquier información relacionada totalmente gratis.

De hecho, hackear es tan fácil que si se tiene un servicio on-line y se sabe cómo enviar y leer un e-mail, se puede comenzar a hackear inmediatamente.

¿COMO SE HACKEA?

Aquí no vamos a poner un manual de hackeo pero los pasos generales para hackear son:

1.Introducirse en el sistema que tengamos como objetivo.

2.Una vez conseguido el acceso, obtener privilegios de root

(superusuario).

3.Borrar las huellas.

4.Poner un sniffer para conseguir logins de otras personas.

En los primeros años, los ataques involucraban poca sofisticación técnica. Los insiders (empleados disconformes o personas externas con acceso a sistemas dentro de la empresa) utilizaban sus permisos para alterar archivos o registros. Los outsiders (personas que atacan desde afuera de la ubicación física de la organización) ingresaban a la red simplemente averiguando una password válida.

A través de los años se han desarrollado formas cada vez más sofisticadas de ataque para explotar "agujeros" en el diseño, configuración y operación de los sistemas. Esto permitó a los nuevos atacantes tomar control de sistemas completos, produciendo verdaderos desastres que en muchos casos llevo a la desaparición de aquellas organizaciones o empresas con altísimo grado de dependencia tecnológica (bancos, servicios automatizados, etc).

Estos nuevos métodos de ataque han sido automatizados, por lo que en muchos casos sólo se necesita conocimiento técnico básico para realizarlos. El aprendiz de intruso tiene acceso ahora a numerosos programas y scripts de numerosos "hacker" bulletin boards y páginas web, donde además encuentra todas las instrucciones para ejecutar ataques con las herramientas disponibles.

lunes, 10 de diciembre de 2007

Hackers 2da Parte



LA ÉTICA HACKER

La idea de ética hacker es formulada por vez primera en el libro de Steven Levy publicado en 1984 "Hacker: Heroes of de Computer Revolution",en donde señala que:

  • El acceso a las computadoras debe ser ilimitado y total.
  • Toda la información debe ser libre
  • Es necesario promover la descentralización
  • Los hackers deben ser juzgados por su labor, no por su raza, edad o posición. Su labor se centrará en el logro del libre acceso a la información.

Los hackers forman una élite de la informática que tiene la plena convicción de que toda la información debe ser libre y por lo tanto, las redes también deben serlo.

Una de sus actividades más comunes es demostrar la factibilidad de invadir sistemas de cómputo, para demostrar su fragilidad.

Por ejemplo, los hackers alemanes del Chaos Computer Club de Hamburgo penetraron al sistema hacendario de la localidad, para retirar algunos marcos. Al día siguiente los devolvieron e informaron sobre las fallas del sistema. Por situaciones como ésta, los hackers se han dado a conocer como los Robin Hood de la cibercultura.

Ellos consideran que el ciberespacio es controlado por grandes multinacionales de las comunicaciones y de la informática, con base en el ejercicio de políticas antisociales, pues afirman que estas empresas mantienen sus equipos más avanzados lejos de la mayoría de la gente. Piensan que otro tipo de apropiación tecnológica es la ejercida por las compañías telefónicas, quiénes cobran precios muy altos por sus servicios.

Esta limitación tecnológica ejercida sobre gran parte de la población, ha originado una lucha permanente por parte de los hackers. Uno de ellos menciona que su crimen es atraer a gente nueva al arte del hacking, para que luche por la libertad en el ciberespacio y asegura que aún cuando la humanidad los juzga de criminales, no tardará mucho en reconocer que esto no es verdad.

Los ideales de hackers guardan gran correspondencia con la inteligencia colectiva que menciona Lévy, con la instauración de un espacio en donde la inteligencia se distribuya en todas direcciones y dé origen a un medio de discusiones plurales. Sin embargo, esta visión de libertad en la información, plantea diversas interrogantes acerca de cómo regular la propiedad intelectual.

Aspectos como éste requieren especial atención, sobre todo por las características que reviste el flujo de información en el entorno digital. Mientras esto se analiza en el mundo, los ciber-rebeldes crean sus propias reglas y los hackers luchan por una utopía más: por la libertad de la información.

¿CÓMO PIENSA UN HACKER?

1.El mundo está lleno de problemas fascinantes que esperan ser resueltos
2. Nadie debería tener que resolver un problema dos veces
3. Lo aburrido y rutinario es malo
4. La libertad es buena
5. La actitud no es sustituta para la habilidad

MANDAMIENTOS DE UN HACKER

· Nunca dañes algo intencionadamente. Lo único que conseguirás será buscarte problemas.
· Modifica sólo lo estrictamente necesario para entrar y evitar ser localizado, o para poder acceder otras veces.
· No hackees nunca por venganza ni por intereses personales o económicos.
· No hackees sistemas pobres que no puedan reponerse de un ataque fuerte. Ni tampoco sistemas ricos o grandes que puedan permitirse gastar dinero y tiempo en buscarte.

· Odia a Telefónica pero no te metas con ella.
· No hackees ordenadores del gobierno. No olvides que la policía trabaja para ellos.
· No comentes con nadie tus hazañas (los más grandes hackers de la historia han sido cazados debido a las confesiones de sus novias)
· Cuando hables por Internet, procura ser lo más discreto posible. Todo lo que digas quedará almacenado.
· Sé paranoico. No dejes ningún dato que pueda relacionarse contigo.
· Estudia mucho antes de lanzarte a la práctica. Nunca dejes de estudiar y de aprender nuevas cosas.

miércoles, 5 de diciembre de 2007

Hackers 1ra Parte


















Espero que estas Notas les sea de gran provecho.

INT

Todos hemos escuchado el término "Hacker" alguna vez, los que contamos con un computador en casa, el sólo hecho de escuchar el término nos asusta, lo relacionamos con virus y espías peligrosos que pueden causar graves daños a nuestro ordenador.

En este informe he querido presentar brevemente la definición de hacker y lo que éste término lleva consigo, que es bastante más de lo que podría imaginar al comenzar esta investigación.

DEFINICIÓN DE HACKER

El término "hacker" provendría de hack, palabra utilizada en EEUU para describir el sonido que hacían los técnicos de las empresas telefónicas al golpear los aparatos para que funcionaran.

También se postula que este término surgió de los programadores del Massachussets Institute of Technology, en los años 60 ya que, por usar hacks (en informática pequeñas modificaciones que se efectúan a un programa o a una máquina para mejorar o alterar su funcionamiento), se hicieron llamar a sí mismos hackers para dejar en claro que podían hacer mejores programas que cualquier otra persona.

Un hacker denominado "sombrero blanco" es un experto en una o varias ramas de la computación y telecomunicación: redes de comunicación, programación, sistemas operativos, hardware. Su función consiste en buscar defectos, puertas traseras y mejorar la seguridad del software, así como prevenir posibles errores futuros.

También existen los llamados hackers "sombreros negros" que utilizan todo el conocimiento que poseen, con fines maliciosos, antimorales o incluso bélicos, como intrusión de redes, acceso ilegal a sistemas gubernamentales, robo de información y muchos más crímenes informaticos.

También es hacker el que distribuye material ilegal o moralmente inaceptable, como fabricación de virus, herramientas de hackeo y elementos de anarquismo como la distribución de manuales para fabricar elementos explosivos caseros o la clásica tortura china, el hacker se distingue del pirata informático por sus valores morales, sociales y políticos que por lo general enfrentados al mundo capitalista

En una línea semejante se encuentran los crackers. Ellos se ocupan de piratear programas, penetrar a sistemas privados y en ocasiones, de destruirlos. Además, se muestra como un grupo experto en la inserción de poderosos virus computacionales en la red, con la idea de sabotear al máximo los grandes sistemas. Como ejemplo, baste decir que en los ochenta una plaga de virus transmitidos por "computólogos" búlgaros a través de discos de software, causó daños en cientos de computadoras personales.

Aunque en muchas ocasiones se piensa que crackers y hackers son lo mismo, en realidad existen ciertas distinciones, aunque resulta difícil dibujar claramente la línea divisoria.

A lo difícil que es diferenciar las actividades de crackers y hackers, muchas veces a éstos últimos se les atribuye actividades delictivas en la red, del robo y/o destrucción de información. Sin embargo, los hackers se han planteado una ética que pretende liberar la información, antes que realizar acciones ilícitas.

El término hacker, en conclusión, se utiliza para identificar a los que únicamente acceden a un sistema protegido como si se tratara de un reto personal, sin intentar causar daños.

LA COMUNIDAD HACKER

La comunidad hacker empieza a formarse a comienzos de los años 60 dentro de los laboratorios de Ciencias de la Computación y de Inteligencia Artificial de las universidades americanas más prestigiosas. Parece ser que los primeros que utilizaron el término hacker en su sentido actual fueron los investigadores del Laboratorio de Inteligencia Artificial del Massachusets Institute of Technology (MIT).

El establecimiento en 1969 de ARPANET --la primera red transcontinental de computadores-- favoreció el rápido desarrollo de la comunidad hacker. Los primeros productos de su folclore --las primeras compilaciones de jerga hacker, los primeros escritos satíricos y las primeras reflexiones acerca de la ética hacker-- se distribuyeron extensamente por ARPANET a comienzos de los años 70. A finales de esa década, los hackers Ken Thompson y Dennis Ritchie desarrollaron el sistema operativo Unix y el lenguaje C. Durante la década de los 80, la comunidad hacker adoptó Unix como su sistema operativo y, aprovechando las capacidades que proporcionaba el nuevo sistema para interconectar computadores, desarrolló una red de computadores, USENET, aún más extensa que la original ARPANET.

USENET, como antes ARPANET, contribuyó decisivamente al desarrollo de la comunidad hacker, al permitir el rápido y fácil intercambio de información, noticias y productos entre sus miembros. Precisamente en uno de los boletines de noticias de USENET, net.unix-wizards, en septiembre de 1983, se anunció bajo el título ``Nueva implementación de Unix'' la primera implementación libre de Unix:

El próximo Día de Acción de Gracias comenzaré a escribir un sistema operativo compatible con Unix denominado GNU (por GNU No es Unix), y lo distribuiré libremente a todo aquel que quiera utilizarlo. Se necesitan colaboradores que dediquen tiempo, dinero, programas y equipos a este proyecto.

El mensaje lo firmaba Richard Stallman, creador del editor de textos EMACS --uno de los favoritos entre los hackers--, y miembro entonces del Laboratorio de Inteligencia Artificial del MIT. Aunque la nueva implementación de Unix anunciada por Stallman no estuvo disponible hasta 1996, sus ideas acerca del carácter no propietario o libre del software configuraron la ideología hacker hasta mediados de los años 90. Para Stallman, software libre significa que el usuario tiene:

  • la libertad para ejecutar el programa con cualquier fin;
  • la libertad para analizar como funciona el programa y adaptarlo a sus necesidades;
  • la libertad para distribuir copias del programa con el fin de ayudar a sus colegas; y
  • la libertad para mejorar el programa y publicar sus resultados de forma que toda la comunidad se pueda beneficiar de sus innovaciones.

A comienzos de los años 90, Linus Torvalds, un estudiante de la Universidad de Helsinki, decidió desarrollar una versión libre de Unix para su computador personal. Como Stallman había hecho en 1983, Torvalds anunció su proyectó utilizando los boletines de noticias de USENET.

Hola a todos los que estáis ahí afuera utilizando minix [una versión simplificada de Unix],
Estoy escribiendo un sistema operativo (libre) --a modo de hobby; para [computadores] clónicos AT 386 (486); no será tan grande ni profesional como GNU. Se está cociendo desde abril, y comienza a estar listo. Me gustaría que me dijerais cosas que a la gente le gusta/disgusta de minix, puesto que mi OS [sistema operativo] de alguna manera se le asemeja (por ejemplo, mantiene, por razones prácticas, el mismo diseño para el sistema de ficheros).

Aunque los primeros computadores personales (PC) se comercializaron en 1975, la comunidad hacker no les prestó atención hasta comienzos de los 90, cuando aparecieron los primeros computadores personales con prestaciones equiparables a las estaciones de trabajo Unix de los años 80, pero a un precio sustancialmente inferior. Sin embargo, faltaba por desarrollar versiones de Unix para los computadores personales a un precio igualmente asequible. La propuesta de Torvalds recibió un apoyo entusiasta dentro de la comunidad hacker y, a finales de 1993, se empezaban a distribuir libremente las primeras versiones de Linux. Desde entonces, el desarrollo de Linux ha venido centrando la actividad de la comunidad hacker.

Por esto se considera a los Hackers creadores de Linux y que sin su cooperación no existirían internet ni World Wide Web.

Búsqueda personalizada