Mostrando entradas con la etiqueta Ingenieria. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ingenieria. Mostrar todas las entradas

lunes, 10 de diciembre de 2007

Hackers 2da Parte



LA ÉTICA HACKER

La idea de ética hacker es formulada por vez primera en el libro de Steven Levy publicado en 1984 "Hacker: Heroes of de Computer Revolution",en donde señala que:

  • El acceso a las computadoras debe ser ilimitado y total.
  • Toda la información debe ser libre
  • Es necesario promover la descentralización
  • Los hackers deben ser juzgados por su labor, no por su raza, edad o posición. Su labor se centrará en el logro del libre acceso a la información.

Los hackers forman una élite de la informática que tiene la plena convicción de que toda la información debe ser libre y por lo tanto, las redes también deben serlo.

Una de sus actividades más comunes es demostrar la factibilidad de invadir sistemas de cómputo, para demostrar su fragilidad.

Por ejemplo, los hackers alemanes del Chaos Computer Club de Hamburgo penetraron al sistema hacendario de la localidad, para retirar algunos marcos. Al día siguiente los devolvieron e informaron sobre las fallas del sistema. Por situaciones como ésta, los hackers se han dado a conocer como los Robin Hood de la cibercultura.

Ellos consideran que el ciberespacio es controlado por grandes multinacionales de las comunicaciones y de la informática, con base en el ejercicio de políticas antisociales, pues afirman que estas empresas mantienen sus equipos más avanzados lejos de la mayoría de la gente. Piensan que otro tipo de apropiación tecnológica es la ejercida por las compañías telefónicas, quiénes cobran precios muy altos por sus servicios.

Esta limitación tecnológica ejercida sobre gran parte de la población, ha originado una lucha permanente por parte de los hackers. Uno de ellos menciona que su crimen es atraer a gente nueva al arte del hacking, para que luche por la libertad en el ciberespacio y asegura que aún cuando la humanidad los juzga de criminales, no tardará mucho en reconocer que esto no es verdad.

Los ideales de hackers guardan gran correspondencia con la inteligencia colectiva que menciona Lévy, con la instauración de un espacio en donde la inteligencia se distribuya en todas direcciones y dé origen a un medio de discusiones plurales. Sin embargo, esta visión de libertad en la información, plantea diversas interrogantes acerca de cómo regular la propiedad intelectual.

Aspectos como éste requieren especial atención, sobre todo por las características que reviste el flujo de información en el entorno digital. Mientras esto se analiza en el mundo, los ciber-rebeldes crean sus propias reglas y los hackers luchan por una utopía más: por la libertad de la información.

¿CÓMO PIENSA UN HACKER?

1.El mundo está lleno de problemas fascinantes que esperan ser resueltos
2. Nadie debería tener que resolver un problema dos veces
3. Lo aburrido y rutinario es malo
4. La libertad es buena
5. La actitud no es sustituta para la habilidad

MANDAMIENTOS DE UN HACKER

· Nunca dañes algo intencionadamente. Lo único que conseguirás será buscarte problemas.
· Modifica sólo lo estrictamente necesario para entrar y evitar ser localizado, o para poder acceder otras veces.
· No hackees nunca por venganza ni por intereses personales o económicos.
· No hackees sistemas pobres que no puedan reponerse de un ataque fuerte. Ni tampoco sistemas ricos o grandes que puedan permitirse gastar dinero y tiempo en buscarte.

· Odia a Telefónica pero no te metas con ella.
· No hackees ordenadores del gobierno. No olvides que la policía trabaja para ellos.
· No comentes con nadie tus hazañas (los más grandes hackers de la historia han sido cazados debido a las confesiones de sus novias)
· Cuando hables por Internet, procura ser lo más discreto posible. Todo lo que digas quedará almacenado.
· Sé paranoico. No dejes ningún dato que pueda relacionarse contigo.
· Estudia mucho antes de lanzarte a la práctica. Nunca dejes de estudiar y de aprender nuevas cosas.

miércoles, 5 de diciembre de 2007

Hackers 1ra Parte


















Espero que estas Notas les sea de gran provecho.

INT

Todos hemos escuchado el término "Hacker" alguna vez, los que contamos con un computador en casa, el sólo hecho de escuchar el término nos asusta, lo relacionamos con virus y espías peligrosos que pueden causar graves daños a nuestro ordenador.

En este informe he querido presentar brevemente la definición de hacker y lo que éste término lleva consigo, que es bastante más de lo que podría imaginar al comenzar esta investigación.

DEFINICIÓN DE HACKER

El término "hacker" provendría de hack, palabra utilizada en EEUU para describir el sonido que hacían los técnicos de las empresas telefónicas al golpear los aparatos para que funcionaran.

También se postula que este término surgió de los programadores del Massachussets Institute of Technology, en los años 60 ya que, por usar hacks (en informática pequeñas modificaciones que se efectúan a un programa o a una máquina para mejorar o alterar su funcionamiento), se hicieron llamar a sí mismos hackers para dejar en claro que podían hacer mejores programas que cualquier otra persona.

Un hacker denominado "sombrero blanco" es un experto en una o varias ramas de la computación y telecomunicación: redes de comunicación, programación, sistemas operativos, hardware. Su función consiste en buscar defectos, puertas traseras y mejorar la seguridad del software, así como prevenir posibles errores futuros.

También existen los llamados hackers "sombreros negros" que utilizan todo el conocimiento que poseen, con fines maliciosos, antimorales o incluso bélicos, como intrusión de redes, acceso ilegal a sistemas gubernamentales, robo de información y muchos más crímenes informaticos.

También es hacker el que distribuye material ilegal o moralmente inaceptable, como fabricación de virus, herramientas de hackeo y elementos de anarquismo como la distribución de manuales para fabricar elementos explosivos caseros o la clásica tortura china, el hacker se distingue del pirata informático por sus valores morales, sociales y políticos que por lo general enfrentados al mundo capitalista

En una línea semejante se encuentran los crackers. Ellos se ocupan de piratear programas, penetrar a sistemas privados y en ocasiones, de destruirlos. Además, se muestra como un grupo experto en la inserción de poderosos virus computacionales en la red, con la idea de sabotear al máximo los grandes sistemas. Como ejemplo, baste decir que en los ochenta una plaga de virus transmitidos por "computólogos" búlgaros a través de discos de software, causó daños en cientos de computadoras personales.

Aunque en muchas ocasiones se piensa que crackers y hackers son lo mismo, en realidad existen ciertas distinciones, aunque resulta difícil dibujar claramente la línea divisoria.

A lo difícil que es diferenciar las actividades de crackers y hackers, muchas veces a éstos últimos se les atribuye actividades delictivas en la red, del robo y/o destrucción de información. Sin embargo, los hackers se han planteado una ética que pretende liberar la información, antes que realizar acciones ilícitas.

El término hacker, en conclusión, se utiliza para identificar a los que únicamente acceden a un sistema protegido como si se tratara de un reto personal, sin intentar causar daños.

LA COMUNIDAD HACKER

La comunidad hacker empieza a formarse a comienzos de los años 60 dentro de los laboratorios de Ciencias de la Computación y de Inteligencia Artificial de las universidades americanas más prestigiosas. Parece ser que los primeros que utilizaron el término hacker en su sentido actual fueron los investigadores del Laboratorio de Inteligencia Artificial del Massachusets Institute of Technology (MIT).

El establecimiento en 1969 de ARPANET --la primera red transcontinental de computadores-- favoreció el rápido desarrollo de la comunidad hacker. Los primeros productos de su folclore --las primeras compilaciones de jerga hacker, los primeros escritos satíricos y las primeras reflexiones acerca de la ética hacker-- se distribuyeron extensamente por ARPANET a comienzos de los años 70. A finales de esa década, los hackers Ken Thompson y Dennis Ritchie desarrollaron el sistema operativo Unix y el lenguaje C. Durante la década de los 80, la comunidad hacker adoptó Unix como su sistema operativo y, aprovechando las capacidades que proporcionaba el nuevo sistema para interconectar computadores, desarrolló una red de computadores, USENET, aún más extensa que la original ARPANET.

USENET, como antes ARPANET, contribuyó decisivamente al desarrollo de la comunidad hacker, al permitir el rápido y fácil intercambio de información, noticias y productos entre sus miembros. Precisamente en uno de los boletines de noticias de USENET, net.unix-wizards, en septiembre de 1983, se anunció bajo el título ``Nueva implementación de Unix'' la primera implementación libre de Unix:

El próximo Día de Acción de Gracias comenzaré a escribir un sistema operativo compatible con Unix denominado GNU (por GNU No es Unix), y lo distribuiré libremente a todo aquel que quiera utilizarlo. Se necesitan colaboradores que dediquen tiempo, dinero, programas y equipos a este proyecto.

El mensaje lo firmaba Richard Stallman, creador del editor de textos EMACS --uno de los favoritos entre los hackers--, y miembro entonces del Laboratorio de Inteligencia Artificial del MIT. Aunque la nueva implementación de Unix anunciada por Stallman no estuvo disponible hasta 1996, sus ideas acerca del carácter no propietario o libre del software configuraron la ideología hacker hasta mediados de los años 90. Para Stallman, software libre significa que el usuario tiene:

  • la libertad para ejecutar el programa con cualquier fin;
  • la libertad para analizar como funciona el programa y adaptarlo a sus necesidades;
  • la libertad para distribuir copias del programa con el fin de ayudar a sus colegas; y
  • la libertad para mejorar el programa y publicar sus resultados de forma que toda la comunidad se pueda beneficiar de sus innovaciones.

A comienzos de los años 90, Linus Torvalds, un estudiante de la Universidad de Helsinki, decidió desarrollar una versión libre de Unix para su computador personal. Como Stallman había hecho en 1983, Torvalds anunció su proyectó utilizando los boletines de noticias de USENET.

Hola a todos los que estáis ahí afuera utilizando minix [una versión simplificada de Unix],
Estoy escribiendo un sistema operativo (libre) --a modo de hobby; para [computadores] clónicos AT 386 (486); no será tan grande ni profesional como GNU. Se está cociendo desde abril, y comienza a estar listo. Me gustaría que me dijerais cosas que a la gente le gusta/disgusta de minix, puesto que mi OS [sistema operativo] de alguna manera se le asemeja (por ejemplo, mantiene, por razones prácticas, el mismo diseño para el sistema de ficheros).

Aunque los primeros computadores personales (PC) se comercializaron en 1975, la comunidad hacker no les prestó atención hasta comienzos de los 90, cuando aparecieron los primeros computadores personales con prestaciones equiparables a las estaciones de trabajo Unix de los años 80, pero a un precio sustancialmente inferior. Sin embargo, faltaba por desarrollar versiones de Unix para los computadores personales a un precio igualmente asequible. La propuesta de Torvalds recibió un apoyo entusiasta dentro de la comunidad hacker y, a finales de 1993, se empezaban a distribuir libremente las primeras versiones de Linux. Desde entonces, el desarrollo de Linux ha venido centrando la actividad de la comunidad hacker.

Por esto se considera a los Hackers creadores de Linux y que sin su cooperación no existirían internet ni World Wide Web.

martes, 27 de noviembre de 2007

Con la Tecnología de Invisibilidad en Desarrollo, es Viable Crear un "Agujero Electromagnético de Gusano"


El equipo que creó por primera vez los fundamentos matemáticos que sirven de base a la "capa de invisibilidad" ha demostrado ahora que la misma tecnología pudiera aplicarse para generar un "agujero electromagnético de gusano".

En el estudio, Allan Greenleaf, profesor de matemáticas en la Universidad de Rochester, y sus colaboradores, han planteado una variante del tema del enmascaramiento por invisibilidad. Sus resultados abren la posibilidad de construir un túnel invisible entre dos puntos del espacio.

"Imagine la capa de invisibilidad de Harry Potter alrededor de un tubo", explica Greenleaf. "Si el material se diseña según nuestras especificaciones, usted podría introducir un objeto en un extremo, verlo desaparecer, y, después de que hubiera viajado a lo largo del tubo invisible, verlo reaparecer en el exterior en el otro extremo".

La tecnología actual puede crear objetos que resulten invisibles sólo a la radiación de microondas, pero la teoría matemática permite el efecto del agujero de gusano para las ondas electromagnéticas de todas las frecuencias. Con esto en mente, Greenleaf y sus colaboradores proponen varias posibles aplicaciones. Las cirugías endoscópicas en las que el cirujano se guía por imágenes de MRI son problemáticas porque los intensos campos magnéticos generados por el escáner de MRI afectan a las herramientas del cirujano, y además tales herramientas pueden distorsionar las imágenes de MRI. Sin embargo, haciendo pasar a las herramientas a través de un agujero electromagnético de gusano se las podría esconder eficazmente ante los campos, permitiendo que sólo sus puntas fueran "visibles" durante el trabajo.

Para crear la tecnología de invisibilidad, Greenleaf y sus colaboradores utilizan matemáticas teóricas orientadas a diseñar un dispositivo que guíe las ondas electromagnéticas de una forma útil. Los investigadores podrían emplear entonces estos diseños para crear revestimientos especiales que curven la luz a partir de materiales compuestos denominados metamateriales.

El año pasado, David R. Smith, profesor de ingeniería electrónica y computación de la Universidad Duke, y sus colaboradores, diseñaron un dispositivo de invisibilidad con forma de disco, capaz de hacer que las microondas pasen alrededor de él. Greenleaf y sus colaboradores han empleado ahora una geometría más detallada para especificar exactamente qué propiedades debe poseer el metamaterial de un agujero de gusano para crear el efecto del "túnel invisible". También han calculado qué efectos ópticos adicionales ocurrirían si el interior del agujero de gusano se recubriera con determinados metamateriales hipotéticos.

Asumiendo que su capacidad ocular estuviera limitada a las pocas frecuencias en que opera el agujero de gusano, al mirar por un extremo usted percibiría una visión distorsionada del otro extremo, según las simulaciones hechas por Greenleaf y sus colegas. Dependiendo de la longitud del tubo y de cuán frecuentemente la luz rebotara en su interior, usted simplemente podría ver una imagen circular o de "ojo de pez" del otro extremo, o podría contemplar una impactante perspectiva "imposible" al estilo de los cuadros de Escher.

Otro uso, más lejano en el futuro, sería una pantalla de televisión en 3D. Imagine miles de delgados agujeros de gusano pegados en el exterior de una caja como un largo manojo de hierba en un jarrón. Los propios agujeros de gusano serían invisibles, pero sus extremos podrían transmitir la luz transportada desde debajo. Sería como si miles de píxeles estuvieran simplemente flotando en el aire.

Rompiendo la Barrera de la Resolución Nanométrica en los Rayos X


Un equipo de investigadores del Laboratorio Nacional de Brookhaven ha superado un obstáculo fundamental para usar las lentes refractivas en el enfoque de los rayos X. Este método permitirá un enfoque eficiente de los mismos hasta puntos sumamente pequeños y constituye un descubrimiento importante para el desarrollo de una nueva fuente de luz. La tecnología permitirá lograr avances en la nanociencia, la energía, la biología y la investigación sobre materiales.

Estos científicos excedieron un límite muy importante en la capacidad de enfocar los rayos X "duros" o de alta energía, conocido como el "ángulo crítico".

El ángulo crítico es el ángulo límite al que la luz puede desviarse por medio de una superficie única. Imagine un haz de láser que viaja hacia una lente de vidrio. Dependiendo de las características del material de la lente y el ángulo con que es dirigido el haz, la luz puede refractarse, es decir, transmitirse a través de la lente pero desviada. Sin embargo, cuando este haz de luz se aproxima a la lente con ángulos menores que el ángulo crítico, el haz no pasa a través de la lente sino que en vez de eso se refleja.

El ángulo límite para la desviación determina el tamaño más pequeño de los puntos a los cuales pueden ser enfocados los rayos X. Ello acarrea un problema para los investigadores que utilizan los rayos X para estudiar moléculas, átomos y materiales avanzados a escala nanométrica. Estos objetos tan diminutos requieren de haces finamente enfocados.

Los investigadores han demostrado que el ángulo crítico puede superarse con los rayos X de alta potencia. Gracias a los excelentes recursos del Centro para los Nanomateriales Funcionales del Laboratorio de Brookhaven, y a los de Alcatel-Lucent, pudieron fabricar las lentes especiales con la precisión requerida.

Éste es un paso importante debido a la creciente necesidad de analizar materiales y moléculas mediante rayos X con una alta resolución capaz de llegar a un nanómetro. Esa capacidad se necesita para estudiar los intrincados mecanismos de los sistemas químicos y biológicos.

Sin exceder el ángulo crítico, la resolución de la lente refractiva se limitaría a 24 nanómetros o más. Aunque en este experimento los investigadores sólo han conseguido sobrepasar un poco este límite, han demostrado que puede lograrse. Éste es simplemente el primer paso.

En el futuro, los investigadores continuarán fabricando y probando sistemas ópticos que permitan ir mucho más allá del ángulo crítico y más cerca de esa meta de 1 nanómetro.

viernes, 16 de noviembre de 2007

Los nuevos computadores consumirán la energía de 25 hidroeléctricas



Uno de los padres del "software libre", el estadounidense John "Maddog" Hall, afirmó hoy que los 1.000 millones de computadores en el mundo en los próximo cinco años, si mantienen los actuales patrones de consumo, necesitarán de 25 hidroeléctricas como Itaupú, la mayor en operación del planeta.

Hall, según informó este jueves la hidroeléctrica Binacional Itaipú, que realizó los días martes y miércoles la IV Conferencia Latinoamericana de Software Libre (Latinoware 2007), apuntó que el sistema eléctrico mundial requiere con "urgencia" de nuevos equipos informáticos de bajo consumo.

El especialista detalló que los actuales ordenadores de mesa consumen 350 vatios y los portátiles 80, pero un nuevo equipo "popular" de la AMD, con precio de 300 dólares, saldrá en próximos días al mercado para consumir 15 vatios con sus 80 gigabytes de disco duro, monitor de cristal líquido y cuartos puertos USB.

El tamaño del equipo será el de una unidad de reproducción-grabación de discos compactos y el software operaciones de código "abierto".

En la conferencia realizada en la sureña ciudad de Foz de Iguazú, en tanto, Brasil anunció la compra de 90.000 computadores con software libre que se suman a los 50.000 existentes del programa "Computador Para Todos", que cuenta con subsidios y amplia financiación para el usuario final a un costo de 600 dólares.

Posiblemente Amazon podría lanzar su lector de libros electrónicos el lunes


Estimados lectores he recibido la noticia de ultimo minuto, El minorista de Internet Amazon.com planea introducir su esperado mecanismo para los libros electrónicos en un evento en Nueva York el lunes, dijo CNET en su página web, citando una fuente de la industria.

Según CNET, el "Kindle" estará equipado con conexión Wi-Fi que entra en una tienda de libros electrónicos de Amazon a la que los usuarios pueden acceder para comprarlos. CNET dijo que se espera que el precio final del Kindle sea de 399 dólares (unos 270 euros).

No hubo disponible ningún representante de Amazon inmediatamente para comentar

La fuente dijo que "Kindle" viene con unos cascos para los audiolibros, así como una dirección de correo electrónico.

El lector también incluye una característica que permite a los usuarios descargarse cada mañana las ediciones digitales del The New York Times y The Wall Street Journal, añadió CNET.

La fuente añadió que Amazon había estado intentado firmar un acuerdo para el lanzamiento, de modo que contase con un éxito editorial vinculado al lector de libros electrónicos, según CNET.

Sony ya vende un aparato para este tipo de libros llamado Sony Reader.

BIEN Otra oportunidad para Linux en Wal-Mart


Linux, el sistema operativo gratis que ha estado siempre en minoría en el mercado de las computadoras de escritorio, tendrá una nueva oportunidad esta temporada navideña a través de las tiendas Wal-Mart Inc.

El miércoles, la cadena estaba recibiendo órdenes a través de la internet para la compra de una computadora llamada Green PC (gPC) hecha por Everex de Taiwán y que cuesta 199 dólares y viene con software de Linux. Wal-Mart anunció que estará disponible en 600 locales y también por Internet.

Un PC comparable de Everex que viene con Windows Vista Home Basic y más memoria cuesta 99 dólares más, lo que equivale a 298 dólares, en parte porque el fabricante tiene que pagar a Microsoft Corp. por la licencia del sistema operativo. Ambas computadoras vienen con teclado, ratón y parlantes, pero sin monitor.

Linux es desarrollado y actualizado voluntariamente por individuos y compañías alrededor del mundo, mediante un sistema conocido como de "código abierto" en que todos tienen acceso al código fuente.

Es de uso generalizado en servidores, en particular aquellos que hospedan sitios de internet. Pero no ha logrado aún tener el menor impacto en el mercado de las computadoras de escritorio. Las encuestas habitualmente estiman su participación del mercado en 1%, muy detrás de Windows y del sistema operativo OS X, de Apple Inc.

Wal-Mart comenzó a vender computadoras con Linux por internet en 2002, a 199 dólares. Hubo disponibilidad de diversas computadoras de varios fabricantes, pero últimamente ya no estaban en el inventario.

La variante de Linux en el gPC se llama gOS y se deriva de la popular variante Ubuntu. Está fuertemente orientada hacia los sitios de internet y aplicaciones de Google, como YouTube, Gmail y el procesador de textos de la compañía, todos los cuales pueden ser usados solamente si la computadora está conectada a una línea de banda ancha. El PC viene con una conexión telefónica pero no es compatible con gOS. Por lo tanto, la mayoría de los usuarios deberán conectarse por otras vías.

El emprendimiento de Google en cuanto a programas de funcionamiento de escritorio es relativamente reciente y gOS, la nueva empresa con base en Los Ángeles que impulsa estos desarrollos, ve el alejamiento del familiar ambiente Windows como un punto crucial para vencer la reticencia de los consumidores.

"Sentimos que llegó el tiempo del código abierto justamente por eso", dice el fundador de gOS, David Lu. La compañía tiene menos de 10 empleados pero recibe ayuda de voluntarios en la comunidad Linux.

Queda todavía por verificar si compradores que cuidan su presupuesto y se ven atraídos por una PC a 199 dólares están también dispuestos a dar el salto a Linux. El sistema operativo no se destaca por su facilidad de uso y atrae principalmente a aquellos que son expertos en tecnología.

La portavoz de Wal-Mart, Melissa O’Brien, dijo que están ofreciendo la computadora en una tienda de cada ocho para evaluar la demanda por un producto de código abierto.

El gPC tiene un procesador de desempeño modesto de VIA Technologies, 512 Mb de memoria interna, 80 Gb de disco duro y una combinación de lectora de DVD y grabadora de CD.

Everex dice que el procesador es muy eficiente y por eso amerita el nombre de "Green".

Robo en un hotel virtual

La policía holandesa detuvo a un adolescente por el presunto robo de muebles virtuales en "habitaciones" del Hotel Habbo, un sitio de internet para contactos sociales.

El muchacho, de 17 años, está acusado del robo de cerca de US$6.000 en mobiliario comprado con dinero real.

Cinco jóvenes de 15 años también fueron interrogados por la policía, que fue llamada por los propietarios del sitio.

Se sospecha que los seis se llevaron los muebles robados a sus habitaciones en el Hotel Habbo.

Un portavoz de Sulake, la compañía que opera el Hotel Habbo, declaró que los acusados crearon sitios falsos de internet para que sus víctimas les dieran sus códigos de acceso.

"En Habbo, como en muchos otros mundos virtuales, el robo de información personal representa un problema desde hace algún tiempo", dijo el portavoz.

"Hemos tenido este problema en varios países, pero este es el primer caso en que la policía adoptado medidas legales".

Dinero real por objetos virtuales

Los usuarios de Habbo pueden crear sus propios personajes, decorar sus habitaciones y jugar juegos pagando con créditos Habbo, que tienen que comprar con dinero real.

"Es un robo porque los muebles se compraron con dinero real, pero la única manera de robar en Habbo es usando los nombres de usuario y las contraseñas de otras personas para entrar en el sitio", señaló el portavoz.

La compañía intervino "porque hay un creciente número de sitios de internet que se hacen pasar por Habbo. Algunas personas pueden tratar de entrar para robar sus detalles personales", indicó.

Unos seis millones de personas de 30 países juegan en el Hotel Habbo cada mes.

El robo virtual es un problema cada vez más grave en los mundos virtuales. En 2005, un jugador chino fue apuñalado durante una discusión sobre una espada en uno de los juegos cibernéticos.

Qiu Chengwei, de Shangai, mató a Zhu Caoyuan cuando descubrió que éste había vendido un "sable dragón" que le había prestado.



jueves, 15 de noviembre de 2007

Microsensores Avanzados Para Medir Polución en Agua y Aire


Investigadores del Instituto Tecnológico de Georgia han desarrollado un sensor en miniatura que utiliza membranas de polímero depositadas sobre un diminuto disco de silicio para medir los contaminantes presentes en ambientes acuosos o gaseosos. Un conjunto de estos sensores, con capas superficiales diferentes, podría emplearse durante pruebas de campo para detectar con rapidez muchos productos químicos diferentes.

Dado que este nuevo sensor permite que las muestras de agua y aire sean analizadas en el propio lugar de su procedencia, tiene ventajas sobre las técnicas clásicas que requieren del análisis de las muestras en el laboratorio.

El corazón del sensor en forma de disco es una microbalanza que mide la masa de las moléculas del contaminante.

Cuando los productos químicos contaminantes son adsorbidos por la superficie del sensor, un cambio de la frecuencia de vibración de la microbalanza proporciona una medida del cambio de masa asociado.

Esta clase de balanzas, que se mueven entre arriba y abajo como un trampolín, son comunes para medir la cantidad de un producto químico en fase gaseosa. Sin embargo, las vibraciones mecánicas de las balanzas que detectan los cambios de masa se ven amortiguadas en los líquidos produciéndose con ello una disminución de su sensibilidad. Por eso los investigadores buscaron estructuras cuyas vibraciones fueran menos afectadas por el medio circundante en ese aspecto.

Escogieron un disco de silicio para el sensor. El disco vibra con una frecuencia de resonancia característica de entre 300 y 1.000 kilohercios, dependiendo de su geometría.

Como cada sensor tiene un diámetro aproximado de 200 a 300 micras, o el diámetro medio de un cabello humano; un conjunto de doce sensores mide sólo unos milímetros.


Modificando la superficie del transductor de silicio con membranas de polímeros diferentes, cada sensor se vuelve selectivo para un grupo de productos químicos.

Un conjunto de estos sensores, en el que cada sensor esté acondicionado de modo diferente, puede detectar distintos contaminantes en una amplia variedad de entornos que van desde los propios de las aplicaciones industriales hasta los que son objeto de inspección medioambiental o biomédica.

Nanotubos Para Detectar y Reparar Fisuras en Alas de Avión y Otras Estructuras Críticas


Según un nuevo estudio, agregando una cantidad incluso pequeña de nanotubos de carbono se puede avanzar un gran trecho hacia el reforzamiento de la resistencia, la integridad, y la seguridad de materiales plásticos ampliamente usados en aplicaciones de ingeniería.

Investigadores del Instituto Politécnico Rensselaer han desarrollado una técnica nueva y simple para identificar y reparar pequeñas fisuras, potencialmente peligrosas, en las alas de los aviones y en muchas otras estructuras hechas con compuestos de polímeros.

Añadiendo a un polímero nanotubos de carbono eléctricamente conductores y supervisando entonces la resistencia eléctrica de la estructura, los investigadores consiguieron localizar con precisión la situación y longitud de una fisura inducida por tensión en una estructura compuesta. Una vez que se localiza la fisura, los ingenieros pueden entonces enviar una carga eléctrica de corta duración al área, para calentar los nanotubos de carbono y fundir un agente reparador incluido en el compuesto, que fluirá hasta llenar la fisura, permitiendo que la estructura reparada sea un 70 por ciento tan fuerte como la original antes de la fisura, suficiente para impedir un fallo estructural completo o catastrófico.

La detección y la reparación en tiempo real de los daños inducidos por la fatiga reforzarán de modo notable el funcionamiento, la fiabilidad, y la seguridad de los componentes estructurales en una amplia variedad de sistemas de la ingeniería.

El investigador principal Nikhil A. Koratkar, con la colaboración de Wei Zhang y Varun Sakalkar, han estado trabajando en el proyecto durante más de 18 meses.

La mayoría de los fallos en cualquier estructura de ingeniería se deben generalmente a las microfisuras inducidas por la fatiga, que se propagan hasta alcanzar proporciones peligrosas y que pueden llegar a poner en riesgo la integridad de la estructura. Esta investigación busca resolver dicho problema con una solución que permite diagnósticos en tiempo real sin necesidad de utilizar equipamientos adicionales o de alto costo.

El equipo de Koratkar creó una estructura común de epoxi, del tipo utilizado para hacer de todo, desde las estructuras ligeras de las alas de aviones de combate, hasta innumerables dispositivos y componentes usados en la industria, pero agregó suficientes nanotubos de carbono de pared múltiple hasta formar el uno por ciento del peso total de la estructura.

Koratkar está seguro de que este método será igual de eficaz en estructuras mucho más grandes. Dado que los nanotubos son ubicuos a través de toda la estructura, esta técnica puede utilizarse para supervisar cualquier porción de la estructura realizando simples mediciones de resistencia eléctrica sin necesidad de montar sensores externos o una electrónica sofisticada.

Koratkar cree que en el futuro el nuevo método de detección de fisuras debe llegar a ser menos costoso, más eficaz y más conveniente que los sensores ultrasónicos normalmente empleados en la actualidad. Su sistema sensor también puede usarse en tiempo real cuando un dispositivo o componente se encuentra en uso, mientras que los sensores sónicos son unidades externas que exigen de mucho tiempo para examinar toda el área superficial de una estructura estacionaria.

Además, el sistema de Koratkar ofrece un kit de reparación incorporado. "Lo que es nuevo en esta aplicación es que estamos empleando los nanotubos de carbono no sólo para detectar las fisuras, sino también para repararlas", recalca.



martes, 13 de noviembre de 2007

Paso Importante Hacia una Nueva Generación de Sensores y Dispositivos de Comunicación


Ingenieros de la Universidad Purdue han demostrado cómo controlar con precisión las propiedades espectrales de pulsos de luz ultrarrápidos, un paso hacia la creación de sensores avanzados, dispositivos de comunicación más potentes, así como tecnologías e instrumentos de laboratorio más precisos.

Los pulsos láser podrían ser comparados a la luz estroboscópica empleada en la fotografía de gran velocidad para congelar los objetos en rápido movimiento como por ejemplo insectos en pleno vuelo. Sin embargo, estos pulsos de láser son millones de veces más rápidos, con duraciones de un picosegundo o incluso un femtosegundo.

Las propiedades de los pulsos, cuando son representadas sobre un gráfico, asumen formas específicas que caracterizan la cambiante intensidad de la luz desde el principio hasta el fin de cada pulso. Controlar con precisión esta intensidad, lo que se denomina la "conformación" o "moldeado" del pulso, permitirá a los investigadores poner a punto pulsos láser para satisfacer aplicaciones específicas.

Investigadores de otras instituciones han desarrollado láseres ultrarrápidos productores de trenes de pulsos que son descompuestos en centenares de miles de segmentos, donde cada segmento representa una porción diferente del espectro de la luz que constituye un pulso. Los segmentos se denominan "líneas de peine" porque cuando son representados sobre un gráfico se parecen a los dientes de un peine. El tren de pulsos completo se denomina "peine de frecuencias de femtosegundos". El premio Nobel de Física del 2005 se otorgó a los investigadores que controlaron con precisión las frecuencias de estas líneas de peine y demostraron aplicaciones relacionadas con relojes ópticos avanzados que podrían mejorar las comunicaciones, reforzar los sistemas de navegación y permitir nuevos experimentos para probar teorías de la física, entre otros posibles usos.

En la nueva investigación, los ingenieros de Purdue conformaron con precisión 100 líneas de peine en un solo pulso.

La técnica de conformación de pulsos no es nueva. Sin embargo, el equipo de Purdue es el primero en lograr la conformación de pulsos de luz a partir de un peine de frecuencias del orden del femtosegundo y demostrar la técnica en una escala tan fina, controlando las propiedades de 100 líneas espectrales de peine dentro de cada pulso.

Controlando con precisión la "estructura fina" de frecuencias de los pulsos láser, los investigadores esperan poder crear sensores ópticos avanzados que detecten y midan cantidades ínfimas de materiales peligrosos o contaminantes, dispositivos para una espectroscopia extremadamente sensible destinada a laboratorios de investigación, y sistemas de comunicación basados en la óptica que transmitan mayores volúmenes de información con mejor calidad e incrementando el ancho de banda. Sin embargo, alcanzar plenamente estas metas requerirá controlar de 100.000 a un millón de líneas de peine en cada pulso.

El avance conseguido por los ingenieros de Purdue permitirá a los investigadores controlar la amplitud y la "fase" de las líneas individuales de peine, o los puntos máximos y mínimos de cada línea espectral, representando ello la apertura de un camino hacia la aplicación de la técnica en tecnologías de vanguardia.

Transistores Fotónicos Para las Supercomputadoras del Futuro


Unos científicos del Instituto Niels Bohr en la Universidad de Copenhague, y de la Universidad de Harvard, han desarrollado una nueva teoría que describe cómo pueden crearse los transistores necesarios para las computadoras cuánticas del futuro.

Los investigadores sueñan con las computadoras cuánticas, increíblemente rápidas, que podrán, por su peculiar naturaleza, resolver tareas tan complicadas que revolucionarán muchos de sus posibles campos de aplicación. Pero hay algunas dificultades serias a resolver antes de poder hacer realidad ese sueño. Una de ellas radica en los transistores, que son los dispositivos que procesan las señales.

Hoy, la señal es una corriente eléctrica. Para una computadora cuántica la señal sería óptica y funcionaría utilizando un solo fotón, el componente más pequeño de la luz.

"Para trabajar, los fotones tienen que encontrarse y "hablar", y los fotones muy raramente interactúan entre sí", explica Anders Sondberg Sorensen, físico cuántico en el Instituto Niels Bohr de la Universidad de Copenhague. La luz no funciona como en "La Guerra de las Galaxias" donde las personas luchan con espadas de luz y pueden hacerlas chocar. En el mundo real, cuando dos rayos de luz se encuentran y se cruzan, los dos haces pasan uno a través del otro. Eso se denomina óptica lineal.

Lo que Anders Sorensen quiere hacer con la luz pertenece a la óptica no lineal. Eso significa que los fotones de los haces de luz choquen entre sí y se puedan afectar mutuamente. Pero esto es muy difícil de lograr en la práctica. Los fotones son tan pequeños que una colisión entre dos es muy remota, a menos que uno pueda controlarlos, y esto es precisamente lo que Anders Sorensen ha desarrollado en una teoría.

En lugar de disparar dos fotones uno contra el otro desde direcciones diferentes e intentar conseguir que choquen, el científico quiere emplear un átomo como intermediario. El átomo sólo puede absorber un fotón; así lo determinan las leyes de la física. Si se dirigen dos fotones hacia el átomo, ambos chocarán en este último, y eso es exactamente lo que Sorensen quiere.

Sin embargo, el átomo, aunque más grande que un fotón, aún es muy pequeño y resulta difícil de acertar con un impacto. Así que los fotones tienen que ser enfocados con mucha precisión. En un experimento anterior, los investigadores descubrieron que las microondas pueden ser enfocadas en un átomo a través de un nanocable superconductor. Eso les llevó después a concebir la idea de que lo mismo podría suceder con la luz visible.

El modelo teórico demuestra que esto funciona. El átomo es acercado hacia el nanocable. Se envían dos fotones hacia el átomo, y cuando impactan se produce una interacción entre ellos, en la cual uno transmite su información al otro. La información se envía en bits que son unos o ceros, y el orden de los dígitos produce el mensaje. (Hoy ya podemos enviar información a través de fibra óptica, aunque cada bit está compuesto por millones de fotones. En la óptica cuántica, cada bit es un solo fotón.) Ahora el fotón ha recibido su mensaje y la señal continúa su ruta

Mejoran la Capacidad de Escribir y Almacenar Datos en Dispositivos Electrónicos


Una nueva investigación proporciona un conocimiento más profundo de nuevos mecanismos que permiten conmutar una nanopartícula magnética sin campo magnético alguno, y que podrían posibilitar a los ordenadores escribir y almacenar información de forma más precisa.

El físico Matthias Bode del Laboratorio Nacional de Argonne, y cuatro colegas de la Universidad de Hamburgo, utilizaron un microscopio STM equipado con una sonda magnética especial para forzar una corriente de espín a través de una pequeña estructura magnética. Los investigadores pudieron demostrar que la dirección de magnetización de la estructura no es afectada por una corriente pequeña, aunque sí puede ser influida si la corriente de espín es lo bastante alta.

En la actualidad, muchos ordenadores usan memorias de acceso aleatorio dinámicas (DRAM por sus siglas en inglés), en las que cada unidad de información digital binaria, o bit, se almacena en un condensador independiente en un circuito integrado. El experimento de Bode se centró en memorias de acceso aleatorio magnetorresistivas (MRAM por sus siglas en inglés), las cuales guardan la información en elementos de almacenamiento magnéticos que constan de dos capas ferromagnéticas entre las que se intercala un delgado separador no magnético. Mientras una de las dos capas permanece polarizada en una dirección constante, la otra capa se polariza mediante la aplicación de un campo magnético externo, en la misma dirección de la capa superior (para un "0") o bien en la dirección opuesta (para un "1").

Comúnmente, las MRAM son conmutadas mediante campos magnéticos. A medida que se ha reducido el tamaño del bit en cada generación sucesiva de ordenadores para acomodar más memoria en la misma área física, se ha incrementado la vulnerabilidad frente a errores. En esta adversa situación, el campo magnético puede conmutar la magnetización de no sólo el bit objetivo, sino también la de sus bits vecinos. Usando la punta del Microscopio STM, que tiene capacidad para resolver estructuras de hasta un solo átomo, los científicos pudieron eliminar ese efecto.
Búsqueda personalizada