lunes, 3 de diciembre de 2007

Ya en NTT DoCoMo comienzaron las pruebas de Super 3G




El sistema Super 3G es una versión avanzada de HSDPA y HSUPA, evoluciones a su vez de W-CDMA. Entre sus principales ventajas figuran una velocidad de transmisión de datos más elevada, una menor latencia de conexión y mejoras en la eficiencia del espectro.

NTT DoCoMo comenzará con una ensayo indoor para testear la capacidad de transmisión de 3G con el nuevo equipo de pruebas desarrollado. El experimento se centrará en primer lugar en confirmar su comportamiento básico mediante una antena transmisora y una receptora, que funcionan como base y estación móvil, respectivamente.

Una vez hecho esto, la compañía extenderá este proyecto piloto y examinará la tecnología MIMO con la utilización de cuatro antenas, que se utilizarán para alcanzar una velocidad máxima de bajada de 300 Mbps.

Esta tecnología de nueva hornada se suma a otras que ya anticipan la sustitución de 3G, como son LTE (de Ericsson y Siemens, entre otros) o Edge, utilizada esta última por Blackberry (de la empresa RIM) o Apple en su iPhone. El desarrollo comercial de Super 3G se ha fijado para el año 2009.

Por su parte, el organismo 3GPP se encuentra en pleno debate para la estandarización de Super 3G. Se espera que la descripción detallada de las especificaciones esté lista durante este año, bajo el estándar internacional LTE.


jueves, 29 de noviembre de 2007

Tecnologia 3G


Buenas queridos lectores , vamos a hablar un poco sobre la tecnologia 3G la cual considero muchas personas desconocen y deberian conocer , en nuestro pais avanza poco a poco y se mueve muy bien , todavia es un poco costoso para algunos pero vale la pena contratar el servicio.

Pero para contratar un servicio debes saber lo que estas comprando , y aqui te lo dire:

3G (o 3-G) es una abreviatura para tercera-generación de telefonía móvil. Los servicios asociados con la tercera generación proporcionan la posibilidad para transferir tanto voz y datos (una llamada telefónica) y datos no-voz (como la descarga de programas, intercambio de email, y mensajería instantánea).

Inicialmente la instalación de redes 3G fue lenta. Esto se debió a que los operadores requieren adquirir una licencia adicional para un espectro de frecuencias diferente al que era utilizado por las tecnologías anteriores 2G. El primer pais en implementar una red comercial 3G a gran escala fue Japón. En la actualidad, existen 164 redes comerciales en 73 países usando la tecnología WCDMA

Tecnología

Los estándares en 3G utilizan CDMA para compartir el espectro entre usuarios. Se define un ancho de banda mayor, 5 MHz, el cual permite incrementar las velocidades de descarga de datos y el desempeño en general. Aunque inicialmente se especificó una velocidad de 384 kbit/s, La evolución de la tecnología permite ofrecer al suscriptor velocidades de descarga superiores a 3 Mbit/s.

3GPP

3GPP es el acrónimo (en inglés) de "3rd Generation Partnership Project". Esta organización realiza la supervisión del proceso de elaboración de estándares relacionados con 3G.

Estándares en 3G

Las tecnologías de 3G son la respuesta a la especificación IMT-2000 de la Unión Internacional de Telecomunicaciones. En Europa y Japón, se seleccionó el estándar UMTS (Universal Mobile Telephone System), basado en la tecnología W-CDMA. UMTS está gestionado por la organización 3GPP, también responsable de GSM, GPRS y EDGE.

En 3G también está prevista la evolución de redes 2G y 2.5G. GSM y TDMA IS-136 son reemplazadas por UMTS, las redes cdmaOne evolucionan a IS-95.

EvDO es una evolución muy común de redes 2G y 2.5G basadas en CDMA2000

IP EN 3G

IP en 3G, está basado en paquetes, lo cual en términos simples significa que los usuarios pueden estar “en línea” todo el tiempo pero sin tener que pagar hasta que hagan verdaderamente una transmisión de datos.

La naturaleza “sin conexión“ de IP realiza el acceso mucho más rápido ya que la descarga de archivos toma solo unos segundos y nos podemos conectar a nuestra red con solo un clic.

3G tiene soporte de conmutación de paquetes IP y soporte IP para videojuegos, comercio electrónico, video y audio.

Ventajas y desventajas de IP en 3G

Ventajas

IP basado en paquetes, pues solo pagas en función de la descarga lo que supone relativamente un menor costo. Aunque dependiendo del tipo de usuario también se podría calificar como desventaja.

  • Más velocidad de acceso.
  • UMTS, sumado al soporte de protocolo de Internet (IP), se combinan poderosamente para prestar servicios multimedia y nuevas aplicaciones de banda ancha, tales como servicios de video-telefonía y video-conferencia.

Desventajas [

Cobertura limitada.

  • No orientado a conexión. Cada uno de los paquetes pueden seguir rutas distintas entre el origen y el destino, por lo que pueden llegar desordenados o duplicados.

Sin embargo el hecho de no ser orientado a conexión tiene la ventaja de que no se satura la red. Además para elegir la ruta existen algoritmos que "escogen" qué ruta es mejor, estos algoritmos se basan en la calidad del canal, en la velocidad del mismo y, en algunos, oportunidad hasta en 4 factores (todos ellos configurables) para que un paquete "escoja" una ruta.

Evoluciones

3.5G

Evolución de la tecnología 3G usando HSDPA (High Speed Downlink Packet Access) que permite velocidades bajada de hasta 14,4 Mbps.

3.75G

Evolución de la tecnología 3G usando HSUPA (High Speed Uplink Packet Access) que permitirá velocidades subida de hasta 5.8 Mbps. pero solo en 3G

Un Estudio Confirma el Poder del Altruismo en la Wikipedia




La belleza de las aplicaciones de código abierto es que son mejoradas y actualizadas continuamente por aquellos que las utilizan y se preocupan por ellas. Investigadores del Dartmouth College examinaron la enciclopedia online Wikipedia para determinar si los contribuyentes anónimos y poco frecuentes, los "buenos samaritanos", son tan fiables en la calidad de sus colaboraciones como las personas que realizan actualizaciones constantemente y tienen una reputación que mantener.

Sorprendentemente, la respuesta es sí. Los investigadores han descubierto que los buenos samaritanos aportan contenidos de alta calidad, tal como lo hacen los usuarios registrados activos. Los responsables del estudio examinaron autores de Wikipedia y la calidad de los contenidos por ellos generados. Para determinar la calidad se basaron en la cantidad de tiempo transcurrido sin que el texto sufriera correcciones u otras modificaciones, y también en la extensión de las partes modificadas.

"Este descubrimiento fue a la vez innovador e inesperado", explica Denise Anthony, profesora de sociología del Dartmouth College. "En los estudios tradicionales de laboratorio sobre bienes colectivos, nosotros no incluimos a los Buenos Samaritanos, aquellas personas que sólo están de paso y prestan una ayuda puntual, debido a que esos estudios cuidadosamente diseñados no dan cabida a actores externos. Se necesitó una situación de la vida real para reconocer y apreciar las contribuciones de los Buenos Samaritanos al contenido de la Web".

Anthony trabajó con sus colaboradores Sean Smith, profesor de ciencias de la computación, y Tim Williamson. Wikipedia tiene un archivo del historial de cambios y ediciones realizados a sus entradas, lo que permitió a los investigadores analizar el grado de calidad percibida del contenido.

Dividiendo el análisis en la categoría de colaboradores registrados y la de colaboradores anónimos, los investigadores encontraron que entre aquellos que colaboran con frecuencia, los usuarios registrados son más fidedignos. Y descubrieron que entre quienes contribuyen sólo un poco, los usuarios anónimos son más fidedignos. El asombro de los investigadores fue aún mayor cuando constataron que la fiabilidad de las aportaciones de los Buenos Samaritanos fue al menos tan alta como la de las contribuciones de los usuarios registrados de mejor reputación.

Wikipedia es un gran ejemplo de cómo las colaboraciones de código abierto pueden alcanzar un alto nivel de calidad, capaz de satisfacer a los usuarios más exigentes. Y debido a que acoge entradas de cualquier persona, no sólo de programadores y expertos, es una gran herramienta de investigación sobre aspectos de la propia conducta humana, como han comprobado los autores del nuevo estudio.

Wikipedia ahora exige que los colaboradores anónimos que realizan numerosas ediciones deban registrarse.

"Esto probablemente limitará el número de aportaciones de baja calidad hechas por los colaboradores anónimos que participan con gran frecuencia, debido a que al exponer su identidad tendrán que tomar en consideración su reputación", señala Anthony. "No pronostico que esta nueva política vaya a afectar a la calidad de los Buenos Samaritanos, sin embargo. La presencia de estos debe continuar siendo valiosa".

martes, 27 de noviembre de 2007

Con la Tecnología de Invisibilidad en Desarrollo, es Viable Crear un "Agujero Electromagnético de Gusano"


El equipo que creó por primera vez los fundamentos matemáticos que sirven de base a la "capa de invisibilidad" ha demostrado ahora que la misma tecnología pudiera aplicarse para generar un "agujero electromagnético de gusano".

En el estudio, Allan Greenleaf, profesor de matemáticas en la Universidad de Rochester, y sus colaboradores, han planteado una variante del tema del enmascaramiento por invisibilidad. Sus resultados abren la posibilidad de construir un túnel invisible entre dos puntos del espacio.

"Imagine la capa de invisibilidad de Harry Potter alrededor de un tubo", explica Greenleaf. "Si el material se diseña según nuestras especificaciones, usted podría introducir un objeto en un extremo, verlo desaparecer, y, después de que hubiera viajado a lo largo del tubo invisible, verlo reaparecer en el exterior en el otro extremo".

La tecnología actual puede crear objetos que resulten invisibles sólo a la radiación de microondas, pero la teoría matemática permite el efecto del agujero de gusano para las ondas electromagnéticas de todas las frecuencias. Con esto en mente, Greenleaf y sus colaboradores proponen varias posibles aplicaciones. Las cirugías endoscópicas en las que el cirujano se guía por imágenes de MRI son problemáticas porque los intensos campos magnéticos generados por el escáner de MRI afectan a las herramientas del cirujano, y además tales herramientas pueden distorsionar las imágenes de MRI. Sin embargo, haciendo pasar a las herramientas a través de un agujero electromagnético de gusano se las podría esconder eficazmente ante los campos, permitiendo que sólo sus puntas fueran "visibles" durante el trabajo.

Para crear la tecnología de invisibilidad, Greenleaf y sus colaboradores utilizan matemáticas teóricas orientadas a diseñar un dispositivo que guíe las ondas electromagnéticas de una forma útil. Los investigadores podrían emplear entonces estos diseños para crear revestimientos especiales que curven la luz a partir de materiales compuestos denominados metamateriales.

El año pasado, David R. Smith, profesor de ingeniería electrónica y computación de la Universidad Duke, y sus colaboradores, diseñaron un dispositivo de invisibilidad con forma de disco, capaz de hacer que las microondas pasen alrededor de él. Greenleaf y sus colaboradores han empleado ahora una geometría más detallada para especificar exactamente qué propiedades debe poseer el metamaterial de un agujero de gusano para crear el efecto del "túnel invisible". También han calculado qué efectos ópticos adicionales ocurrirían si el interior del agujero de gusano se recubriera con determinados metamateriales hipotéticos.

Asumiendo que su capacidad ocular estuviera limitada a las pocas frecuencias en que opera el agujero de gusano, al mirar por un extremo usted percibiría una visión distorsionada del otro extremo, según las simulaciones hechas por Greenleaf y sus colegas. Dependiendo de la longitud del tubo y de cuán frecuentemente la luz rebotara en su interior, usted simplemente podría ver una imagen circular o de "ojo de pez" del otro extremo, o podría contemplar una impactante perspectiva "imposible" al estilo de los cuadros de Escher.

Otro uso, más lejano en el futuro, sería una pantalla de televisión en 3D. Imagine miles de delgados agujeros de gusano pegados en el exterior de una caja como un largo manojo de hierba en un jarrón. Los propios agujeros de gusano serían invisibles, pero sus extremos podrían transmitir la luz transportada desde debajo. Sería como si miles de píxeles estuvieran simplemente flotando en el aire.

Rompiendo la Barrera de la Resolución Nanométrica en los Rayos X


Un equipo de investigadores del Laboratorio Nacional de Brookhaven ha superado un obstáculo fundamental para usar las lentes refractivas en el enfoque de los rayos X. Este método permitirá un enfoque eficiente de los mismos hasta puntos sumamente pequeños y constituye un descubrimiento importante para el desarrollo de una nueva fuente de luz. La tecnología permitirá lograr avances en la nanociencia, la energía, la biología y la investigación sobre materiales.

Estos científicos excedieron un límite muy importante en la capacidad de enfocar los rayos X "duros" o de alta energía, conocido como el "ángulo crítico".

El ángulo crítico es el ángulo límite al que la luz puede desviarse por medio de una superficie única. Imagine un haz de láser que viaja hacia una lente de vidrio. Dependiendo de las características del material de la lente y el ángulo con que es dirigido el haz, la luz puede refractarse, es decir, transmitirse a través de la lente pero desviada. Sin embargo, cuando este haz de luz se aproxima a la lente con ángulos menores que el ángulo crítico, el haz no pasa a través de la lente sino que en vez de eso se refleja.

El ángulo límite para la desviación determina el tamaño más pequeño de los puntos a los cuales pueden ser enfocados los rayos X. Ello acarrea un problema para los investigadores que utilizan los rayos X para estudiar moléculas, átomos y materiales avanzados a escala nanométrica. Estos objetos tan diminutos requieren de haces finamente enfocados.

Los investigadores han demostrado que el ángulo crítico puede superarse con los rayos X de alta potencia. Gracias a los excelentes recursos del Centro para los Nanomateriales Funcionales del Laboratorio de Brookhaven, y a los de Alcatel-Lucent, pudieron fabricar las lentes especiales con la precisión requerida.

Éste es un paso importante debido a la creciente necesidad de analizar materiales y moléculas mediante rayos X con una alta resolución capaz de llegar a un nanómetro. Esa capacidad se necesita para estudiar los intrincados mecanismos de los sistemas químicos y biológicos.

Sin exceder el ángulo crítico, la resolución de la lente refractiva se limitaría a 24 nanómetros o más. Aunque en este experimento los investigadores sólo han conseguido sobrepasar un poco este límite, han demostrado que puede lograrse. Éste es simplemente el primer paso.

En el futuro, los investigadores continuarán fabricando y probando sistemas ópticos que permitan ir mucho más allá del ángulo crítico y más cerca de esa meta de 1 nanómetro.

Robert Kahn


Robert E. Kahn, (nacido el 23 de diciembre de 1938). Junto con Vinton G. Cerf, inventó el protocolo TCP/IP, la tecnología usada para transmitir información en Internet.

Inicios de su carrera

Kahn recibió su título de ingeniero en el City College de Nueva York en 1960, y su máster y doctorado por la Universidad de Princeton en 1962 y 1964 respectivamente. Trabajó en los Laboratorios Bell, y como profesor de Ingeniería Eléctrica en el MIT. Durante una ausencia programada de MIT, se unió a Bolt Beranek and Newman (BBN), donde fue responsable del diseño general de ARPANET, la primera red de conmutación de paquetes.

En 1972 se trasladó a DARPA, y en octubre de ese año, exhibió ARPANET conectando 40 computadoras en la 'International Computer Communication Conference, mostrando el sistema al público por primera vez. Después ascendió a director de la Oficina de Técnicas de Procesamiento de la Información de DARPA (IPTO, por sus siglas en inglés), inició el ambicioso Programa Estratégico de Computación del gobierno de los Estados Unidos, el mayor proyecto de investigación y desarrollo jamás emprendido por la administración federal.

Internet

Elaborando un proyecto de comunicaciones por satélite, se le ocurrieron las ideas iniciales de lo que después se llamaría Transmission Control Protocol (TCP), cuyo propósito era reemplazar otro protocolo de red existente, NCP, usado en ARPANET. Trabajando en esto, tuvo un papel decisivo al establecer los fundamentos de las redes de arquitectura abierta, que permitirían la intercomunicación entre computadores y redes a lo largo y ancho del mundo, sin importar el hardware o software que cada uno usara. Para alcanzar esta meta, TCP fue diseñado con las siguientes características:

  • Pequeñas sub-secciones de la red serían capaces de hablar entre sí mediante un computador especializado que simplemente reenvía paquetes (inicialmente llamado gateway, hoy en día conocido como router).
  • Ninguna porción de la red podría constituir un punto de ruptura (de forma que toda la red dependiese de su correcto funcionamiento), ni sería capaz de tomar control sobre toda la red.
  • Cada trozo de información enviado a través de la red recibiría un número de secuencia, para asegurar que fuese procesado en el orden adecuado a su llegada al destino. Este número sería también usado para detectar la pérdida de información en tránsito.
  • Un computador que envíe información a otro debería saber si ésta ha sido recibida cuando el destinatario devuelva un paquete especial, conocido como acknowledgement (confirmación, acuse de recibo), para cada trozo de información enviado.
  • Si la información enviada se perdiera, sería retransmitida una vez se haya superado el debido tiempo de espera.
  • Cada trozo de información enviado a través de la red iría acompañado de un checksum, calculado por el emisor original, y comprobado por el receptor, para asegurar la ausencia de daños durante el transporte.

Vint Cerf se incorporó al proyecto en la primavera de 1973, y juntos terminaron una versión inicial de TCP. Después se saparaía en dos capas, con las funciones más básicas desplazadas al Internet Protocol (IP). Las dos capas juntas son normalmente conocidas como TCP/IP, y son la base del Internet moderno.

Carrera reciente

Tras trece años con DARPA, dejó la organización para fundar la Corporation for National Research Initiatives (CNRI) en 1986, y en 2006 es director, CEO y presidente. CNRI es una organización sin ánimo de lucro dedicada a liderar y proveer fondos para investigación y desarrollo de la National Information Infrastructure.

Recibió el Premio SIGCOMM en 1993 por "sus visionarias contribuciones técnicas y su liderazgo en el desarrollo de las tecnologías de la información", y compartió en 2004 el Premio Turing con Vint Cerf, por "su trabajo seminal en redes de computadoras, incluyendo .. los protocolos de comunicación básicos de Internet .. y por su inspirado liderazgo en el campo."

Recibió la Medalla Presidencial de la Libertad el 9 de noviembre de 2005.

lunes, 26 de noviembre de 2007

Leonard Kleinrock


El Dr. Leonard Kleinrock (nacido en 1934) es un científico de la computación y profesor de Ciencias de la Computación en la UCLA, autor de diversas contribuciones extremadamente importantes en el campo teórico de las redes de ordenadores. También jugó un papel importante en el desarrollo de la red ARPANET en UCLA.

Su obra más conocida y significativa es su trabajo en teoría de colas, que tiene aplicaciones en multitud de campos, entre ellos como fundamento matemático de la conmutación de paquetes, tecnología básica detrás de Internet. Su contribución inicial en este campo fue su tesis doctoral de 1962, publicada en forma de libro en 1964; más tarde publicaría diversas obras de referencia en la materia.

Ha descrito su trabajo de la siguiente manera:

"Básicamente, lo que hice en mi investigación de tesis doctoral entre 1964–1962 fue establecer una teoría matemática de las redes de paquetes ...."

Su trabajo teórico en el campo del encaminamiento jerárquico, realizado a finales de los 70 con su estudiante Farouk Kamoun, juega un papel crítico en la actualidad en la operación de Internet.

ARPANET e Internet

En 1969 ARPANET, la primera red de computadores electrónicos se estableció el 29 de octubre entre nodos situados en el laboratorio de Kleinrock en la UCLA y el laboratorio de Douglas Engelbart en SRI. El primer backbone fueron dos Procesadores de Mensajes de Interfaz (en inglés IMP) situados en ambos extremos.

Además de SRI y UCLA, UCSB y la Universidad de Utah tomaron parte de la primera red de cuatro nodos. El 5 de Diciembre de 1969 todos los nodos de la red estaban interconectados.

En 1988, Kleinrock encabezó un grupo que presentó el informe titulado Toward a National Research Network en el Congreso de los Estados Unidos. Este informe influyó en el entonces senador Al Gore que lo usó para desarrollar la Gore Bill o High Performance Computing Act of 1991 que fue fundamental para el desarrollo de Internet durante los años 90.En particular, llevó directamente al desarrollo en 1993 del navegador web MOSAIC, que fue subvencionado por la High-Performance Computing and Communications Initiative, un programa creado por la High Performance Computing Act of 1991.

Estudios y carrera

Se graduó en la legendaria Bronx High School of Science en 1951, y se diplomó en ingeniería electrica en 1957 en el City College of New York, tras lo cual obtuvo la licenciatura y el doctorado en Informática e Ingeniería Eléctrica en el MIT en 1959 y 1963, respectivamente. Se unió al personal de la UCLA, donde sigue hasta la fecha. Durante 1991-1995 fue Catedrático del Departamiento de Ciencia de la Computación

Ha recibido numerosos premios profesionales.

Búsqueda personalizada