jueves, 29 de noviembre de 2007

Tecnologia 3G


Buenas queridos lectores , vamos a hablar un poco sobre la tecnologia 3G la cual considero muchas personas desconocen y deberian conocer , en nuestro pais avanza poco a poco y se mueve muy bien , todavia es un poco costoso para algunos pero vale la pena contratar el servicio.

Pero para contratar un servicio debes saber lo que estas comprando , y aqui te lo dire:

3G (o 3-G) es una abreviatura para tercera-generación de telefonía móvil. Los servicios asociados con la tercera generación proporcionan la posibilidad para transferir tanto voz y datos (una llamada telefónica) y datos no-voz (como la descarga de programas, intercambio de email, y mensajería instantánea).

Inicialmente la instalación de redes 3G fue lenta. Esto se debió a que los operadores requieren adquirir una licencia adicional para un espectro de frecuencias diferente al que era utilizado por las tecnologías anteriores 2G. El primer pais en implementar una red comercial 3G a gran escala fue Japón. En la actualidad, existen 164 redes comerciales en 73 países usando la tecnología WCDMA

Tecnología

Los estándares en 3G utilizan CDMA para compartir el espectro entre usuarios. Se define un ancho de banda mayor, 5 MHz, el cual permite incrementar las velocidades de descarga de datos y el desempeño en general. Aunque inicialmente se especificó una velocidad de 384 kbit/s, La evolución de la tecnología permite ofrecer al suscriptor velocidades de descarga superiores a 3 Mbit/s.

3GPP

3GPP es el acrónimo (en inglés) de "3rd Generation Partnership Project". Esta organización realiza la supervisión del proceso de elaboración de estándares relacionados con 3G.

Estándares en 3G

Las tecnologías de 3G son la respuesta a la especificación IMT-2000 de la Unión Internacional de Telecomunicaciones. En Europa y Japón, se seleccionó el estándar UMTS (Universal Mobile Telephone System), basado en la tecnología W-CDMA. UMTS está gestionado por la organización 3GPP, también responsable de GSM, GPRS y EDGE.

En 3G también está prevista la evolución de redes 2G y 2.5G. GSM y TDMA IS-136 son reemplazadas por UMTS, las redes cdmaOne evolucionan a IS-95.

EvDO es una evolución muy común de redes 2G y 2.5G basadas en CDMA2000

IP EN 3G

IP en 3G, está basado en paquetes, lo cual en términos simples significa que los usuarios pueden estar “en línea” todo el tiempo pero sin tener que pagar hasta que hagan verdaderamente una transmisión de datos.

La naturaleza “sin conexión“ de IP realiza el acceso mucho más rápido ya que la descarga de archivos toma solo unos segundos y nos podemos conectar a nuestra red con solo un clic.

3G tiene soporte de conmutación de paquetes IP y soporte IP para videojuegos, comercio electrónico, video y audio.

Ventajas y desventajas de IP en 3G

Ventajas

IP basado en paquetes, pues solo pagas en función de la descarga lo que supone relativamente un menor costo. Aunque dependiendo del tipo de usuario también se podría calificar como desventaja.

  • Más velocidad de acceso.
  • UMTS, sumado al soporte de protocolo de Internet (IP), se combinan poderosamente para prestar servicios multimedia y nuevas aplicaciones de banda ancha, tales como servicios de video-telefonía y video-conferencia.

Desventajas [

Cobertura limitada.

  • No orientado a conexión. Cada uno de los paquetes pueden seguir rutas distintas entre el origen y el destino, por lo que pueden llegar desordenados o duplicados.

Sin embargo el hecho de no ser orientado a conexión tiene la ventaja de que no se satura la red. Además para elegir la ruta existen algoritmos que "escogen" qué ruta es mejor, estos algoritmos se basan en la calidad del canal, en la velocidad del mismo y, en algunos, oportunidad hasta en 4 factores (todos ellos configurables) para que un paquete "escoja" una ruta.

Evoluciones

3.5G

Evolución de la tecnología 3G usando HSDPA (High Speed Downlink Packet Access) que permite velocidades bajada de hasta 14,4 Mbps.

3.75G

Evolución de la tecnología 3G usando HSUPA (High Speed Uplink Packet Access) que permitirá velocidades subida de hasta 5.8 Mbps. pero solo en 3G

Un Estudio Confirma el Poder del Altruismo en la Wikipedia




La belleza de las aplicaciones de código abierto es que son mejoradas y actualizadas continuamente por aquellos que las utilizan y se preocupan por ellas. Investigadores del Dartmouth College examinaron la enciclopedia online Wikipedia para determinar si los contribuyentes anónimos y poco frecuentes, los "buenos samaritanos", son tan fiables en la calidad de sus colaboraciones como las personas que realizan actualizaciones constantemente y tienen una reputación que mantener.

Sorprendentemente, la respuesta es sí. Los investigadores han descubierto que los buenos samaritanos aportan contenidos de alta calidad, tal como lo hacen los usuarios registrados activos. Los responsables del estudio examinaron autores de Wikipedia y la calidad de los contenidos por ellos generados. Para determinar la calidad se basaron en la cantidad de tiempo transcurrido sin que el texto sufriera correcciones u otras modificaciones, y también en la extensión de las partes modificadas.

"Este descubrimiento fue a la vez innovador e inesperado", explica Denise Anthony, profesora de sociología del Dartmouth College. "En los estudios tradicionales de laboratorio sobre bienes colectivos, nosotros no incluimos a los Buenos Samaritanos, aquellas personas que sólo están de paso y prestan una ayuda puntual, debido a que esos estudios cuidadosamente diseñados no dan cabida a actores externos. Se necesitó una situación de la vida real para reconocer y apreciar las contribuciones de los Buenos Samaritanos al contenido de la Web".

Anthony trabajó con sus colaboradores Sean Smith, profesor de ciencias de la computación, y Tim Williamson. Wikipedia tiene un archivo del historial de cambios y ediciones realizados a sus entradas, lo que permitió a los investigadores analizar el grado de calidad percibida del contenido.

Dividiendo el análisis en la categoría de colaboradores registrados y la de colaboradores anónimos, los investigadores encontraron que entre aquellos que colaboran con frecuencia, los usuarios registrados son más fidedignos. Y descubrieron que entre quienes contribuyen sólo un poco, los usuarios anónimos son más fidedignos. El asombro de los investigadores fue aún mayor cuando constataron que la fiabilidad de las aportaciones de los Buenos Samaritanos fue al menos tan alta como la de las contribuciones de los usuarios registrados de mejor reputación.

Wikipedia es un gran ejemplo de cómo las colaboraciones de código abierto pueden alcanzar un alto nivel de calidad, capaz de satisfacer a los usuarios más exigentes. Y debido a que acoge entradas de cualquier persona, no sólo de programadores y expertos, es una gran herramienta de investigación sobre aspectos de la propia conducta humana, como han comprobado los autores del nuevo estudio.

Wikipedia ahora exige que los colaboradores anónimos que realizan numerosas ediciones deban registrarse.

"Esto probablemente limitará el número de aportaciones de baja calidad hechas por los colaboradores anónimos que participan con gran frecuencia, debido a que al exponer su identidad tendrán que tomar en consideración su reputación", señala Anthony. "No pronostico que esta nueva política vaya a afectar a la calidad de los Buenos Samaritanos, sin embargo. La presencia de estos debe continuar siendo valiosa".

martes, 27 de noviembre de 2007

Con la Tecnología de Invisibilidad en Desarrollo, es Viable Crear un "Agujero Electromagnético de Gusano"


El equipo que creó por primera vez los fundamentos matemáticos que sirven de base a la "capa de invisibilidad" ha demostrado ahora que la misma tecnología pudiera aplicarse para generar un "agujero electromagnético de gusano".

En el estudio, Allan Greenleaf, profesor de matemáticas en la Universidad de Rochester, y sus colaboradores, han planteado una variante del tema del enmascaramiento por invisibilidad. Sus resultados abren la posibilidad de construir un túnel invisible entre dos puntos del espacio.

"Imagine la capa de invisibilidad de Harry Potter alrededor de un tubo", explica Greenleaf. "Si el material se diseña según nuestras especificaciones, usted podría introducir un objeto en un extremo, verlo desaparecer, y, después de que hubiera viajado a lo largo del tubo invisible, verlo reaparecer en el exterior en el otro extremo".

La tecnología actual puede crear objetos que resulten invisibles sólo a la radiación de microondas, pero la teoría matemática permite el efecto del agujero de gusano para las ondas electromagnéticas de todas las frecuencias. Con esto en mente, Greenleaf y sus colaboradores proponen varias posibles aplicaciones. Las cirugías endoscópicas en las que el cirujano se guía por imágenes de MRI son problemáticas porque los intensos campos magnéticos generados por el escáner de MRI afectan a las herramientas del cirujano, y además tales herramientas pueden distorsionar las imágenes de MRI. Sin embargo, haciendo pasar a las herramientas a través de un agujero electromagnético de gusano se las podría esconder eficazmente ante los campos, permitiendo que sólo sus puntas fueran "visibles" durante el trabajo.

Para crear la tecnología de invisibilidad, Greenleaf y sus colaboradores utilizan matemáticas teóricas orientadas a diseñar un dispositivo que guíe las ondas electromagnéticas de una forma útil. Los investigadores podrían emplear entonces estos diseños para crear revestimientos especiales que curven la luz a partir de materiales compuestos denominados metamateriales.

El año pasado, David R. Smith, profesor de ingeniería electrónica y computación de la Universidad Duke, y sus colaboradores, diseñaron un dispositivo de invisibilidad con forma de disco, capaz de hacer que las microondas pasen alrededor de él. Greenleaf y sus colaboradores han empleado ahora una geometría más detallada para especificar exactamente qué propiedades debe poseer el metamaterial de un agujero de gusano para crear el efecto del "túnel invisible". También han calculado qué efectos ópticos adicionales ocurrirían si el interior del agujero de gusano se recubriera con determinados metamateriales hipotéticos.

Asumiendo que su capacidad ocular estuviera limitada a las pocas frecuencias en que opera el agujero de gusano, al mirar por un extremo usted percibiría una visión distorsionada del otro extremo, según las simulaciones hechas por Greenleaf y sus colegas. Dependiendo de la longitud del tubo y de cuán frecuentemente la luz rebotara en su interior, usted simplemente podría ver una imagen circular o de "ojo de pez" del otro extremo, o podría contemplar una impactante perspectiva "imposible" al estilo de los cuadros de Escher.

Otro uso, más lejano en el futuro, sería una pantalla de televisión en 3D. Imagine miles de delgados agujeros de gusano pegados en el exterior de una caja como un largo manojo de hierba en un jarrón. Los propios agujeros de gusano serían invisibles, pero sus extremos podrían transmitir la luz transportada desde debajo. Sería como si miles de píxeles estuvieran simplemente flotando en el aire.

Rompiendo la Barrera de la Resolución Nanométrica en los Rayos X


Un equipo de investigadores del Laboratorio Nacional de Brookhaven ha superado un obstáculo fundamental para usar las lentes refractivas en el enfoque de los rayos X. Este método permitirá un enfoque eficiente de los mismos hasta puntos sumamente pequeños y constituye un descubrimiento importante para el desarrollo de una nueva fuente de luz. La tecnología permitirá lograr avances en la nanociencia, la energía, la biología y la investigación sobre materiales.

Estos científicos excedieron un límite muy importante en la capacidad de enfocar los rayos X "duros" o de alta energía, conocido como el "ángulo crítico".

El ángulo crítico es el ángulo límite al que la luz puede desviarse por medio de una superficie única. Imagine un haz de láser que viaja hacia una lente de vidrio. Dependiendo de las características del material de la lente y el ángulo con que es dirigido el haz, la luz puede refractarse, es decir, transmitirse a través de la lente pero desviada. Sin embargo, cuando este haz de luz se aproxima a la lente con ángulos menores que el ángulo crítico, el haz no pasa a través de la lente sino que en vez de eso se refleja.

El ángulo límite para la desviación determina el tamaño más pequeño de los puntos a los cuales pueden ser enfocados los rayos X. Ello acarrea un problema para los investigadores que utilizan los rayos X para estudiar moléculas, átomos y materiales avanzados a escala nanométrica. Estos objetos tan diminutos requieren de haces finamente enfocados.

Los investigadores han demostrado que el ángulo crítico puede superarse con los rayos X de alta potencia. Gracias a los excelentes recursos del Centro para los Nanomateriales Funcionales del Laboratorio de Brookhaven, y a los de Alcatel-Lucent, pudieron fabricar las lentes especiales con la precisión requerida.

Éste es un paso importante debido a la creciente necesidad de analizar materiales y moléculas mediante rayos X con una alta resolución capaz de llegar a un nanómetro. Esa capacidad se necesita para estudiar los intrincados mecanismos de los sistemas químicos y biológicos.

Sin exceder el ángulo crítico, la resolución de la lente refractiva se limitaría a 24 nanómetros o más. Aunque en este experimento los investigadores sólo han conseguido sobrepasar un poco este límite, han demostrado que puede lograrse. Éste es simplemente el primer paso.

En el futuro, los investigadores continuarán fabricando y probando sistemas ópticos que permitan ir mucho más allá del ángulo crítico y más cerca de esa meta de 1 nanómetro.

Robert Kahn


Robert E. Kahn, (nacido el 23 de diciembre de 1938). Junto con Vinton G. Cerf, inventó el protocolo TCP/IP, la tecnología usada para transmitir información en Internet.

Inicios de su carrera

Kahn recibió su título de ingeniero en el City College de Nueva York en 1960, y su máster y doctorado por la Universidad de Princeton en 1962 y 1964 respectivamente. Trabajó en los Laboratorios Bell, y como profesor de Ingeniería Eléctrica en el MIT. Durante una ausencia programada de MIT, se unió a Bolt Beranek and Newman (BBN), donde fue responsable del diseño general de ARPANET, la primera red de conmutación de paquetes.

En 1972 se trasladó a DARPA, y en octubre de ese año, exhibió ARPANET conectando 40 computadoras en la 'International Computer Communication Conference, mostrando el sistema al público por primera vez. Después ascendió a director de la Oficina de Técnicas de Procesamiento de la Información de DARPA (IPTO, por sus siglas en inglés), inició el ambicioso Programa Estratégico de Computación del gobierno de los Estados Unidos, el mayor proyecto de investigación y desarrollo jamás emprendido por la administración federal.

Internet

Elaborando un proyecto de comunicaciones por satélite, se le ocurrieron las ideas iniciales de lo que después se llamaría Transmission Control Protocol (TCP), cuyo propósito era reemplazar otro protocolo de red existente, NCP, usado en ARPANET. Trabajando en esto, tuvo un papel decisivo al establecer los fundamentos de las redes de arquitectura abierta, que permitirían la intercomunicación entre computadores y redes a lo largo y ancho del mundo, sin importar el hardware o software que cada uno usara. Para alcanzar esta meta, TCP fue diseñado con las siguientes características:

  • Pequeñas sub-secciones de la red serían capaces de hablar entre sí mediante un computador especializado que simplemente reenvía paquetes (inicialmente llamado gateway, hoy en día conocido como router).
  • Ninguna porción de la red podría constituir un punto de ruptura (de forma que toda la red dependiese de su correcto funcionamiento), ni sería capaz de tomar control sobre toda la red.
  • Cada trozo de información enviado a través de la red recibiría un número de secuencia, para asegurar que fuese procesado en el orden adecuado a su llegada al destino. Este número sería también usado para detectar la pérdida de información en tránsito.
  • Un computador que envíe información a otro debería saber si ésta ha sido recibida cuando el destinatario devuelva un paquete especial, conocido como acknowledgement (confirmación, acuse de recibo), para cada trozo de información enviado.
  • Si la información enviada se perdiera, sería retransmitida una vez se haya superado el debido tiempo de espera.
  • Cada trozo de información enviado a través de la red iría acompañado de un checksum, calculado por el emisor original, y comprobado por el receptor, para asegurar la ausencia de daños durante el transporte.

Vint Cerf se incorporó al proyecto en la primavera de 1973, y juntos terminaron una versión inicial de TCP. Después se saparaía en dos capas, con las funciones más básicas desplazadas al Internet Protocol (IP). Las dos capas juntas son normalmente conocidas como TCP/IP, y son la base del Internet moderno.

Carrera reciente

Tras trece años con DARPA, dejó la organización para fundar la Corporation for National Research Initiatives (CNRI) en 1986, y en 2006 es director, CEO y presidente. CNRI es una organización sin ánimo de lucro dedicada a liderar y proveer fondos para investigación y desarrollo de la National Information Infrastructure.

Recibió el Premio SIGCOMM en 1993 por "sus visionarias contribuciones técnicas y su liderazgo en el desarrollo de las tecnologías de la información", y compartió en 2004 el Premio Turing con Vint Cerf, por "su trabajo seminal en redes de computadoras, incluyendo .. los protocolos de comunicación básicos de Internet .. y por su inspirado liderazgo en el campo."

Recibió la Medalla Presidencial de la Libertad el 9 de noviembre de 2005.

lunes, 26 de noviembre de 2007

Leonard Kleinrock


El Dr. Leonard Kleinrock (nacido en 1934) es un científico de la computación y profesor de Ciencias de la Computación en la UCLA, autor de diversas contribuciones extremadamente importantes en el campo teórico de las redes de ordenadores. También jugó un papel importante en el desarrollo de la red ARPANET en UCLA.

Su obra más conocida y significativa es su trabajo en teoría de colas, que tiene aplicaciones en multitud de campos, entre ellos como fundamento matemático de la conmutación de paquetes, tecnología básica detrás de Internet. Su contribución inicial en este campo fue su tesis doctoral de 1962, publicada en forma de libro en 1964; más tarde publicaría diversas obras de referencia en la materia.

Ha descrito su trabajo de la siguiente manera:

"Básicamente, lo que hice en mi investigación de tesis doctoral entre 1964–1962 fue establecer una teoría matemática de las redes de paquetes ...."

Su trabajo teórico en el campo del encaminamiento jerárquico, realizado a finales de los 70 con su estudiante Farouk Kamoun, juega un papel crítico en la actualidad en la operación de Internet.

ARPANET e Internet

En 1969 ARPANET, la primera red de computadores electrónicos se estableció el 29 de octubre entre nodos situados en el laboratorio de Kleinrock en la UCLA y el laboratorio de Douglas Engelbart en SRI. El primer backbone fueron dos Procesadores de Mensajes de Interfaz (en inglés IMP) situados en ambos extremos.

Además de SRI y UCLA, UCSB y la Universidad de Utah tomaron parte de la primera red de cuatro nodos. El 5 de Diciembre de 1969 todos los nodos de la red estaban interconectados.

En 1988, Kleinrock encabezó un grupo que presentó el informe titulado Toward a National Research Network en el Congreso de los Estados Unidos. Este informe influyó en el entonces senador Al Gore que lo usó para desarrollar la Gore Bill o High Performance Computing Act of 1991 que fue fundamental para el desarrollo de Internet durante los años 90.En particular, llevó directamente al desarrollo en 1993 del navegador web MOSAIC, que fue subvencionado por la High-Performance Computing and Communications Initiative, un programa creado por la High Performance Computing Act of 1991.

Estudios y carrera

Se graduó en la legendaria Bronx High School of Science en 1951, y se diplomó en ingeniería electrica en 1957 en el City College of New York, tras lo cual obtuvo la licenciatura y el doctorado en Informática e Ingeniería Eléctrica en el MIT en 1959 y 1963, respectivamente. Se unió al personal de la UCLA, donde sigue hasta la fecha. Durante 1991-1995 fue Catedrático del Departamiento de Ciencia de la Computación

Ha recibido numerosos premios profesionales.

Lawrence Roberts


Lawrence G. Roberts (nacido en 1937 en Connecticut, Estados Unidos) es un científico estadounidense, considerado uno de los padres de Internet.

Biografía

Nacido en Connecticut, estado norteamericano de Nueva Inglaterra. Doctorado por el Instituto Tecnológico de Massachusetts (MIT), el 1967 entró a trabajar en la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) en la cual colaboró con Robert Kahn y Vinton Cerf en la creación de ARPANET, la primera red de conmutación de paquetes.

Máximo ejecutivo de Telenet, la primera operadora de datos a través de conmutación de paquetes, desarrolló el protocolo X25 en el cual se basaría la red europea EUNet.

El 2002 fue galardonado con el Premio Príncipe de Asturias de Investigación Científica y Técnica junto con Robert Kahn, Vinton Cerf y Tim Berners-Lee.

viernes, 23 de noviembre de 2007

Andrew S. Tanenbaum Personaje de Hoy






Nacimiento:

16 de marzo de 1944
Nueva York, Estados Unidos

Ocupación:

Informático

Andrew Stuart "Andy" Tanenbaum (nacido el 16 de marzo de 1944), también conocido como ast , es el director del Departamento de Sistemas de la Universidad de Vrije, Ámsterdam (Países Bajos). Tanenbaum es más conocido por ser el creador de Minix, una réplica gratuita del sistema operativo UNIX con propósitos educativos, y por sus libros sobre informática.


Educación

Tanenbaum nace en la ciudad de Nueva York (Estados Unidos) aunque crece en White Plains. Se licencia en física en el Instituto Tecnológico de Massachusetts (más conocido como MIT), en 1965. En 1971 consigue el doctorado en física en la Universidad de California, Berkeley. Posteriormente se traslada a los Paises Bajos para vivir con su esposa, pero aún conserva la ciudadanía estadounidense. Desde 2004 es profesor de Arquitectura de ordenadores y sistemas operativos en la Universidad Libre de Amsterdam (Vrije Universiteit Amsterdam).

Sistemas operativos

En 1987 crea el sistema operativo Minix, una réplica gratuita de UNIX con propósitos educativos, que posteriormente fue la inspiración de Linux. En 1992 participó en Usenet en un encendido debate con Linus Torvalds, el creador de Linux, sobre los méritos de la idea de Linus de utilizar un núcleo monolítico en vez de los diseños basados en un micronúcleo que Tanenbaum creía que serían la base de los sistemas operativos futuros.

Tanenbaum es el autor, junto a otros miembros de la Universidad Libre de Amsterdam, del sistema operativo distribuido de investigación Amoeba, basado en una arquitectura de microkernel.

Tanenbaum también es el creador de Globe, un software que provee una infraestructura para un sistema distribuido a nivel mundial.

Libros

Tanenbaum es ampliamente conocido por sus libros sobre materia informática, muy utilizados en centros de enseñanza superior, destacando, entre otros:

  • Redes de computadores (Computer Networks), ISBN 0-13-066102-3
  • Sistemas operativos: diseño e implementación (Operating Systems: Design and Implementation), ISBN 0-13-638677-6
  • Sistemas operativos modernos (Modern Operating Systems), ISBN 0-13-031358-0
  • Structured Computer Organization, ISBN 0-13-148521-0
  • Distributed Systems: Principles and Paradigms, ISBN 0-13-088893-1

En los siguientes enlaces se puede encontrar una lista exhaustiva de los libros y publicaciones realizados por Tanenbaum:

  • Libros publicados por Andrew S. Tanenbaum publicado por Prentice Hall
  • Publicaciones académicas de Andrew S. Tanenbaum de DBLP

Electoral-vote.com

En 2004 crea Electoral-vote.com, un sitio web donde se analizaban los sondeos de opinión para las elecciones presidenciales de Estados Unidos de 2004 para prever cual sería la composición del Colegio Electoral.

Durante la mayor parte de campaña, Tanenbaum oculta su identidad bajo el seudónimo de «Votemaster», aunque reconociendo que tiene una preferencia personal por el candidato John Kerry. El 1 de noviembre de 2004, el día anterior a las elecciones, Tanenbaum revela su identidad y las razones por las que creó la página web.

En 2006, la web Electoral-vote.com es nuevamente utilizada para analizar los sondeos de las elecciones para el Congreso de Estados Unidos de 2006.

Premios

Tanembaum ha recibido diversos premios por su trabajo:

  • En 2007 recibe la IEEE James H. Mulligan, Jr. Education Medal.

jueves, 22 de noviembre de 2007

Linus Torvalds Personaje de Hoy


Linus Benedict Torvalds (nacido el 28 de diciembre de 1969 en Helsinki), es un ingeniero de software finlandés; es más conocido por desarrollar la primera versión del núcleo (kernel) del sistema operativo Linux, basándose en la implementación de las herramientas, los compiladores y las utilidades desarrollados por el proyecto GNU. Actualmente Torvalds es responsable de la coordinación del proyecto. Pertenece a la comunidad hablante de sueco de Finlandia (que también es oficial y hablado por aproximadamente el 6% de la población).

Cónyuge(s):

Tove Torvalds

Biografía

Sus padres tomaron su nombre de Linus Pauling. Comenzó sus andanzas informáticas a la edad de 11 años cuando su abuelo, un matemático y estadístico de la Universidad, compró uno de los primeros microordenadores Commodore en 1980 y le pidió ayuda para usarlo.

En 1988 Linus es admitido en la Universidad de Helsinki donde se gradua con el grado de maestría en Ciencias de la Computación. Ese mismo año el profesor Andrew S. Tannenbaum saca a la luz el S.O. Minix con propósitos didácticos. Dos años después, en 1990, Torvalds empieza a aprender el lenguaje de programación C en su universidad.

A finales de los años 80 tomó contacto con los computadores IBM, PC y en 1991 adquirió una computadora con procesador modelo 80386 de Intel.

A la edad de 21 años, con 5 años de experiencia programando (en C), ya conocía lo bastante del sistema operativo (S.O.) Minix como para tomarle algunas ideas prestadas y empezar un proyecto personal. Basándose en Design of the Unix Operating System, publicado por Maurice J. Bach en 1986, crearía una implementación que ejecutará programas informáticos creados por el proyecto GNU, pero sobre una arquitectura de ordenadores compatibles, IBM/PC.

Este proyecto personal desembocó el 5 de octubre de 1991 con el anuncio de la primera versión de Linux capaz de ejecutar BASH (Bourne Again Shell) y el compilador conocido como GCC (GNU Compiler Collection).

En enero de 1992 se adoptó la Licencia Pública General (GPL) para Linux. Ésta añade libertades de uso a Linux totalmente opuestas a las del software privativo, permitiendo su modificación, redistribución, copia y uso ilimitado. Este modelo de licenciamiento facilita lo que es conocido como el modelo de desarrollo de bazar, que ha dado estabilidad y funcionalidad sin precedentes a éste.

En 1997 Linus Torvalds recibe los premios 1997 Nokia Foundation Award de Nokia y Lifetime Achievement Award at Uniforum Pictures. Ese mismo año finaliza los estudios superiores (1988 - 1997) tras una década como estudiante e investigador en la Universidad de Helsinki, coordinando el desarrollo del núcleo del S.O. desde 1992.

Torvalds trabajó en Transmeta de febrero de 1997 a Junio de 2003 pero actualmente trabaja para el Open Source Development Labs en Beaverton, Oregon. Solo el 2% del código del Linux actual está escrito por él, pero en su persona sigue descansando la paternidad de este núcleo del sistema operativo.

Torvalds posee la marca registrada "Linux" y supervisa el uso o en su defecto el abuso de la marca a través de la organización sin ánimo de lucro Linux International.

Ahora Linux es un proyecto que cada vez gana más terreno en el ámbito de la computación y gracias a las políticas del software libre hacen que este sistema operativo esté más al alcance de todos para adquirirlo, especialmente en la rama de la educación, ya que es más viable si no se cuenta con los recursos necesarios para hacerse de una licencia de un software propietario.

Se han desarrollado una gran diversidad de herramientas y aplicaciones así como diferentes distribuciones GNU/Linux dedicadas a la educación, lo que hace de la unión entre las herramientas y las aplicaciones de GNU y el núcleo Linux un S.O. casi indispensable, fácil de adquirir, de configurar, de personalizar, brindando además una sólida seguridad a un bajo costo tanto a largo, mediano, como a corto plazo, comparado con otros sistemas operativos distribuidos bajo licencias proprietarias. Linux está siendo empleado en las escuelas, universidades, incluso por grandes empresas, y organismos gubernamentales, los cuales se benefician y obtienen un gran desempeño por ser estable, escalable y seguro.

Como creó Linux

En Finlandia, Linus Torvads, entonces estudiante de informática de la universidad de Helsinki, decidió realizar la cuantiosa inversión de US$3500 de la época para adquirir un nuevo PC 386 (33 Mhz,4MB de RAM; una de las mas avanzadas de su época). El pago lo realizaría a plazos pues no disponía de tal cantidad de dinero en efectivo.

Habituamente lo utilizaba para acceder a la red de su universidad, pero por desgracia no le gustaba nada el sistema operativo con el cual trabajaba, Minix, así que decidió crear uno él mismo. Como realmente le interesaba aprender el funcionamiento de su nuevo 386, decidió aprovechar esta oportunidad para realizar un programa a bajo nivel prescindiendo de este Minix.

En los primeros intentos consiguió arrancar el ordenador y ejecutar dos procesos que mostraban “AAAAABBBBB ”. Uno lo utilizaría para leer desde el módem y escribir en la pantalla, mientras que el otro leería desde el teclado y escribiría en el módem. Con el tiempo acabó el programa y lo utilizaba frecuentemente arrancando desde un disquete. La siguiente necesidad que tuvo fue la de poder descargar y subir archivos de su universidad, pero para implementar eso en su emulador era necesario crear un controlador de disco. Así que después de un trabajo continuo y duro creó un controlador compatible con el sistema de ficheros de Minix. En ese momento se percató que estaba creando algo más que un simple emulador de terminal, así que, descontento con su sistema Minix, emprendió la aventura de crear un sistema operativo partiendo de cero.

De forma privada, Linus nombraba “Linux” a su nuevo sistema, pero cuando decidió hacer una presentación pública (pues ya era capaz de mostrar una shell y ejecutar el compilador gcc) pensó que era demasiado egocéntrico llamarlo así y propuso llamarlo Freax. (aunque después se le siguió conociendo como linux). Después de anunciar en 25 Agosto de 1991 su intención de seguir desarrollando su sistema para construir un reemplazo de Minix, el 17 de septiembre de 1991 sube al servidor de FTP proporcionado por su universidad la versión 0.01 de Linux con 10.000 líneas de código (en la actualidad tiene más de 10 Millones). A partir de ese momento Linux empezó a evolucionar rápidamente.

Reconocimiento

  • En 1996, un asteroide recibió el nombre de "9793 Torvalds" en honor a Linus Torvalds.
  • En 1998 recibió el premio "Pioneer Award" de la EFF.
  • En 1999 recibió el título de doctor honorífico en la Universidad de Estocolmo.
  • En 2000 recibió el título de doctor honorífico en la Universidad de Helsinki.
  • En la votación "Persona del Siglo" de la revista Time, Linus Torvalds obtuvo la posición número 17.
  • En 2001, compartió el premio "Takeda Award" para las artes sociales y económicas junto a Richard Stallman y Ken Sakamura.
  • La película del 2001, "Swordfish"", contiene un personaje finlandés (el hacker número uno del mundo) llamado Axl Torvalds.
  • En 2004, fue nombrado como una de las personas más influyentes del mundo en al artículo de la revista Time "Linus Torvalds: The Free-Software Champion".
  • En el verano de 2004, obtuvo el puesto número 16 en "Suuret Suomalaiset" (los cien fineses más importantes de todos los tiempos).
  • En 2005, fue nombrado como uno de "los mejores administradores empresariales" en una encuesta de la revista "BusinessWeek".
  • En agosto de 2005, Linus Torvalds recibió el premio "Vollum Award" del Reed College.
  • En 2006, la revista "Business 2.0" lo nombró como "una de las diez personas que no tienen importancia" debido a que el crecimiento e importancia de Linux habían eclipsado el impacto individual de Linus.
  • En 2006, la revista Time lo nombra como uno de los héroes revolucionarios de los últimos 60 años.

miércoles, 21 de noviembre de 2007

Personaje de Hoy 21/11/07


He querido empezar nuestro proyecto informativo con esta persona que ha hecho tantos aportes al mundo informatico sobre todo al software libre ha sido gran morador y predicador de dicha area y/o disciplina , Conoscamos a Richard Stallman Fundados del movimiento del software libre , de la FSF y del proyecto GNU.

Cabe Destacar como notaran mas adelante que el GURU ,Ha estado en el pais , en el anio 2006 impartio catedras sobre software libre en el Instituto Tecnologico de las Americas (ITLA), asi como en La Universidad Autonoma de Santo Domingo (UASD). A lo que se le llamo Una CHARLA MAGISTRAL.


Richard Matthew Stallman , (n. Manhattan, Nueva York, 16 de marzo de 1953), programador y la figura más relevante del movimiento por el software libre.


Sus mayores logros como programador incluyen el editor de texto Emacs, el compilador GCC, y el depurador GDB, bajo la rúbrica del Proyecto GNU. Pero su influencia es mayor por el establecimiento de un marco de referencia moral, político y legal para el movimiento del software libre, como una alternativa al desarrollo y distribución de software privativo. Es también inventor del concepto de Copyleft (aunque no del término), un método para licenciar software de tal forma que éste permanezca siempre libre y su uso y modificación siempre reviertan en la comunidad.


Biografía


En 1971, siendo estudiante de primer año de Física en la Universidad de Harvard, Stallman se convirtió en un hacker del laboratorio de inteligencia artificial (IA) del MIT. En los años 80, la cultura hacker que constituía la vida de Stallman empezó a disolverse bajo la presión de la comercialización en la industria del software. En particular, otros hackers del laboratorio de IA fundaron la compañía Symbolics, la cual intentaba activamente reemplazar el software libre del Laboratorio con su propio software privado.


Durante dos años, desde 1983 a 1985, Stallman por sí solo duplicó los esfuerzos de los programadores de Symbolics para impedir que adquirieran un monopolio sobre los ordenadores del laboratorio. Por ese entonces, sin embargo, él era el último de su generación de hackers en el laboratorio.


Se le pidió que firmara un acuerdo de no divulgación (non-disclosure agreement) y llevara a cabo otras acciones que él consideró traiciones a sus principios. El 27 de septiembre de 1983 Stallman anunció en varios grupos de noticias de Usenet el inicio del proyecto GNU que perseguía crear un sistema operativo completamente libre . Al anuncio original siguió, en 1985, la publicación del Manifiesto GNU, en el cual Stallman declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, al que denominó GNU (GNU No es Unix), que también quiere decir ñu en inglés (de ahí esos dibujos-logotipos). Poco tiempo después se incorporó a la organización no lucrativa Free Software Foundation para coordinar el esfuerzo. Inventó el concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo GNU/Linux.


Las motivaciones políticas y morales de Richard Stallman lo han convertido en una figura controvertida. Muchos programadores influyentes que se encuentran de acuerdo con el concepto de compartir el código, difieren con las posturas morales, filosofía personal o el lenguaje que utiliza Stallman para describir sus posiciones. Un resultado de estas disputas condujo al establecimiento de una alternativa al movimiento del software libre, el movimiento de código abierto.


"Que las empresas tengan especial influencia en la política significa que la democracia está enferma. El propósito de la democracia es asegurarse de que los ricos no tienen una influencia proporcional a su riqueza. Y si tienen más influencia que tú o que yo, eso significa que la democracia está fallando. Las leyes que obtienen de esta forma no tienen autoridad moral, sino la capacidad de hacer daño."

Richard Stallman


Stallman ha recibido numerosos premios y reconocimientos por su trabajo, entre ellos una membresía en la MacArthur Foundation en 1990, el Grace Hopper Award de la Association for Computing Machinery en 1991 por su trabajo en el editor Emacs original, un Doctorado Honoris Causa del Royal Institute of Technology de Suecia en 1996, el Pioneer award de la Electronic Frontier Foundation en 1998, el Yuki Rubinski memorial award en 1999, y el Takeda award en 2001. En 2004 recibió un Doctorado Honoris Causa otorgado por la Universidad de Salta (Argentina). Ha sido el primer galardonado con el Premio Internacional Extremadura de Conocimiento Libre que concedió la Junta de Extremadura el 7 de febrero de 2007 en Badajoz en el marco de la III Conferencia Internacional de Software Libre .

En 1999 promovió la creación de una enciclopedia libre, la GNUPedia, considerada como un antecedente directo de la Wikipedia.


En la actualidad, Stallman se encarga de difundir la ideología GNU en todo el mundo mediante charlas y conferencias. Esto hace que algunos le consideren como un profeta o gurú.


Stallman posee un buen nivel de castellano, y ha dado varias conferencias en castellano en España, Cuba y otros países latinoamericanos (en Universidades, etc), varias de estas conferencias fueron grabadas por algunos asistentes y están colgadas en Google Video. En el año 2004 realizó dos conferencias en la Universidad Nacional Autónoma de México (UNAM) en sus facultades de Ciencias e Ingeniería, participando también en el “Congreso Internacional de Software Libre” realizada el mismo año en el mismo país. También ha sido invitado por cadenas de televisión y prensa española en los que se le han hecho entrevistas en castellano.


En el año 2007 Stallman visitó Cuba donde impartió una conferencia en la Universidad de las Ciencias Informáticas (UCI) a teatro lleno de sus seguidores en el movimiento del Software Libre.

Ha dado conferencias en contra de las patentes de software, entre ellas en España cuando estaba pendiente de aprobarse una polémica ley en favor de las patentes de software en Europa que fue rechazada por mayoría absoluta de los Eurodiputados.


En diciembre del 2006, invitado por varias organizaciones involucradas con el software libre, impartió varias conferencias en Ecuador. En una de ellas, realizada en la Universidad Central insistió ante más de dos mil asistentes, que deben asumir una "posición militante" en el uso y difusión del software libre y la lucha contra el monopolio del conocimiento. Su presencia sirvió de motivación para la formalización de los grupos de usuarios en la Asociación de Software Libre del Ecuador.

En Octubre del 2007, participa en el CLEI (Conferencia Latinoamericana de Informática), en esta ocasión habló sobre los principios del Software Libre, el GNU, Copyleft entre otros; además recalcó la importancia de la colaboración entre prójimos y la divulgación del conocimiento.


En noviembre del 2007, después de una gira por Brasil (incluyendo Latinoware), dará un ciclo de conferencias por todo Ecuador. Hay planes de reunirlo con lo asambleístas que van a redactar la nueva constitución de Ecuador tal como lo hizo en el 2006 con el presidente Rafael Correa.


Distribuciones GNU/Linux aconsejadas por Richard Stallman


Stallman reconoció que hasta hace un tiempo, cuando le preguntaban por qué distribución de GNU/Linux usar, no sabía cual aconsejar, pues todas contenían software privativo, ahora, dice ya puede aconsejar varias en las que todo su software es Software libre, entre ellas Ututo.


Actualmente, la Free Software Foundation apoya oficialmente la distribución gNewSense por ser 100% libre (estando basado en la popular distribución Ubuntu, pero quitando de esta todo el software privativo).


De GnuLinEx dijo en una conferencia que no estaba seguro, pero que creía que también actualmente, no en el pasado, estaba hecha toda de software libre (Y así es, pero en su repositorio también se puede descargar software privativo).


"Las obras de conocimiento deben ser libres, no hay excusas para que no sea así"

Richard Stallman


De Debian, dijo que en su Web está claramente separado qué software es privativo y cuál no, pero que los usuarios generalmente no se fijan en esto, por lo que no la aconseja, el confesó que en su Ordenador tenía instalada una versión muy antigua de Debian, y que la próxima distribución a la que se pasaría sería Ututo, que no lo había hecho porque en el momento en que lo dijo la distribución no tenía un buen soporte en inglés (es de origen argentino), pero que eso se estaba solucionando, cosa que sucedió, y ahora utiliza Ututo.


Curiosidades


  • Su aparentemente descuidada imagen y sus manías extravagantes (no utiliza teléfono móvil, siempre va acompañado de su computadora portátil, lleva su propio colchón vaya donde vaya, etc.) le han hecho ser blanco de numerosos chistes y bromas, llegando a aparecer en tiras cómicas .
  • Durante sus charlas aparece con una segunda personalidad que corresponde a San Ignucio en la que suele bendecir las computadoras de las personas.
  • Stallman participó en la "I Conferencia Latinoamericana y del Caribe sobre Desarrollo y Uso del Software Libre - LACFREE" en Cusco, Perú, del 11 de agosto al 13 de agosto de 2003. Además impartió una conferencia en la UASD (Universidad Autónoma de Santo Domingo) en el 2006 , otra en la U.C.I. (Universidad de las Ciencias Informáticas) durante la celebracion del evento Informática 2007 celebrado en La Habana, Cuba y otra durante el II congreso distrital de informática educativa en Bogotá.
  • Durante el CLEI 2007 "Conferencia Latinoamericana de Informática" Stallman almorzó en el comedor de los participantes y no en el de invitados especiales para el asombro de muchos de los presentes. En este mismo evento recaudó fondos para su causa vendiendo libros y pegatinas (calcomanias); pero se mostró muy disgustado porque "regalaron" muchos de los artículos que traia para la venta en una caja de cartón.



martes, 20 de noviembre de 2007

PERSONAJES EN LA HISTORIA


Como una iniciativa propia de este humilde servidor , he querido introducir un nuevo concepto en nuestro querido Blog y es el de personajes que han hecho historias en la informativa a los cuales les debemos mucho , la mayoria aun en vida algunos ya fallecidos , pero todas sus proesas no se han olvidados y se van practicando dia a Dia .

Asi que a partir de manana miercoles y hasta que ustedes lo deseen estare posteando dia a dia un personaje que haya hecho algun aporte al grandioso mundo de la tecnologia.

Gracias por sus visitas.

lunes, 19 de noviembre de 2007

Cibercultura


La cultura usual referida a lo simbólico —valores/creeencias— estructural y los otros aspectos —usos/artefactos— funcional, aprendidos, en las sociedades humanas racionalizadas: organizadas e industrializadas, tiene ahora una nueva dimensión para estas parejas de conceptos, como nuevas formas de trabajo y nuevos medios de producción, que es un planteamiento funcional y reconocido y anunciado desde el inicio, desde los años 1970 con los modelos sistémicos complejos por computadora y con el advenimiento de los ordenadores o PC (del inglés Personal Computer, "computadora personal") y su popularización como herramienta personal e industrial e igual posterior uso virtual en el ciberespacio, con una nueva visión, 1978 con los BBSs (Bulletin Board System), ya con planteamiento estructural, y siguió en los años '90 su expansión en los hogares de las gentes como un nuevo humanismo. Pedro Ortega Campos y Luis Joyanes Aguilar en la UPSAM, León XIII, y ahora Jaime Alejandro Rodríguez Ruiz en la Pontificia Universidad Javeriana, son algunos representantes de su estudio. Son científicos sociales de una impresionante reflexión sobre la Cibercultura (como adaptación triunfalista y exitosa de la palabra cibernética, etimológicamente: arte del navegante). Aquí puede leerse en Wikibooks un trabajo de Jaime Alejandro sobre el tema y en Internet 'realidad o invención' de un mito, de Ricard Faura i Homedes de la Universidad de Barcelona, con un punto de vista de antropología cultural.


El término de cultura ha sido enriquecido por la innovación de los ordenadores (computadoras) y tiene estas propiedades, es 'al instante' —difusión del documento en tiempo real, incluidas las citaciones bibliográficas—, virtual —Internet— y universal (global), desarrollando instrumentalmente la sociedad de la información en dos aspectos, como aldea global y con técnicas totalmente diferentes en información más documentación sobre las 'relaciones de difusión' de las innovaciones producidas en la comunidad científica y a nivel de 'medios de producción' con nuevas formas de trabajo y, con el nuevo prefijo 'ciber-', ha entrado en el pensamiento y el discurso del componente humanístico. Una nueva ocasión para crear una cultura basada en la comunidad y alrededor de las máquinas, donde realmente y de forma virtual las personas interactuaban con 'charlas', no junto a la lumbre, sino alrededor de los ordenadores. Una típica actividad es el Wiki, que es una construcción de una Enciclopedia de y para los usuarios con una significativa cantidad de artículos, más de 200.000 en los 10 pincipales idiomas. Otro ejemplo es librodot.com con más de 5.000 libros en español.


En general todos los proyectos en marcha basados en la comunidad de usuarios de Internet. Esta informática colaborativa tiene una datación de la fecha para los antropólogos culturales: 1978. hasta ahora ha transcurrido una generación, equivalente a cinco generaciones en el calendario del proceso tecnológico. La tecnología tiene una enorme capacidad de reproducción y es motor de cambios sociales, ha sobrepasado en corto tiempo sus aplicaciones informáticas por otra propiedad suya, el efecto multiplicador 'a mayor utilidad más corto el periodo de desarrollo; generaciones más cortas; y éste es mucho mayor' porque los avances tecnológicos son acumulativos y exponenciales y los periodos de obsolescencia son más cortos. Ahora en tan solo una 'generación corta' ha creado productos culturales libres con un método insólito, por decir algo increíble: las Enciclopedias en línea, creadas por la misma comunidad de usuarios, y las Bibliotecas en línea, basadas en inmensas recopilaciones y estän además los otros items: Música, Arte, Turismo y otros productos del entreteniento de la cultura popular. El discurso del pensamiento social ha observado estos fenómenos, que por su rapidez eran posible ser estudiados en ciclos completos, sin tener que esperar un siglo para ver que pasaba, y se ha parado en considerar los efectos sobre los humanos y sus interrelaciones con los nuevos hechos, en procesos de innovación y difusión del cambio social en multitud de eventos similares en la historia de la ciencia y de los descubrimientos.

Esta vez también ha filosofado sobre un nuevo humanismo: los seres humanos tienen más posibilidades en su desarrollo espiritual, la nueva calidad de vida debe alcanzar a más personas, las gentes deben proteger más aún su intimidad, nuevas formas de explotación pueden surgir, falsas culturas se pueden globalizar fácilmente, la ciencia tiene más vías de difusión como cultura, etc.

Estas respuestas-preguntas son algunas que están emergiendo para incorporarse a la definición de cibercultura, como nueva reflexión de las influencias de la tecnología desde el humanismo y como un hecho cultural de efecto multiplicador, con un paralelo incremento de la microelectrónica, que no cesa. Y una última reconsideración en la historia de la ciencia, para los modelos sistémicos complejos por computadora sobre el medio ambiente, y solo como un referente: 'la producción que reclama el salto en la calidad de vida implica más consumo de materias que deben ser reemplazadas, si se quiere mantener el proceso', G. Tyler Miller, St. Andrews Presvyterian College, en 'Living in the Environment', en las mismas épocas de los 70', se estaba trabajando en el desarrollo de un modelo global por computadora para el desarrollo sustentable y en el desarrollo de una red de redes con el nacimiento de la cibercultura y otros muchos proyectos en la línea del tiempo.

El Senado de USA aprueba compensaciones para víctimas de ciber crimen


Un proyecto de ley podría permitir a las víctimas de robo de identidad en línea exigir compensación por parte de los criminales.



    El Senado de USA ha aprobado un proyecto de ley que permitiría a las víctimas de robo de identidad en línea tener esquemas para buscar una compensación de parte de los criminales, así cómo ha expandido la definición de ciber extorsión.

    El senado aprobó el Acta sobre Robo de Identidad y Restitución de manera unánime la pasada semana. El proyecto de ley, introducido hace un mes por el senador Patrick Leahy, un demócrata de Vermont permite a las víctimas de robo de identidad buscar una compensación por el tiempo utilizado en resolver el problema. El escrito permite a los fiscales ir tras los criminales que han amenazado capturar o liberar datos de las computadoras, bajo el cargo de ciber extorsión, y les permite además acusarlos de conspiración para cometer un ciber crimen.

    Las leyes actuales sólo permiten perseguirá criminales que busquen extorsionar compañías o agencias gubernamentales, mediante amenazas de colapsar o dañar una computadora.

    El escrito también convierte en felonía el uso de spyware o capturadores de contraseñas para dañar diez o más computadoras, incluso si el monto del daño es menor a US$ 5.000. Anteriormente el daño de menos de US$ 5.000 era considerado un crimen menor.

    La ley, entre otras cosas, permite la persecución federal de aquellos que roban información personal de una computadora aunque se encuentren en el mismo estado que la víctima. Bajo la legislación actual las cortes federales sólo tienen jurisdicción si el ladrón ataca desde otro estado., según la oficina de Leahy.

    Lehay, director del Comité Judicial del Senado, aplaudió la acción del Senado. El Departamento de Justicia de USA trabaja con Senadores para ajustar la legislación y rellenar los vacíos en las leyes de ciber crimen, según declaró en la sala del Senado.

    El escrito “toma algunos pasos importantes, que se debían tomar desde hace mucho, para proteger a los [norte] americanos para la creciente amenaza del robo de identidad y otros ciber crímenes” dijo el. “Para proteger a los consumidores [norte] americanos, nuestra propuesta provee a las víctimas de robo de identidad con la posibilidad de buscar restituciones en cortes federales por la perdida de tiempo y dinero para restituir su crédito y remediar los daños causados por el robo de identidad, de manera que las victimas de estos robos puedan reclamarlo todo”

    La Business Software Alliance (BSA), un grupo comercial, y el Cyber Security Industry Alliance (CSIA) han alabado al Senado de USA por haber aprobado la legislación. La BSA alentó a la casa de representantes a actuar de manera similar con el proyecto.

    El proyecto del senado cierra “huecos” en la ley de USA, según declaró el presidente de la CSIA, Tim Bennett en una declaración.

    El proyecto del Senado “proveerá a los que obligan a cumplir la ley con mayores herramientas para desarmar la creciente red, cada vez más sofisticada, de ciber criminales” añadió Bennett. “El robo de identidades y datos se ha convertido en el negocio número uno del crimen organizado”


Búsqueda personalizada