lunes, 10 de septiembre de 2007

Red zombi es más potente que los superordenadores "top 10"


La red zombi Storm tiene mayor capacidad de cálculo que los 10 superordenadores más potentes del mundo.

El catedrático de informática Peter Gutmann, de la Universidad de Auckland, Nueva Zelandia, considera que la red de computadoras zombi Storm, controlada por desconocidos, dispone de mayor capacidad de cálculo que las 10 mayores supercomputadoras del mundo en su conjunto.

En un informe titulado "La supercomputadora más potente del mundo está en línea", Guttman se basa en cálculos hechos por expertos en seguridad TI, según los cuales la red Storm consiste de 1 a 10 millones de computadoras infectadas.

La red storm es una red P2P, sin una central de comando visible. Este factor ha hecho que sea muy difícil neutralizarla. La red crece inexorablemente debido a que sus autores distribuyen grandes volúmenes de spam que incluyen el gusano Storm. Cada computadora infectada pasa a engrosar las filas de zombies de Storm.

Mientras que la red Storm cuenta con un máximo de 10 millones de procesadores, el superordenador de IBM, Blue Gene/L, que preside la lista Top 500, “solo" tiene 128.000 procesadores. La superioridad de memoria de Storm es prodigiosa: 1 a 10 petabytes, considerando que cada uno de los PC tiene alrededor de 1 GB en RAM, contra 32 terabytes para la mayor supercomputadora del mundo.

El experto en seguridad informática Lawrence Baldwin, de myNetWatchman.com, comentó a la publicación Washington Post que llama la atención que las autoridades no dediquen mayores recursos a detectar a los responsables de la red zombi. Baldwin considera que tal desinterés puede deberse a que quienes controlan la red se han abstenido de realizar ataques espectaculares, aunque han realizado varios ejercicios a gran escala. Según algunas fuentes, se trataría de "ejercicios precursores del gran ataque".

viernes, 7 de septiembre de 2007

Why Aren't My Computer-Based Systems Smart Enough for My Business Already?

The computer-based systems most organizations rely on to support their businesses are not very smart. The answer is not to implement newer, “intelligent” systems. The fact is that much of today’s existing technology has the potential to be “smart enough” to make a big difference to an organization’s business.

The cost of information technology in today's organizations is substantial and is growing as a percentage of total operating cost—but today's systems still aren't smart enough. Why this is the case can only be understood by taking a historical perspective on business computing and how information technology (IT) developed as a discipline. In the past, IT departments were thought leaders in their organizations, setting the pace for the application of technology. Today, the needs and sophistication of the people who work in organizations are colored by an outside influence—the Internet—and IT organizations struggle to keep pace, burdened by accelerating demands and the drag of maintaining legacy systems. The tools, technology, and techniques for enterprise decision management (EDM) are ready, but impediments are rooted in the history of business computing and the resultant IT cultures. To understand why, after years of spending on information technology, so many of your systems aren't already smart enough, you need to take a walk back through the evolution of business computing in practice. With that in mind, this chapter is a brief look at the history of a typical IT infrastructure. It's not a general-purpose history but a brief outline of how we ended up in this mess.

How Did We Get Here?

A history of business computing would require volumes. However, a brief overview of the evolution of information technology (IT) in business decision making is useful in understanding why certain aspects of information management are still misaligned. Certain approaches that are taken for granted today are based on situations that disappeared long ago; certain disciplines that are considered unrelated are actually quite similar and synergistic. Some approaches aren't being used in a comprehensive enough way. Only through understanding the basis of these inefficiencies and, often, dysfunctions can you construct a rational remedy.

Computing in business is roughly 60 years old, although the deployment of computers for processing business information didn't start to catch on until the late 1950s. There were many computer manufacturers at that time, and each one developed its own proprietary operating systems and application software, although software was usually limited to a language compiler or two. Some manufacturers developed a reputation for general-purpose computing based on their programming languages (Assembler originally, but expanding to higher-level languages such as COBOL and FORTRAN); others came to specialize in certain applications, such as back-office work for banks (Burroughs, for example). At the time, general-purpose computing was what was needed for computing to take hold across industries.

Because general-purpose computing took hold, subsequent development of the technology proceeded rapidly, which created a constant lag between optimistic expectations and delayed delivery of useful output. Applying technology upgrades and innovations took considerably longer than producing them, a phenomenon that has only gotten worse over time. In the early days, the delivery of a new model meant reprogramming everything, because there was no upward compatibility. Today, that amount of effort seems almost ridiculous, yet according to a survey by Forrester Research, 75 percent of the IT budget is spent on maintenance of existing software and infrastructure. Organizations' ability to absorb new technology and put it to work is just as constrained today as it was at the dawn of computing. Unlike many other industries, the rate of change has neither slowed nor been adapted to.

People responsible for computers have been a unique breed in business. Their skills with abstract concepts or mysterious codes are in stark contrast to the formal, businesslike demeanor of accountants, salespeople, and executives. From the beginning, they were a separate group, in a career that had little or no trajectory into the "real" parts of business. This chasm between IT and the rest of the organization exists to this day and is still a major cause of dissonance between IT efforts and business requirements. In fact, in the past, IT managers had all they could do to manage IT software, hardware, and staff. They had no time to worry about the business itself, which was left to business professionals. Today, the stereotypes of the computer wizard in the basement with the pocket protector and the florid, cigar-smoking CEO are cartoonish and dated, but in reality, the gap is still severe..

LG KS20, un digno sucesor del Prada


Interesante sede presentaciones que estamos teniendo. La última de la que nos hemos enterado, por el momento, es la del LG KS20, del que ya hay disponibles especificaciones oficiales. Vamos pues con ellas.

Se trata de un móvil tribanda, con soporte de GSM, GPRS, EDGE y HSDPA, con una pantalla táctil de 2.8 pulgadas con resolución 240 x 320 píxeles. Está controlado por Windows Mobile 6 y viene con una cámara de 2 megapíxeles para fotos, además de una con resolución VGA para realizar videoconferencia.

Dispone de 128 MB de memoria interna que pueden ampliarse mediante tarjetas microSD. Como extras encontramos sintonizador de radio FM y una salida de televisión. Su peso es de 95 gramos.

Es decir, una actualización del LG Prada que, al no llevar la marca de diseño, esperamos que sea algo más barato que ese.

jueves, 6 de septiembre de 2007

Sony Vaio SZ6

Desde el mes de julio en adelante , principalmente el mes pasado sony ha estado renovando su linea de productos y ahora vemos esta interesante sony de la linea SZ.

La linea VAIO SZ de portátiles Sony se ha renovado con el SZ6, con procesador Intel Santa Rosa, discos duros híbridos y pantalla LED de 13.3 pulgadas.

Lo que más me ha llamado la atención es el almacenamiento híbrido del VAIO SZ6. Cuenta con 256MB de memoria Flash y un disco duro (a partir de 120GB) a 5400rpm.

Otras características son:

  • Gigabit Ethernet
  • USB y Firewire
  • Wifi 802.11n
  • Lector de tarjetas 5 en 1
  • Peso: 1.8Kg
  • Muy delgado

Disponible a partir de €1500

Nuevo USB MINI de SONY


Sony ha actualizado su linea de memorias mini USB ampliando la capacidad y reduciendo el tamaño.

Ahora podemos comprar las memorias mini USB de Sony con 1GB o 2GB y en colores o blanco o negro.

El diseño es fantástico y la fiabilidad excelente.

Sin duda junto a las Kingston son las mejores opcioones del mercado de memorias USB. Claro dependiendo su gusto.

Pero en lo personal son las mejores opciones del mercado.

Nuevos Sony Vaio: AR20 y FE30


Sony ha presentado para este otoño dos nuevas series de sus portátiles Vaio. La serie AR20 y la FE30.

La primera, AR20, con grabadora de Blu-ray está diseñada para ver películas en alta definición y edición de video gracias a su pantalla de 17″ y con una resolución máxima de 1920 x 1200. También trae integrado un sintonizador de TV digital y analógica y tiene una salida HDMI para conectarlo a una HDTV. Tiene un procesador Core 2 Duo T7200 y 2 GB de memoria.

La serie FE30 es para los que quieran disfrutar de buenos gráficos en un formato más pequeño. La pantalla es de 15.4″ y tiene una resolución máxima de 1280 x 800 y tecnología X-black LCD que mejora el contraste, además algunos modelos traen doble lámpara para aumentar el brillo. El procesador es Core 2 Duo T7200 a 2 Ghz y viene con un disco duro de 200GB y 2GB de memoria (en el modelo más alto).

Bajan los precios del IPHONE!!!!!!!!


Era fácil imaginar que el margen de beneficio que se llevaba Apple con el iPhone era bastante alto, sobretodo teniendo en cuenta el elevado precio al que lo vendía y que, encima, se llevan un porcentaje de parte de AT&T por cada contrato. Pero aun queda más claro tras la rebaja de precio del iPhone, cuya versión de 8 GB pasa a costar 399 dólares, mientras que la de 4 GB desaparece.

Ahora bien, eso puede significar también otra cosa, que no es otra que la pronta aparición de una versión 3G, tanto en el mercado europeo como en Estados Unidos. Teniendo en cuenta que Apple afirmó que daría información sobre fechas de salida antes de finalizar el tercer trimestre y que a finales de mes se celebra la Apple Expo en París las sospechas tienen una base bien fundada.

Despues de esto depende para que salga al mercado estadounidense , pero si que la apple se las trae entre manos.

Ya que las acciones dejan mucho que decir.
Búsqueda personalizada