miércoles, 12 de septiembre de 2007

Empresa de hosting ofrece 100% de disponibilidad de servidores

La compañía de hosting Rackspace garantiza una disponibilidad del 100% de sus servidores e infraestructura de red.

“El 99,9% de uptime es inaceptable, ya que significa que el servidor no está disponible 43 minutos cada mes. Todos los ususarios que ejecutan aplicaciones web de rango crítico saben que cada segundo de servidor caído cuesta dinero", comenta Fabio Torlini, director de Rackspace en un comunicado.

La compañía recalca las ventajas que supone contratar su servicio de hosting con garantía de disponibilidad de 100%, al contrastarlas con la costosa inversión que requiere instalar una infraestructura propia segura y redundante, monitorizada las 24 horas del día.

La garantía de “100% uptime" será estándar para todos los servicios de hosting, además de soporte técnico 24/7.

Papel de aluminio dobla la capacidad de redes Wi-Fi


Esto es algo que la mayoria de nosotros sabemos , Tome un trozo de cartón, cúbralo con papel de aluminio, pliéguelo y tendrá su propio amplificador de señal Wi-Fi.

Con una inversión mínima de tiempo y dinero es posible doblar la potencia de su red Wi-Fi. La información es proporcionada por el sitio Free Antennas, que explica detalladamente los procedimientos para crear antenas para distintos tipos de conexiones.

Si usted desea aumentar la capacidad de su red local puede descargar un modelo de antena parabólica casera. El modelo puede ser impreso directamente desde el sitio, luego transferido a cartón grueso que es recubierto con papel de aluminio. Y ya está: un flamante amplificador de señal.

Los autores del sitio indican que la capacidad de la antena puede variar, pero que en el mejor de los casos se puede doblar la capacidad de la antena Wi-Fi hogareña.

lunes, 10 de septiembre de 2007

Intel lanza procesadores con cuatro núcleos

Intel ofrece ahora más de 20 procesadores con cuatro núcleos para servidores y equipos de sobremesa, abarcando una gama de productos desde 50 vatios a 3 GHz.

Intel Corporation ha dado a conocer los primeros procesadores con cuatro núcleos diseñados específicamente para servidores con múltiples procesadores (MP) especializados en aplicaciones que precisan máximo rendimiento, fiabilidad y ampliación.

Estas aplicaciones funcionan normalmente en entornos virtualizados, y son utilizadas para consolidación de servidores y bases de datos, planificación de recursos empresariales (ERP), y en inteligencia empresarial (BI).

Los seis nuevos procesadores Xeon 7300 con cuatro núcleos pueden ofrecer más del doble de rendimiento y más del triple de rendimiento por vatio que la generación anterior de productos con doble núcleo de la compañía. Asimismo, estos procesadores completan la iniciativa de la compañía para lograr la transición - un proceso de cambio que se ha realizado en menos de 15 meses - a su microarquitectura Core.

Esta secuencia 7300 – diseñada para reducir el consumo de energía,- incluye una gama de frecuencias que van desde 2,93 GHz hasta 130 vatios, varios procesadores de 80 vatios, y una versión de 50 vatios optimizada para equipos modulares con cuatro zócalos y racks de alta densidad, con una frecuencia de 1,86GHz. El chipset Intel 7300 con Optimización para Tráfico de Datos, ofrece un diseño equilibrado de plataforma, e incorpora varias tecnologías nuevas para mejorar el movimiento de datos en procesadores, memoria, y conexiones I/O.

“Los servidores con múltiples procesadores basados en tecnología Intel Xeon son una pieza clave en nuestra compañía," ha afirmado Tom Kilroy, vicepresidente de Intel y director general adjunto del Grupo de Empresa Digital de la compañía. “Con la nueva secuencia Xeon 7300, Intel ofrece ahora nuevos niveles de rendimiento y de rendimiento por vatio, impulsando el empleo de la microarquitectura Intel Core en sistemas tan innovadores como los equipos modulares con 16 núcleos y cuatro zócalos, unos sistemas que utilizan menos energía que nuestros modelos. Esto resulta ser, sencillamente, maravilloso", agregó el alto ejecutivo.

Microsoft anuncia hotfix de Windows Vista


Aunque no está limitado a esta área, ha sido más comúnmente notado en tarjetas gráficas de alto nivel de las siguientes aplicaciones: Battlefield 2, Battlefield 2142, Civilization IV, Company of Heroes, Half-Life 2, entre otros títulos.

Microsoft anuncia la disposición de un hotfix de Windows Vista, recomendado para clientes de las series GeForce 6, 7 y 8 que corren directamente en aplicaciones DirectX 9 y DirectX 10.


Este hotfix corrige comportamientos anormales de la aplicación, como caídas del sistema o frame rate lentos, cuando corren algunas aplicaciones 3D en escenarios gráficos exigentes.

Sony inicia nueva ofensiva en el mercado de las consolas

Sony ha lanzado una nueva consola portátil que muestra películas y fotografías en la televisión.

Dos años después del lanzamiento de su primera PlayStation Portable (PSP), Sony lanza PSP Slim & Lite, un sucesor más ligero y delgado. Entre las novedades que incorpora el producto figura la posibilidad de conectar la consola al televisor. El formato de películas y juegos usados por PSP, conocido como UMD, ha tenido dificultades para imponerse como formato de vídeo, pero Sony confía en que la situación cambiará para mejor.

“Una de las grandes novedades de PSP Slim & Lite es que la consola incorpora salida de vídeo, lo que hace posible ver películas y fotografías en el televisor. Asimismo, la consola tiene menor tamaño y es más ligera; se ha mejorado el rendimiento de la batería a la vez que el sonido es superior", escribe Sony.

PSP Slim & es comercializada en dos colores, Piano Black y Ice Silver.

En lo que toca al software, diversos fabricantes han anunciado más de 60 títulos para la nueva consola para antes de Navidad.

Red zombi es más potente que los superordenadores "top 10"


La red zombi Storm tiene mayor capacidad de cálculo que los 10 superordenadores más potentes del mundo.

El catedrático de informática Peter Gutmann, de la Universidad de Auckland, Nueva Zelandia, considera que la red de computadoras zombi Storm, controlada por desconocidos, dispone de mayor capacidad de cálculo que las 10 mayores supercomputadoras del mundo en su conjunto.

En un informe titulado "La supercomputadora más potente del mundo está en línea", Guttman se basa en cálculos hechos por expertos en seguridad TI, según los cuales la red Storm consiste de 1 a 10 millones de computadoras infectadas.

La red storm es una red P2P, sin una central de comando visible. Este factor ha hecho que sea muy difícil neutralizarla. La red crece inexorablemente debido a que sus autores distribuyen grandes volúmenes de spam que incluyen el gusano Storm. Cada computadora infectada pasa a engrosar las filas de zombies de Storm.

Mientras que la red Storm cuenta con un máximo de 10 millones de procesadores, el superordenador de IBM, Blue Gene/L, que preside la lista Top 500, “solo" tiene 128.000 procesadores. La superioridad de memoria de Storm es prodigiosa: 1 a 10 petabytes, considerando que cada uno de los PC tiene alrededor de 1 GB en RAM, contra 32 terabytes para la mayor supercomputadora del mundo.

El experto en seguridad informática Lawrence Baldwin, de myNetWatchman.com, comentó a la publicación Washington Post que llama la atención que las autoridades no dediquen mayores recursos a detectar a los responsables de la red zombi. Baldwin considera que tal desinterés puede deberse a que quienes controlan la red se han abstenido de realizar ataques espectaculares, aunque han realizado varios ejercicios a gran escala. Según algunas fuentes, se trataría de "ejercicios precursores del gran ataque".

viernes, 7 de septiembre de 2007

Why Aren't My Computer-Based Systems Smart Enough for My Business Already?

The computer-based systems most organizations rely on to support their businesses are not very smart. The answer is not to implement newer, “intelligent” systems. The fact is that much of today’s existing technology has the potential to be “smart enough” to make a big difference to an organization’s business.

The cost of information technology in today's organizations is substantial and is growing as a percentage of total operating cost—but today's systems still aren't smart enough. Why this is the case can only be understood by taking a historical perspective on business computing and how information technology (IT) developed as a discipline. In the past, IT departments were thought leaders in their organizations, setting the pace for the application of technology. Today, the needs and sophistication of the people who work in organizations are colored by an outside influence—the Internet—and IT organizations struggle to keep pace, burdened by accelerating demands and the drag of maintaining legacy systems. The tools, technology, and techniques for enterprise decision management (EDM) are ready, but impediments are rooted in the history of business computing and the resultant IT cultures. To understand why, after years of spending on information technology, so many of your systems aren't already smart enough, you need to take a walk back through the evolution of business computing in practice. With that in mind, this chapter is a brief look at the history of a typical IT infrastructure. It's not a general-purpose history but a brief outline of how we ended up in this mess.

How Did We Get Here?

A history of business computing would require volumes. However, a brief overview of the evolution of information technology (IT) in business decision making is useful in understanding why certain aspects of information management are still misaligned. Certain approaches that are taken for granted today are based on situations that disappeared long ago; certain disciplines that are considered unrelated are actually quite similar and synergistic. Some approaches aren't being used in a comprehensive enough way. Only through understanding the basis of these inefficiencies and, often, dysfunctions can you construct a rational remedy.

Computing in business is roughly 60 years old, although the deployment of computers for processing business information didn't start to catch on until the late 1950s. There were many computer manufacturers at that time, and each one developed its own proprietary operating systems and application software, although software was usually limited to a language compiler or two. Some manufacturers developed a reputation for general-purpose computing based on their programming languages (Assembler originally, but expanding to higher-level languages such as COBOL and FORTRAN); others came to specialize in certain applications, such as back-office work for banks (Burroughs, for example). At the time, general-purpose computing was what was needed for computing to take hold across industries.

Because general-purpose computing took hold, subsequent development of the technology proceeded rapidly, which created a constant lag between optimistic expectations and delayed delivery of useful output. Applying technology upgrades and innovations took considerably longer than producing them, a phenomenon that has only gotten worse over time. In the early days, the delivery of a new model meant reprogramming everything, because there was no upward compatibility. Today, that amount of effort seems almost ridiculous, yet according to a survey by Forrester Research, 75 percent of the IT budget is spent on maintenance of existing software and infrastructure. Organizations' ability to absorb new technology and put it to work is just as constrained today as it was at the dawn of computing. Unlike many other industries, the rate of change has neither slowed nor been adapted to.

People responsible for computers have been a unique breed in business. Their skills with abstract concepts or mysterious codes are in stark contrast to the formal, businesslike demeanor of accountants, salespeople, and executives. From the beginning, they were a separate group, in a career that had little or no trajectory into the "real" parts of business. This chasm between IT and the rest of the organization exists to this day and is still a major cause of dissonance between IT efforts and business requirements. In fact, in the past, IT managers had all they could do to manage IT software, hardware, and staff. They had no time to worry about the business itself, which was left to business professionals. Today, the stereotypes of the computer wizard in the basement with the pocket protector and the florid, cigar-smoking CEO are cartoonish and dated, but in reality, the gap is still severe..

Búsqueda personalizada