martes, 31 de julio de 2007

Windows Server 2008, una nueva plataforma productiva


Introducción

A casi diez años del desarrollo de Windows NT, Microsoft está pronto a lanzar la próxima versión de su sistema operativo empresarial: Windows Server 2008. Durante este período, las necesidades y responsabilidades de los sistemas operativos fueron incrementándose y Microsoft tomó en cuenta las devoluciones de los usuarios para generar los tres conceptos rectores de la nueva versión: más control, más seguridad y más flexibilidad. Control sobre el servidor y sobre la infraestructura de red, protección sobre la totalidad del ambiente, flexibilidad para crear un centro de datos dinámico y ágil que pueda cumplir con las necesidades cambiantes de los negocios.

Sobre estos tres conceptos rectores, Microsoft tuvo en mente que los administradores de IT deben simplificar sus tareas y ahorrar tiempo de administración repetitiva y monótona para generar valor. Microsoft espera que las empresas puedan aprovechar mejor los recursos y tener un alto retorno de inversión.

Si bien Windows Server 2008 está basado en Windows Server 2003, no se trata apenas de un refinamiento de aquella versión, sino de una nueva plataforma productiva para cumplir con los últimos requerimientos de las empresas. A continuación, una lista de características y mejoras que van a iluminar los puntos centrales del nuevo sistema operativo.

Características relacionadas al control

Power Shell: sin lugar a dudas, la panacea de los administradores de TI. El Power Shell es el servicio de línea de comandos con ciento treinta herramientas y lenguaje scripting integrado. Permite controlar y automatizar rutinas con las nuevas herramientas así como ejecutar los scripts pre-existentes. Power Shell no requiere conocimientos avanzados de programación previos para ser utilizado y fue diseñado con comandos intuitivos y con una curva de aprendizaje conveniente.

Publicación Web: provee una plataforma unificada para las necesidades de publicación web actuales. Esta plataforma integra Internet Information Server, ASP.NET, Windows Communication Foundation, Windows Workflow Foundation y Windows SharePoint Services.

RODC: RODC significa controlador de dominio en modo lectura. Es un nuevo tipo de configuración que permite enviar un controlador de dominio a ubicaciones donde no se está garantizada la seguridad física del servidor. El RODC mantiene una replica en modo lectura de la base de datos de servicios del Active Directory. Esto mejora la seguridad y los tiempos de autenticación con respecto a enfoques anteriores.

Manejo del servidor simplificado: ahora es posible realizar en un paso diversas funciones que antes se llevaban a cabo por medio de las opciones: “Administrar El Servidor”, “Configurar el Servidor” y “Agregar o Remover Componentes de Windows”. Los administradores de TI ahora van a ser guiados por el nuevo esquema de configuración, paso a paso, desde el principio hasta el final.

Características relacionadas a la flexibilidad

Server Core: Server Core es un modo de instalación que no incluye la interfase gráfica. Es decir, Windows sin Windows (ventanas) Permite instalar por ejemplo un servidor web Internet Information Server en un box sin entorno gráfico y sin necesidad de tener más software o servicios en esa máquina de los que realmente necesita. Esto implica menos mantenimiento y actualizaciones y también mayores posibilidades de protección dado que si aparece una vulnerabilidad en cierto componente que no fue instalado, no va a ser necesario un parche para solucionar el problema.

Servicios de Terminal: Windows Server 2008 introduce nuevas funcionalidades para conectarse a computadoras y aplicaciones remotas. La integración llega al punto en que prácticamente no hay diferencias entre un usuario local y uno remoto. Un administrador puede ejecutar programas en computadoras remotas, lado a lado con las aplicaciones locales. Terminal Services Web Access permite la misma flexibilidad de aplicaciones remotas a través de un navegador web.

Virtualización: Es conocida como Virtualización a la tecnología que permite ejecutar aplicaciones o bien sistemas operativos completos pertenecientes a otras plataformas. Un ejemplo de esto es utilizar una aplicación Unix sobre Windows Server. El enfoque de Windows 2008 aprovecha los últimos adelantos de virtualización asistida por hardware que ofrecen los procesadores AMD e Intel. Server Virtualization va a aparecer como un Rol más de Server Core. De este modo reduce los requerimientos y disminuye los ataques potenciales. El acercamiento de Windows a la virtualización toma un enfoque diferente al de las aplicaciones conocidas del mercado tales como Vmware y Zen y promete ser una de las características preferidas de este nuevo lanzamiento.

Características relacionadas a la protección

Protección de acceso a la red (NAP): con esta característica, el administrador de TI puede plantear requerimientos de “sanidad” para aquellos clientes que deseen conectarse. De este modo podrá bloquear accesos que podrían poner en riesgo la seguridad de la red. Un ejemplo de esto es el siguiente: el administrador define que solo podrán conectarse a la red aquellos clientes Windows Vista que tengan los últimos parches de seguridad instalados y al menos un antivirus instalado y actualizado. En caso contrario, el cliente no podrá conectarse a la red.

Failover Clustering: incluye ahora una herramienta llamada “Validate” que puede realizar pruebas de sistema, almacenamiento y red para determinar si la computadora es adecuada como cluster. Por medio del clustering, los administradores maximizan la disponibilidad de servicios, almacenan más eficientemente y mejoran incluso la seguridad de sus instalaciones.

Algunas de las mejoras

Las mejoras más significativas de Windows Server 2008 tienen relación con las funciones de red. Estas actualizaciones representan el grupo más grande de innovaciones desde 1990 para Windows Server. Ahora TCP-IP posee las características que le permitirán adoptar nuevos estándares de red. Entre las mejoras relacionadas a redes encontramos: soporte para Ipv4 e Ipv5, algoritmos de auto-optimización inteligentes para el tráfico de red, soporte para tecnologías de aceleramiento de red basadas en hardware y una API completa para desarrolladores.

Windows Server 2008 también incluye varias novedades con respecto al Firewall. Trae un MMC snap-in para configurar sus funciones avanzadas por medio de la interfase gráfica, trae la opción de IPSEC integrada y permite especificar muchas más opciones para las reglas. Asimismo considera la opción de virus y gusanos originados a nivel de red. Para enfrentar esta amenaza permite descartar todo el tráfico entrante que no corresponde al tráfico enviado en respuesta a un pedido de la computadora.

Otra función nueva del firewall es la posibilidad de asignar reglas determinadas a ciertas interfaces. De esta forma es posible por ejemplo aplicar un conjunto de reglas más restrictivo para las interfaces inalámbricas en comparación a las reglas implementadas para la interfase de red LAN. Finalmente, en base a un reclamo válido de muchos administradores de IT, las reglas de firewall ahora pueden ser configuradas para ciertos servicios mientras que antes solo podían ser especificadas para aplicaciones indicando el path completo al ejecutable.

Notas finales

En ciertos blogs de tecnología los administradores ya bromean con la posibilidad de ver una y otra vez la saga de Star Wars durante el tiempo libre que van obtener con la utilización de Windows 2008 Server. Y tanto no falta para eso dado que Windows Server 2008 tiene fecha de lanzamiento planificada para la segunda mitad de 2007. De acuerdo a los comentarios oficiales de Microsoft al respecto y al feedback positivo de los usuarios sobre las versiones beta, Microsoft estaría en camino a cumplir la fecha de lanzamiento.

Mientras tanto, ya es posible familiarizarse con Windows Server 2008 a través de la beta 3 de este sistema operativo que puede ser obtenida en http://www.microsoft.com/latam/technet/productos/beta/betaprogram/lhs/decision.mspx

Con respecto a los precios y términos de licencia, aún no se conoce información al respecto pero se espera un esquema de licencias flexible y precios razonables de actualización.

Anuncian teléfono con proyector incorporado

Y pensar que antes un pantalla verde era lo ultimo , luego cambiaron a pantalla azul y cuando vino la generacion de pantallas a colores eso fue el boom , luego vinieron las camaras etc etc y ahora Motorola desarrolla el primer teléfono móvil con mini proyector incorporado.

AHI AQUELLOS TIEMPOS DEL STAR-TAC.

La pequeña pantalla de los teléfonos móviles actuales limitadas posibilidades de mostrar fotografías, películas o televisión en un tamaño agradable para las personas. Motorola se propone solucionar esta situación con el lanzamiento de teléfonos móviles con proyector incorporado. La compañía ha suscrito un acuerdo con MicroVision para el desarrollo de un prototipo de teléfono móvil con proyector PicoP-Laser incorporado, que podría proyectar imágenes con una resolución de 854 x 480 pixeles.


El miniproyector de Microvision ocupa muy poco espacio y puede ser incorporado en teléfonos móviles con espesor de sólo siete milímetros. El consumo eléctrico también sería modesto, aunque no se proporcionan datos exactos.

Las compañías no aportan tampoco una fecha concreta para la presentación oficial de prototipo.



Spammers aprovechan ahora las hojas de Excel

Como parte de sus incansables esfuerzos por distribuir masivamente sus "mensajes publicitarios", los spammers han comenzado a usar hojas de cálculo y archivos ZIP.

El impopular correo electrónico no solicitado está siendo ahora camuflado en hojas de Excel. La nueva modalidad es empleada principalmente junto con las tradicionales tácticas conocidas como "pump-and-dump", es decir, donde spammers hacen publicidad a una acción determinada, esperan que su valor aumente, para luego venderlas en el mercado bursátil.



Las compañías de seguridad informática han distribuido esta semana abundante información sobre está nueva estrategia de los spammers.

Seagate sepulta sus discos IDE

Seagate, uno de los mayores fabricantes de discos duros del mundo, descontinuará definitivamente la producción de discos duros IDE. A futuro apostará exclusivamente por la producción de discos SATA.

Seagate descontinuará la producción de discos duros con interfaz IDE, su estándar ocupado durante los últimos 21 .

El anuncio se hizo mediante "el canal", es decir, que Seagate informó a sus distribuidores sobre la decisión, que aún no ha sido comunicada públicamente.

Los discos duros con interfaz SATA representan actualmente alrededor de dos tercios del mercado para computadoras de escritorio, y prácticamente la mitad de segmento de computadoras portátiles, lo que podría explicar la decisión de Seagate.

Lo anterior no implica que IDE, o PATA, como también se ha denominado al estándar, entre inmediatamente a la obsolescencia. Las unidades de CD y DVD usan profundamente ese estándar, a la vez que no es difícil predecir que los competidores de Seagate intentarán conquistar el tercio del mercado que ahora esta abandona.

Nueva herramienta para postear spam

Se vende por 450 dólares y, según su creador, es capaz de publicar más de 1100 comentarios en menos de quince minutos.

PandaLabs ha descubierto XRumer, una herramienta diseñada para postear spam y links que dirigen a sitios web infectados con malware en foros, websites, blogs, etc. Se vende en distintos foros online por un precio de 450 dólares estadounidenses. Según su creador, XRumer permite publicar más de 1100 comentarios en menos de quince minutos.

El funcionamiento de este programa es el siguiente: en primer lugar, el ciberdelincuente debe especificar qué mensaje y qué link debe publicar XRumer en los distintos foros, así como el nombre de usuario, el mail, etc. con el que debe registrarse en los mismos. Generalmente, el mensaje de spam contiene un link a páginas infectadas con malware, aunque esta herramienta también puede ser usada para publicitar sitios web mediante spam.

Una vez hecho esto, el ciberdelincuente deberá rastrear la web en busca de páginas, blogs o foros en los que se permita dejar comentarios a los visitantes. Para ello, los ciberdelincuentes suelen emplear Hrefer una herramienta que permite utilizar los motores de búsqueda de la red para encontrar ese tipo de páginas y que se puede adquirir, junto con XRumer, por 50 dólares más. A continuación, este programa malicioso se registra como usuario y publica su comentario.

Este tipo de sitios web contiene, generalmente, medidas de seguridad o el bloqueo de direcciones IP sospechosas para evitar el registro automático mediante robots. XRumer, sin embargo, está diseñado para evitar estas medidas de seguridad. Así, es capaz de reconocer el texto incluido en varios tipos de imágenes y también cuenta con una larga lista de computadores cuyas IP puede utilizar como proxies, de modo que no necesite utilizar la del ciberdelincuente, que podría ser bloqueada.

XRumer puede publicar comentarios en sitios creados en phpBB, PHP-Nuke (con alguna modificación), yaBB, VBulletin, Invision Power Board, IconBoard, UltimateBB, exBB, y phorum.org.

“El éxito de los blogs, los foros, etc. no ha pasado desapercibido a los delincuentes de la red que tratan de infectar, a través de ellos, al mayor número de personas posible", explica Luis Corrons, Director Técnico de PandaLabs. “El programa cuenta, incluso, con un apartado de ayudas frecuentes. Curiosamente, en una de ellas el autor asegura que XRumer no es un programa para crear spam".

Mozilla y Thunderbird separarán sus caminos


Mozilla Foundation se concentrará a futuro en el desarrollo del navegador de código abierto Firefox, en tanto que el programa de correo electrónico Thunderbird pasará a formar parte de una organización independiente.

Michael Baker, uno de los directores de Mozilla Foundation, escribe en su blog que la organización desea concentrarse en el navegador Firefox, y que por tal razón el programa de correo electrónico Thunderbird se convertirá en una iniciativa independiente. Baker recalca que los desarrolladores de Thunderbird tendrán la posibilidad de "decidir su propio destino", aunque resulta evidente que con su decisión Mozilla Foundation le está bajando fuertemente el perfil a Thunderbird.


Por largo tiempo, el desarrollo del programa de correo electrónico ha tenido un lugar secundario respecto del navegador Firefox. La intención inicial era que las versiones principales de ambos programas fuesen lanzadas simultáneamente, pero la versión 2.0 de Thunderbird, por ejemplo, fue presentada siete meses después que Firefox 2.0.

Mozilla Foundation reconoce además que Firefox concentra la mayor prioridad por el momento, en tanto que Thunderbird recibe menos atención.

Michael Baker tiene tres propuestas para el futuro de Thunderbird: ya sea los desarrolladores crean una organización propia siguiendo el modelo de Mozilla Foundation, o crean una subsidiaria de la organización actual. La tercera posibilidad es que Thunderbird se convierta en un proyecto comunitario al estilo de SeaMonkey o Camino.

El director de Mozilla Foundation propone una "nueva visión", para Thunderbird. En los foros dedicados al tema se cuestiona la utilidad de un programa como Thunderbird en estos tiempos en que muchos usuarios gestionan su correo electrónico mediante servicios como Google Mail. Mozilla tiene una estrecha cooperación con Google, lo que podría explicar en parte que Thunderbird esté siendo desfasado.

viernes, 27 de julio de 2007

Ministerio finlandés migra a OpenOffice


El ministerio de justicia de Finlandia ha migrado hacia el sistema ofimático OpenOffice. El cambio hacia el código abierto significaría un ahorro de € 2 millones.

Luego de un proyecto piloto, el ministerio de justicia de Finlandia concluyó que le resultaría rentable migrar hacia OpenOffice. Los gastos de capacitación y de adaptación de documentos y rutinas serían más bajos que lo estimado inicialmente, por lo que la entidad ahorraría € 2,1 millones con el cambio.


El ahorro se ve en relación a la inversión requerida para conservar software de Microsoft por un período de diez años.

jueves, 26 de julio de 2007

Tricom anuncia nuevas soluciones tecnologicas: Wimax y SoftSwitch

La empresa dominicana de telecomunicaciones, Tricom, realizó una rueda de prensa para presentar sus nuevas soluciones tecnológicas: Wimax y SoftSwitch, que definen una nueva generación de redes de tecnología al alcance de nuestros clientes.

Estas soluciones representan una plataforma única y eficiente, que facilitan el acceso de última milla, donde convergen todos los servicios de voz, data y video, permitiendo reducir los costos e inversiones en infraestructura telecomunicaciones, lo que se traduce en economía para nuestros clientes.

La actividad estuvo encabezada por el señor Ryan Larrauri, Vicepresidente de La Unidad de Servicios Fijos, Relación con el cliente y Comunicación Corporativa, quien destacó en su discurso “Tricom se ha caracterizado desde sus inicios por ser una empresa pionera y emprendedora en el desarrollo de innovadoras tecnologías, es por esta razón que continuamos este año con nuestros planes de crecimiento y expansión estratégica”.

Expresó, nuestra empresa ha realizado cuantiosas inversiones en tecnología de punta, que nos permiten ofrecer estas nuevas soluciones, que revolucionaran las telecomunicaciones en nuestro país.

Asimismo, la señora Susset Matos, Directora de Mercadeo Negocios, realizó la presentación interactiva de estas nuevas soluciones tecnológicas.

Susset Matos, explicó que Tricom es la primera empresa de telecomunicaciones en el país en proveer los servicios de Wimax, una tecnología que utiliza un estándar de transmisión inalámbrica de banda ancha y que permite un amplio radio de cobertura, lo que facilita el acceso de última milla, como una alternativa a las propuestas de data alámbrica.

Además esta plataforma soporta la convergencia de los servicios de Internet y Datos Banda Ancha, Voz y entretenimiento sobre una única plataforma de acceso inalámbrico.

Explicó que Wimax, ofrece múltiples beneficios tales como: acceso desde cualquier lugar dentro del área de cobertura, cero interferencias, fácil instalación, seguridad frente a los robos de cables, permite el acceso a la red en entornos donde es difícil el cableado interno o externo, así como la integración de localidades Wimax a su red existente de datos y/o VPN Tricom.

Los principales usuarios de estos servicios son todas las empresas con necesidad de estar comunicados y están ubicados en localidades de difícil acceso.

De su parte, el señor Hitler Tejada, informó la disponibilidad de la Red de nueva Generación, basada en el SoftSwicth Tricom “Esta plataforma habilita nuevas funcionalidades a nuestros usuarios tales como telefonía IP (Internet Protocol), mensajería unificada, todo esto sobre la infraestructura existente de Internet.


El evento contó con la presencia del señor José Rafael Vargas, Presidente del Consejo Directivo del Indotel y miembros del organismo regulador, así como los principales ejecutivos de Tricom, clientes corporativos, amigos y relacionados a la empresa, quienes realizaron un recorrido por las instalaciones para conocer estas nuevas soluciones.googl

El phishing a entidades bancarias vuelve a incrementarse


Según el Centro de Mando Antifraude de RSA, 191 entidades financieras han sido víctimas de phishing, un 11,7% más que en junio del pasado año.

Según el Centro de Mando Antifraude (AFCC) de RSA, los ataques de phishing durante junio de 2007 afectaron a un total de 191 entidades financieras en todo el mundo, un 11,7% más que en junio de 2006. Además, entre dichas entidades financieras se han identificado 36 bancos que nunca habían sido atacadas anteriormente.

Según el informe referente a junio, Estado Unidos continúa como primer país afectado por el phishing, con el 70% del total de los ataques. Le sigue Reino Unido, con el 9% Canadá, con el 6% y España, que vuelve a situarse en 4º lugar, registra el 4% del total de los ataques. En concreto, se han visto afectadas a 6 entidades financieras españolas con un total de 32 ataques, principalmente provenientes de Estados Unidos.

Contrariamente a la tendencia observada en marzo y abril el número de ataques emitidos desde Estados Unidos ha crecido durante junio, alcanzando el 59% de los ataques, frente al 55% registrado en mayo. Esto, sin embargo, no puede atribuirse a la propia actividad de los grupos que están detrás del incremento de ataques de phishing, sino de los grupos que alojan la mayor parte de sus ataques fuera de éste país.

Le sigue Hong Kong con el 10% de las emisiones de phishing, Alemania, con el 8% y Rusia con el 5%. Un dato relevante es China, que durante mayo se situó en el 2º puesto con el 13% de ataques alojados, desapareciendo de la lista de junio.

miércoles, 25 de julio de 2007

Ahora si para los que gustan de guardar todo en los discos

Para los fanaticos de peliculas y canciones =con video etc. Hitachi lanzo el primer disco duro de 1Tera digase 1000GB para aquellos usuarios que gustan guardar todo en su pc , digase de esta manera que ya podremos guardar hasta 4 Tera digase 4000GB una cantidad considerable en una sola maquina o PC.

La compañía japonesa Hitachi fue la primera en lanzar los prodigiosos discos duros de 1 terabyte. Otras compañías se suman ahora a la tendencia.


Hasta ahora, los discos duros de 500 GB han sido corrientes, aunque también se comercializan discos de 750 GB. Hitachi ha presidido el sitial de los discos duros de rango terabyte para consumidores con su modelo Deskstar 7k1000, que ha estado a la venta durante algunas semanas.


Por ahora, los usuarios pagan un sobreprecio por el espacio extra que significan 500 GB. El disco Deskstar 7k1000 tiene un precio de alrededor de 600 euros, en tanto que por un disco de 500 GB solo hay que pagar 150 euros.

Las compañías Seagate y Samsung anuncian para el mes de agosto dos discos con capacidad superior a 1 TB. Aunque los precios anunciados serán inferiores a los 600 euros, tomará algún tiempo antes que tal tecnología esté disponible para la mayoría de los usuarios a precios competitivos.

Google aspira a convertirse en operador telefónico


Google se dispone a ofrecer 4 mil millones de dólares para comprar licencias de telefonía móvil en Estados Unidos.

Mientras que Apple con su producto iPhone se ha convertido en un fabricante de teléfonos móviles, Google aspira a entrar a ese segmento como operador de telefonía móvil. El gigante de las búsquedas está preparado para ofrecer más de 4 mil millones de dólares en una próxima subasta de licencias para teléfonos móviles en la frecuencia de 700 MHz en Estados Unidos. La iniciativa de Google puede interpretarse como una ofensiva directa contra Verizon Wireless y AT&T, partner de Apple para la comercialización de los iPod.


"Un pequeño grupo de consorcios controla actualmente las frecuencias de telefonía y transmisión de datos. Esto limita considerablemente las posibilidades de elección de los consumidores", declaró Chris Sacca, portavoz de Google, a Cnet.

Probablemente, el objetivo de Google es lograr una reducción de los precios de la telefonía móvil, lo que a su vez abarataría los costos del acceso móvil a Internet. Esto aumentaría el tráfico hacia Google, generando para la compañía mayores ingresos por publicidad.

Google plantea una apertura total de las redes móviles, de forma que los consumidores no estén atados a un determinado software o equipos de determinados fabricantes para poder conectarse a Internet. La compañía plantea que las redes móviles funcionen como una tercera vía de acceso a Internet, al igual que el cable y la red fija. Google también se interesa porque los concesionarios de las licencias tengan la posibilidad de re-vender capacidad en la red móvil a terceros.

La estrategia de apertura a las redes móviles y sin limitaciones para los consumidores parece además ser un ataque indirecto contra Apple, que obliga a los compradores de iPod a contratar un costoso servicio de telefonía en la red de AT&T.










Microsoft confirma nuevo Zune

Pero solo en EEUU por ahora.

Microsoft ha vendido más de un millón de reproductores multimedia Zune desde su lanzamiento de noviembre 2006. Ahora, la compañía anuncia nuevos modelos del dispositivo.

En junio pasado, Microsoft alcanzó el hito del millón de ejemplares de Zune vendidos. Los nuevos productos estarán inicialmente disponibles solo en Estados Unidos, y sus detalles técnicos aún no han sido comunicados oficialmente por Microsoft.

A pesar de no proporcionar datos técnicos concretos, Microsoft indica que se trata de una considerable mejora de la serie Zune, con nuevos modelos en diferentes formas, tamaños y segmentos de precios.

En un comunicado, la compañía escribe además que incorporará soporte para vídeo y podcast, a la vez que apostará también por radio en línea y WiFi, elementos con los que Apple no cuenta.

viernes, 20 de julio de 2007

Google ya no almacenará las galletas por 30 años


Google ha decidido cambiar la configuración de sus cookies, que a partir de ahora tendrán una vigencia de sólo dos años.

El gigante de los buscadores, Google, ha sido criticado por almacenar demasiada información sobre sus usuarios, por demasiado tiempo. Respondiendo a las críticas, la compañía ha decidido reprogramar sus galletas, de forma que se venzan en sólo dos años. Anteriormente, el año de vencimiento ha sido 2038.

Una galleta es un archivo de texto almacenado en la computadora, y contiene información sobre configuración y movimientos realizados por el usuario al visitar un sitio web. Este archivo también puede contener la identidad del usuario para inicio de sesiones, y puede ser, por lo tanto, usado para identificar al usuario en cuestión. El archivo es transferido al sitio web cada vez que el usuario visita el sitio que instaló la galleta en la computadora.


La duda ha estado en cuanto tiempo al archivo debe estar guardado en la computadora, antes de ser automáticamente borrado. Anteriormente, Google ha programado las galletas para vencerse el año 2038, lo que en la práctica significaba que el archivo nunca sería borrado. Es decir, si un usuario visitaba Google al cabo de cinco años, el archivo sería nuevamente transferido hacia el sitio web. Con nueva política de Google, la galletas se vencerá definitivamente al cabo de dos años.

El elemento decisivo parece ser si el archivo automáticamente será renovado cada vez que el usuario visita Google. Es decir, el archivo podría vencerse únicamente si pasan más de dos años entre cada visita al Google.

Cabe señalar que es relativamente fácil borrar todas las galletas del navegador.

Plataformas Intel certificadas para Sun Solaris

La combinación del sistema operativo Solaris 10 en servidores de telecomunicaciones de Intel, incrementa las opciones para los proveedores de servicios y fabricantes de equipos.

La combinación del sistema operativo Solaris 10 en servidores de telecomunicaciones de Intel, incrementa las opciones para los proveedores de servicios y fabricantes de equipos.



Los sistemas son servidores para gabinete clase carrier tipo Network Equipment-Building System (NEBS) Nivel 3 y compatibles con el European Telecommunications Standards Institute (ETSI, Instituto Europeo de Estándares de Telecomunicaciones), así como servidores tipo blade que se adhieren a la Advanced Telecom Computing Architecture (ATCA, Arquitectura Avanzada de Computadoras para Telecomunicaciones), una serie de especificaciones estándares de la industria para equipo de comunicaciones clase carrier de siguiente generación.

La combinación del sistema operativo Solaris 10 en servidores de telecomunicaciones de Intel, incrementa las opciones para los proveedores de servicios y fabricantes de equipos que desean mantener aplicaciones existentes e implementar otras de siguiente generación.

“La colaboración con Sun para ofrecer el sistema operativo Solaris altamente confiable es otra gran alternativa para atender las necesidades de clientes de comunicaciones. Combinamos los beneficios del sistema operativo Solaris con las ventajas de precio-desempeño y eficiencia en el consumo de energía de la Arquitectura Intel en plataformas clase carrier", dijo Doug Davis, vicepresidente y gerente general del Grupo de Sistemas Integrados y Comunicaciones de Intel.

Extreme Networks y Nortel hacen equipo para Redes Carrier Ethernet


Con una demostración en vivo, las compañías permitieron ver las conexiones ethernet sobre una troncal PBT entre el stand de Extreme Networks y el de Nortel uno en cada extremo del recinto.

Extreme Networks y Nortel realizaron una demostración de interoperatibilidad de Provider Backbone Transport (PBT) optimizadas con el nuevo switch para Carrier Ethernet de Extreme Networks BlackDiamond 12802R.

“Estamos muy contentos acerca de este avance y los resultados obtenidos con nuestra nueva familia de productos BlackDiamond 12800", comentó Peter Lunk, director de marketing para proveedores de servicio en Extreme Networks. “PBT es el siguiente paso en la adopción del Ethernet como el transporte del protocolo preferido de las redes carrier. Este provee determinismo y confiabilidad a los proveedores de servicio que han estado dudosos en implementar redes Ethernet Transport en el pasado".



El spam oculto en documentos PDF gana terreno


Luego que las compañías de seguridad informática finalmente lograran controlar el spam en imágenes, una nueva modalidad de distribución comienza a ganar fuerza: el spam en documentos PDF.

Aunque el volumen de spam camuflado en imágenes ha disminuido considerablemente en los últimos meses, los usuarios de Internet no pueden sentirse aliviados. En efecto, los spammers constantemente conciben nuevos trucos para eludir los filtros diseñados para bloquear el correo basura. En un informe, Symantec advierte que el denominado spam en PDF se está convirtiendo en un problema cada vez mayor. El mensaje publicitario es incorporado en un archivo PDF y el e-mail tiene generalmente un tono más profesional que el spam típico.

“Los spammers saben que cada vez es más difícil eludir los filtros antispam, por lo tanto les urge que la gente abra el correo y con ello aumenten el denominado ‘hit rate´. Los usuarios pueden ser inducidos a abrir un mail si consideran que el archivo PDF tiene un tono profesional", escribe Symantec en un comunicado.

Cabe señalar que cuando los spammers comenzaron a distribuir spam oculto en imágenes, las compañías de seguridad informática fueron tomadas por sorpresa y demorarían alrededor de 6 meses en desarrollar filtros efectivos. El spam en imágenes ya no es un problema masivo. A comienzos de año, representaba el 50% del spam, mientras que actualmente se sitúa en un 14%. El desafío para Symantec y las demás compañías del rubro ahora es el spam en PDF.

miércoles, 18 de julio de 2007

Ten Tips for Avoiding Google Hell

Have you ever wondered just what makes a website disappear from the search engines? Maybe one day your website is ranking well, and then a few weeks later it's like someone hit a switch and sent your site into the nether regions of the search engine rankings. Perhaps your site has never even managed to make it into the rankings at all? Welcome to the world of Search Engine Marketing — in particular, Search Engine Optimization (commonly referred to as SEO).

In a nutshell, SEO is the practice of optimizing a website's pages to ensure that they are search-engine friendly and that they target their intended key audiences. Each of the major search engines (Google, Yahoo!, MSN, and Ask) sends out "spiders" or "crawlers." These are programs that come to your website and "collect" all the information about each web page and take it back to the search engine's database. The search engine houses the information about the pages it collected and then presents it when a query from a searcher matches what your page is about. Each search engine applies its own algorithm to determine a page's relevancy to the searcher's query, and returns a set of results.

Here are some very basic tips that webmasters, or online marketers responsible for promotion of a website, should keep in mind. These fundamental strategies can help overcome many issues that webmasters and marketers encounter when dealing with search engines — issues that can inhibit a site from ranking, and prevent pages from being crawled or even push them into the supplemental index.



1. Use the robots.txt File

The robots.txt file is probably one of the easiest tactics webmasters can employ. Using it can help ensure that the right folders are being found and crawled by the search engines. Use of robots.txt can also assist webmasters in keeping the search engine spiders out of places they shouldn't be in. This simple text file is placed in the root directory of your website and basically acts as a "roadmap" for the search engine spiders to follow when accessing your site. You can use specific commands to allow or block folders from being crawled by all search engines spiders or a select few.

To create a robots.txt file, just use your notepad program, and follow the standard specifications for setting up instructions for the search engine spiders to follow. To get help understanding how to set up a robots.txt file, take a look at Robotstxt.org, a great resource for listing out specific robots and the syntax needed for excluding robots and folders. Referring to the specifications at Robotstxt.org will also help you avoid the pitfalls of possibly blocking folders or allowing the wrong folders to be indexed by the search engines.



2. Validate Your Website

Two of the four major search engines, Google and Yahoo!, allow and encourage webmasters to validate their websites. This is a simple task that involves uploading files to the root of your website directory, or placing information within the website's meta tags.

When a website is validated, it helps to build a level of trust with the search engine. Validation also allows the search engine to know that this indeed is a current, truly valid and functioning website.

Yahoo! allows you to sign up for their SiteExplorer service (login required) and monitor your site's authentication. Blog feeds can also be submitted if the website has a blog. And Yahoo! will notify the email connected with the account when any actions are taken on the authenticated websites connected to the account.

Google's Webmaster Central is a great resource that allows webmasters to validate their websites, and offers a lot of other tools for monitoring a website's indexing with Google. Signing up is free. Once a website is validated through the Webmaster Central tool, a webmaster can monitor and control how often a Google search engine spider comes to "crawl" the website. Webmasters can also monitor links coming into the site, high-ranking keywords for the site, and most-clicked-on query results.

Both Yahoo! Site Explorer and Google's Webmaster Central allow webmasters to submit sitemaps — the subject of our next tip.

3. Use Sitemaps

Sitemaps work similarly to the robots.txt file, in that they act as a roadmap for search engines' spiders. A sitemap tells the search engines which pages of the website should be crawled. If the site is small, you can put all your page URLs into the sitemap file; however, you'll need a different approach if your site is a couple thousand pages or more.

For larger sites, you'll want to give the spiders a "guide" to follow, so make sure your higher-level category and subcategory pages are listed in the sitemap file. By including these higher-level pages in the sitemap, you let the spiders follow the links that will lead to deeper pages within your site.

A protocol for sitemaps was set up through a cooperative effort from Google, Yahoo!, and MSN. The specifications for setting up a sitemap file either through a .txt file or an .xml file can be found at the Sitemaps.org website. Following these specifications will help webmasters to ensure they are avoiding some common pitfalls. Currently, both Google and Yahoo! allow you to submit your sitemap file.

4. Acquire Relevant Links

One of the biggest factors in having a website rank for keywords or phrases is more than simply the number of links acquired coming into the website — how those links are actually worded matters immensely.

Search engines consider a link to a website as a "vote of confidence." However, the search engine really takes into account just how the link is formed. For example, links to your site that are worded as just "click here" won't be as powerful as a link worded "Buy blue widgets at Blue Widgets' Website." The value of the link is greatly enhanced by using keywords within the link, rather than just "click here."

If you have the ability to suggest or influence the formation of a link that points to your site, make sure to use the keywords you are hoping to rank for. Not only does it benefit your website; it can also help the site that is linking to you.

Webmasters and search marketers: Take heed of where you are acquiring links from. Links to your website from bad neighborhoods can negatively affect your website's relevancy to the search engine. ("Bad neighborhoods" are defined on the Webmaster Guidelines page in the foregoing link.) If the linking site seems shady or spammy, or if something just "doesn't seem right," it might be better to trust your instincts until you can thoroughly check out the site before acquiring the link from it.

5. Don't Sell Links

Selling links on a website is a fairly controversial subject. On one hand, webmasters should be allowed to do what they want with their websites. On the other hand, the search engines view this tactic as high-risk behavior if the links are not denoted as "paid" in some way. Then there is the whole issue of just what is considered a payment.

If you are selling links on your page, the search engines suggest that you tag the link with the rel=nofollow attribute. This basically tells the search engines that you are not "passing confidence" to the site you are linking to. But this action essentially defeats the whole purpose of selling links on a website, and therein lies the controversy.

Google's quality guidelines state, "Don't participate in link schemes designed to increase your site's ranking or PageRank." If your website sells links for this purpose, and it is discovered by the search engines, your website may receive some sort of penalty that will affect the site's ranking. And in Google, this could possibly affect the site's PageRank.

6. Eliminate Duplicate Content

Search engines want to display the most relevant web pages in response to a searcher's query. Therefore, when pages have identical or very similar content, some of those pages will likely be disregarded by the search engine. Some websites don't even realize they're creating duplicate pages because of the use of session IDs, or multiple variables in a URL taking site visitors to the same page. These are just a few ways duplicate content can be created and cause a substantial headache for marketers and webmasters alike.

Google states in its webmaster guidelines:

Be aware of the following other ways of accidentally creating duplicate content:

  • "Printer-friendly" pages
  • Manufacturers' product descriptions that are reused by other retailers
  • Mirrored websites
  • Syndicated articles

All of these situations can get a web page ranked lower in the search engine, or possibly get it pushed into Google's supplemental index — neither of which you want to happen for any website. There are some simple ways to avoid this, such as blocking folders from the search engine spiders with the Robots.txt file (see tip #1).

7. Use Correct Redirects

Redirects are generally used by webmasters to take visitors who land on old, out-of-date web pages (usually from prior bookmarks) to the pages that are most current within the website's new structure. There are two types of redirects: a Temporary Redirect, technically known as a 302, and a Permanent Redirect, technically known as a 301.

Using the wrong kind of redirect when a web page is being moved can cause the page to lose its rank within the search engine. If a web page is being moved permanently to a new URL, the Permanent Redirect/301 should be used.

A Permanent Redirect tells the search engine to pass all the old page's "juice" onto the new page. This means all the value acquired by links that still point to the old page will be passed onto the new (redirected) page. If a Temporary Redirect/302 is used, no value is passed onto the new page.

8. Simplify URL Parameters

Webmasters of sites that dynamically generate content based on variables in a URL should be cognizant that search engines might not be capable of crawling some web pages. The spiders/crawlers sent out by the search engines are very "childlike" in nature. Should they run into any "roadblocks," they will stop their crawl.

Having too many parameters in your URL is one of the roadblocks that can stop crawlers from going deeper. In general terms, most search engines have a difficult time crawling URLs with more than four parameters.

If having too many parameters is an issue with your website, it might be wise to discuss with your tech team some alternatives for passing the variables to the server to generate the dynamic pages. Tools such as ISAPI_Rewrite can be a powerful assist in efforts to resolve issues with variables.

9. Customize Title Tags and Meta Descriptions

One of the most important pieces in optimizing a web page is the page title tag: It tells search engines what the page is all about. A lot of relevancy is placed in a page's title tag, so careful crafting of that tag will not only reflect a company's position but also capitalize on the use of keywords and phrases.

Unless your company is a household name like Coca-Cola or Toyota or Ritz® crackers, it's unlikely that people will be searching on your company's name to find the services or products on your website. Keeping this in mind, it's clear that you should avoid title tags like "XYZ Company Services" or "About Us — XYZ Company."

Along with the title tag, the page's meta description is an important piece of the marketing puzzle. The meta description has little value in determining relevancy to a search engine, but it is displayed when a search engine displays its results page, right below the page's title tag. Customizing both the page's title tag and meta description to focus on the actual content of the page goes a long way toward getting searches to click on your listing in the search results.

10. Request Reinclusion (Google)

Let's say you've discovered that your website has been removed from Google's index, or that a penalty has been imposed on your website's pages. What's a webmaster or search marketer to do? Are you banned or penalized forever?

Thankfully, Google can be a forgiving search engine. If you address and fix the issues that Google has identified as the reason for the banning or penalty, you then have recourse: the Reinclusion Request. Google offers you the ability to submit this request to have your website reevaluated to verify whether the offending practices Google found have been "cleaned up."

The one thing the reinclusion request won't do is guarantee that Google will include your website in the top 10 when a search is done on keywords or phrases.

Get More Help

There are a few other issues that can give webmasters and search marketers some hassles when it comes to getting their websites to rank in the search engines. In general, though, we've covered some common problems that can be resolved rather easily. If your site is experiencing any search ranking issues that are particularly difficult to work out, don't be afraid to join the webmaster users groups on both Google and Yahoo! — both groups are friendly and helpful. You'll also find that employees from these search engines will lend a helping hand when they can.

Google and Yahoo! are currently the only two engines that have dedicated actual resources and created programs to communicate with webmasters and site owners. Both MSN and Ask are currently in the process of developing similar tools. MSN does have its own set of tools called AdLabs, but these tools are highly geared toward pay-per-click advertising.

So if you ever find yourself in "search engine hell," stop and take a look at the ten situations listed in this article and compare them to what's going on with your website. Hopefully there's a nugget or two of information here that will help you climb out of trouble and into higher rankings!

Thanks to informit team for this beautiful article .

I hope that you enjoy this article and make helpful with this.

Bad User Interface of the Week: File It Under “Bad”

he UNIX philosophy says "everything is a file," which sounds sensible on the surface. It is somewhat useful to have a unified interface, but what exactly is a file?

In the UNIX world, a file is an untyped, unstructured stream of bytes. This is a fairly useful from a programmer’s perspective; it’s a lowest-common-denominator that can be used to implement more useful abstractions, but what does it mean from a user perspective?

I tried an experiment. Over the last few months, I have asked a small number of people to tell me what a file is. Some have been computer scientists, some in business, and some fairly naive computer users. Not a single one could tell me what a file was.

As with many user interface concepts, a file is based on a physical metaphor: a thin folder for storing documents. Interestingly, if I asked people to tell me what a document was, I got sensible answers. Terminology can be very important when describing parts of the user interface.

Once a user understands what a file is, there are still some hurdles to overcome. One of the biggest is the concept of "saving." In general, saving means "write the current document state to disk." Somewhat counter-intuitively, saving is typically a destructive operation; when you save, you are usually overwriting the previous version.

How should saving work? Most programs maintain an undo history, but very few save this with the document. Those that do often present a security problem; if you then share the file with someone else, then that person can see the revision history of the document. It turns out that "saving" is actually used for two purposes:

  • Checkpointing
  • Publishing

These are conceptually quite different. Checkpointing is a way of telling the computer that you might want to go back to that particular state. Some filesystems, such as that of VMS, incorporate this automatically. Every time you "save" a file, you are performing a non-destructive operation, creating a new version of it on disk. ZFS can do this very well, allowing each version of a file to be checkpointed and only using disk storage for the changes. LFS also permits this kind of interaction. Most conventional UNIX and Windows filesystems, however, do not.

Publishing is quite different. Publishing is the act of sending a document to a remote person. This is often the virtual equivalent of selecting Print, and some systems integrate the UIs. On recent versions of OS X, for example, the Print dialog has a button for sending the PDF through an Automator workflow, which can be used for emailing the PDF version to the recipient.

Combining two very separate user operations into the same user interface because the implementations are similar is a very common mistake. This is something that files themselves often exhibit. When I write a long document, I have a text file containing the typesetting commands, and text and a PDF file containing the typeset output. The same is true when writing software; I have source files and an executable file.

This almost certainly sounds normal to most readers, because this is the way most systems work. But why is it this way? A source code listing and an executable are, in an abstract sense, simply different views on the same data. One can easily be produced from the other (and in some cases this process is even reversible). Many languages do not make this distinction at all; the compiler generates the executable code when the program runs, and if it caches the result, it does so in a manner not visible to the user.

One of the first systems to work this way was SmallTalk, which dispensed with files altogether. The environment contained a class browser, and this allowed classes and methods to be edited without any thought as to how they were stored on disk, nor of whether they needed to be recompiled.

When designing a user interface, always try to remember how your users will be interacting with it. What is actually important from their perspective? No one ever needs to edit files; they need to edit data. Files are one abstraction of data, but they may not be the best one for the task at hand. Music jukebox and photo album software have shown how much better a specialized viewer can be for certain tasks. A user of something like iTunes is aware of tracks, with track and album names, artists, and other metadata, not of a hierarchy of files in folders on a disk. Picking the correct abstractions for user interfaces is as important as picking them for systems.

martes, 17 de julio de 2007

Samsung lanza Q1 Ultra


La solución ultraligera “todo en uno" de Samsung dispone de un teclado QWERTY, videocámara, navegación GPS y un 30% más de potencia.

Samsung Electronics ha presentado el Samsung Q1 Ultra, la próxima generación del UMPC Q1 lanzado originalmente en Marzo 2006.

Samsung ha vuelto a colaborar con Intel y Microsoft para crear un UMPC completo. Centrándose en la movilidad y funcionalidad, Q1 Ultra es uno de los ordenadores portátiles más ligeros disponibles actualmente en el mercado. Con un peso de 690 gr. y menos de 23.9 mm de ancho ofrece la misma calidad en comunicaciones, entretenimiento y funcionalidad que un PC convencional.

Q1 Ultra dispone de una batería con autonomía de hasta 3.5 horas con la batería estándar de 4 celdas o alrededor de 7 horas con la batería de larga duración, con más de un 30% de mejora en la autonomía. Incluye 10/100 Ethernet, 802.11b/g gíreles LAN, HSDPA/WiBro y Bluetooth 2.0.

Kim Houn Soon, Vicepresidente Ejecutivo de Samsung Computer Systems comenta: “El año pasado, por primera vez, Samsung introdujo el concepto de UMPC en el mercado de consumo con una gran anticipación. Este año, lanzamos el Q1 Ultra basándonos en el feedback de los propios usuarios. Para el 2010, esperamos que el mercado de los UMPC alcance las 10 millones de unidades, con el Q1 Ultra liderando el mercado".

Oracle presenta Oracle Database 11g


Con más de 400 funcionalidades, 15 millones de horas de prueba y 36,000 meses/persona de desarrollo, Oracle Database 11g es el producto de software más innovador y de más alta calidad que Oracle haya anunciado.

Oracle presentó en la Ciudad de Nueva York, Oracle Database 11g, la última versión de la base de datos de la compañía.

“Oracle Database 11g, resultado de los 30 años de experiencia en diseño de bases de datos, ofrece gestión de información empresarial, de siguiente generación", dijo Andy Mendelsohn, vicepresidente senior de Tecnología de Servidores de Base de Datos de Oracle.

“Más que nunca, nuestros clientes enfrentan distintos desafíos con respecto a los datos (data): un rápido crecimiento, mayor integración y presiones relativas a los costos de TI de conectividad de los mismos. Oracle Database 10g utilizó por primera vez grid computing, y más de la mitad de los clientes de Oracle han adoptado esa versión. Oracle Database 11g ofrece ahora las características claves que nuestros clientes han demandado para acelerar la adopción y el crecimiento masivos de los grids de Oracle; lo cual representa una innovación real, que aborda desafíos reales, según la opinión de clientes reales", agregó el alto ejecutivo.

lunes, 16 de julio de 2007

Procesadores VIA apoyan educación auxiliada por cómputo



Los procesadores de escritorio VIA C7-D impulsan nuevas computadoras accesibles en el uso de energía, dirigidas a mercados emergentes como el educacional de África del Sur.


VIA Technologies y Mecer anunciaron la nueva PC Mecer Education impulsada por el procesador de escritorio VIA C7-D de 1.5GHz y compatible con una variedad de sistemas operativos, incluyendo Microsoft Windows XP Starter Edition.

Brian Sam, director de ventas de VIA Technologies para América Latina, hizo hincapié en que esta plataforma es la misma que se está comercializando en América Latina en las PCs ensambladas por los integradores.

Sam añadió que para la distribución de estas plataformas, VIA ya ha establecido alianzas estratégicas con sus socios del canal en toda la región de América Latina. “Nuestro objetivo es entregar soluciones con la plataforma en que se basa la iniciativa VIA pc-1. De esta manera están al alcance de los usuarios de esta región diversas opciones de motherboards equipadas con el procesador C7-D", afirmó el directivo.

Siempre en paris


Inauguran Museo de la Informática de Europa

La Tecnología de la Información es parte de nuestro patrimonio científico y cultural; AntéMémoire conserva su memoria y lanza la primera exposición permanente de Europa dedicada a la informática, las telecomunicaciones y a la evolución del profesional de esta área en París La Defense.

Tras varios meses de preparación, el proyecto AntéMémoire inicia su andadura con la esperanza de reconstruir y traer a la vanguardia la evolución de la nueva tecnología, con la inauguración de la primera exposición permanente europea dedicada a los 50 años de software y hardware informático.

El proyecto AntéMémoire, dirigido por Philippe Nieuwbourg, presidente de la asociación y especialista en tecnología de la Información, se ubica en el área empresarial del “Grande Arche de La Défense" en París, Francia.

Esta exposición inaugural marca un momento decisivo en el nacimiento del primer museo independiente y permanente enteramente consagrado a la informática, las telecomunicaciones y la evolución del profesional de esta área en Europa. El Museo cuenta con el apoyo de numerosas organizaciones profesionales, asociaciones y empresas de alta tecnología.

“Muchos de nosotros fuimos educados profesionalmente con la tecnología de la información. Descubiertos en nuestra época de estudiantes, los ordenadores han jugado con el tiempo un papel esencial en nuestra carrera profesional. Directa o indirectamente, millones de personas en Europa han construido sus carreras sobre la informática: programadores, ingenieros, profesores, consultores, editores, periodistas, diseñadores gráficos, personal de ventas,… Más de una o dos generaciones, mujeres y hombres se han convertido en usuarios, pero también en creadores de las tecnologías actuales y futuras. Para soñar con las tecnologías del mañana, tenemos que entender la tecnología actual. Y para entender este progreso, tenemos que saber su historia y sus principales fases de desarrollo. Este es el objetivo que AntéMémoire se ha fijado: recopilar y preservar la memoria de la historia de la tecnología de la información, ponerla en perspectiva a los usuarios actuales y explicar estos pasos para transmitirla mejor a las generaciones futuras", afirma Philippe Nieuwbourg, Presidente de la asociación AntéMémoire.

The Problem with DVDs

I own quite a few DVDs. I also own quite a few CDs. Both look quite similar, but when you put them in the player, you get very different behaviors. When you put a CD into a CD player, it plays music. This seems fairly reasonable, because there isn’t much else you can do with a CD unless you rip it to a computer’s hard disk (in which case, you are no longer dealing with the CD directly).

When you put the DVD into a DVD player, the standard behavior is less well-defined. Some of the older DVDs I own—from the era where things like subtitles and surround sound were listed as "special features"—play the film. Some slightly newer ones play some kind of flashy introduction (which looked dated within a year of release) and then go to the menu. The newest ones tell me that copyright infringement is illegal, suggest a load of other films I might want to buy, and then go to the menu.

The first thing to notice about this insertion behavior is the lack of consistency. This is more the fault of the DVD standard than the individual discs. No single behavior was mandated, so individual studios picked their own favorite. A user who puts a new DVD in the player has no way of knowing what to expect when they press Play.

The second thing to notice is that, as studios became more familiar with the capabilities of the format, the user experience deteriorated. Think for a second about what the user wants to do when he inserts a DVD into a player. Most of the time, he wants to watch the film. With old VHS cassettes, this was about the only thing you could do, so it was the default behavior. With early DVDs, the same was true. At some point along the line, the behavior changed to going to the menu.

Why is going to the menu such a bad initial behavior? For two reasons:

  • Any action requires a button to press. If all you wanted to do was watch the movie, then you are still required to press the "yes, I actually did put this film in my player in order to watch the film" button.
  • Every single DVD remote has a Menu button. You can always get to the menu in a single button press. Because you start on the menu, however, the selected option has to be "Play Film," because this is what the user almost always wants to do. If the movie started playing automatically, then the default option in the menu could be to play special features.

By making this small change, we turn playing the film from a one-button action into a zero-button action, but we don’t make accessing the special features any harder. Now, getting the special features requires you to press Menu, then Enter, where previously it required you to press Down (or Across, depending on the menu layout) and then Enter. Out most common action is easier, and our alternative action is less hard.

I am going to ignore sound and language selection options in the menu; they shouldn’t even be there because the DVD specification requires audio and subtitle language to be configurable in the player. The disc should just read them from the player, not require the user to make the same choice every time.


Applications Have Startup Problems, Too

This kind of behavior is directly mirrored in the software world. What happens when you launch an application? Taking document-based applications as a particular subset, the most common thing you are going to want to do is create a new document, and some default to this. An example of one that doesn’t is Apple’s Keynote.

When you start Keynote, you are given a dialog box asking you to select a theme. It is not obvious why this is here; Keynote stores each slide’s structure, so it is easy to change the theme after creating the presentation. Why not just default to the last, or most commonly used, theme? After you select one, there is even a drop-down list in the toolbar allowing you to change it.

Another thing to notice about this dialogue is that it gives you the option of opening an existing file. Why is this here? It is no easier to click on it that to go to the Open option in the File menu. In fact it’s harder, because the File menu is always in the same place on the screen while the Keynote window moves around, and there is always the Command-Option shortcut for the menu. If it’s a recently modified presentation, it will be in the File, Open Recent submenu, which is even easier than going through this menu.

I don’t want to single Keynote out particularly. A lot of applications are guilty of this behavior. When you design an application, always try to think of what the user will want to do most of the time, and default to this. Once you’ve got that working, ensure that it’s easy to do non-standard things. If you’re doing public beta releases, you might consider having your beta record what the most common actions are, so you are sure you aren’t a special case.

Using Wireless Technology to Augment Network Availability and Disaster Recovery

A few months ago I wrote about not letting the phone company’s disasters become yours and about ways to protect against the all-too-prevalent cable cut. Many wireless technologies offer a solution to this problem since it is exceedingly difficult to dig up air the way one can dig up a cable. Wireless technology not only increases network availability but it can also help you recover in a disaster.

This month, I provide a few "tricks of the trade" to bolster both benefits to your organization.

Wireless technologies that are useful to the enterprise user for network diversity and disaster recovery include the following:

  • Infrared
  • Microwave
  • Satellite
  • Unlicensed point-to-multipoint systems

Each has its own inherent strengths and weaknesses and the application for the technology you choose to back up (voice, bursty data, Internet, and so on) will also play a role in which wireless technology is best.

Following is a brief summary of some common wireless alternatives.

Infrared (Point-to-Point) Links

Point-to-point infrared links are not radio: they are invisible light. You can think of them like the infrared remote for your TV. Infrared is inexpensive, it does not need to be licensed, and infrared equipment comes with a variety of interfaces including T1 and Ethernet. All pretty good advantages to start.

Infrared requires line of sight; that is, one end must be physically visible to the other end of the link. And because it is actually light and not radio, Infrared is much more easily affected by fog, rain, snow, birds, and (practically speaking) anything that will interfere with prorogation of light.

Despite its limitations, infrared is widely used. The equipment can easily be mounted in a building, it does not require any special power or "environment," and its transmitter/receiver can operate through window glass with few problems. If you have an application that requires you to get a T1 across the street or across a small campus, infrared may be your least expensive solution.

Infrared links are also often used for LAN interconnection in buildings that are in close proximity but separated by public rights of way (such as streets) where cabling between buildings is impractical. If you consider the use of an infrared link yourself, be sure you don’t exceed a mile or so (less if you are prone to periodic fog or heavy rain), and that you have clear line of sight.


Microwave Radio

Microwave has broad applicability, high reliability and availability, relatively good ease of use, and relatively low cost. You do need a license to operate most microwave systems, and the more popular frequencies are congested and difficult to get licensed, especially in the major cities.

Like infrared, microwave requires line of sight, which is problematic within major cities. If you are lucky enough to get a frequency licensed, all your work could be undone because someone builds a building between the two points on your microwave link. This occurs more often than you might think.

Microwave enjoyed most of its popularity in the 1980s as a "bypass" alternative to go around the local telephone companies when long distance got cheap but the phone links to connect to the long distance providers got expensive. The logical response of enterprise users was to dump the local telephone company and use microwave to connect directly with long distance carriers of the time such as MCI and Sprint.

While the financial motive was the primary driver, it took the enterprise user only until the next cable cut to realize that microwave also had use as a disaster recovery technology. Microwave provided the ultimate diverse route because one cannot dig up air.

In the 20 years since its use as a "bypass" technology, the feature richness and reliability of microwave has increased, and the cost of these systems has dropped significantly. For example, on many systems there is a greater choice of interfaces with Ethernet and T1 interfaces being commonplace.

But as stated earlier, you have to secure an FCC license to operate a microwave system. The manufacturer can help you do this, and there are also numerous consultants who can literally be found in the Yellow Pages to help with the same issue. If you are looking for true diversity at reasonable cost and at higher reliability than infrared, microwave may be the ticket.

Satellite Communications

This discussion would not be complete without a brief overview of satellite communications. Since Katrina, the satellite industry has looked in a big way at disaster recovery. When a widespread disaster occurs, as with Katrina, a major earthquake, or the Christmas 2004 tsunami in the Indian Ocean, satellite might be the only show going in the immediate aftermath.

It really pays to check out the advantage if you live in a region prone to such disasters. Also, like the previous technologies discussed above, satellite communications have taken leaps and bounds over the last few years in terms of feature richness.

There are a few disadvantages. Satellite is essentially microwave radio aimed upward—it uses essentially the same frequencies. As such, the same rules hold true regarding the tendency to wash out in heavy rains.

There are also two times every year when the satellite receiver will be aimed directly at the sun—right around the spring or fall equinox. At that time there will be a brief outage. These outages can be planned for, however, because the service provider will know precisely when they will occur.

With regard to equipment, satellite has metamorphosed from 16-foot dishes in years past to pizza pan dishes that fit on the side of a building. In fact, the case of global position systems (GPS) and freight-tracking technologies, equipment often fits in your hand. (Consider how handy it might be to have GPS in the aftermath of a tsunami or hurricane when all the street signs and landmarks have literally been washed away!)

Before using satellite, consult with the vendor on propagation delays. It still takes about a quarter of a second to get to a satellite and back because of the limitation of the speed of light. This might have a noticeable performance delay depending on the data protocol you are using.

If these delays exist, however, they can often be compensated for by the satellite provider or through the use of various outboard technologies. Nobody can increase the speed of light, but it is possible, for instance, to send more data before expecting a response, thereby increasing performance.

Companies such as Direct PC (I think they are called HughesNet now) actually use satellite for Internet access, so obviously the performance issue some of the latency issue, have been addressed.

Point-to-Multipoint Systems

Up until now, the challenges of setting up an effective wireless primary and disaster recovery system have always involved trade-offs between cost, complexity, reliability, and time (such as in licensing). This makes the newest entrant of the technologies discussed in this article, point-to-multipoint (P-MP) radio systems, not only an exciting new development but also Leo’s technology of choice.

P-MP marries microwave radio technology to enterprise and makes delivering technologies of all types faster and easier than ever before. This technology is also becoming widely used as a disaster recovery technology. Indeed, two users we are familiar with, both of which are county governments, have scrapped their AT&T T1s altogether and now use P-MP as the primary technology, with a few T1s held back as the backup path.

Here is how the technology works. P-MP products operate in the 900 MHz; 2.4, 5.1, 5.2, 5.4, and 5.7 GHz frequency bands. Since these frequencies are lower than many microwave frequencies, "wash out" and restrictions on range are not as much of an issue.

Like the other technologies, a variety of interfaces are available, including T1 and Ethernet. Start-up costs are low. We have seen central unit costs as low as $2500 and "per rooftop" costs in the $500 range. Typically a small antenna is installed on the roof (about a foot long and 4 inches wide); or in cases where the range is greater, a small dish about the size of a satellite TV antenna.

Furthermore, the equipment does not require a FCC license and is streamlined, with the radio built into the antenna in the same 12" x 4" x 2’ unit on the roof. It’s incredibly easy to get up and running. Most P-MP platforms also include the most common interfaces that enable them to easily integrate with standard network management tools and systems.

Obviously any system that traverses an airwave should be encrypted. Look for a system that provides security with over-the-air DES (data encryption standard) encryption or AES (advanced encryption standard) encryption capabilities. Take a good look at security when using any wireless solution!

P-MP systems serve numerous enterprise locations of virtually any size and can be used for distances up to 15 miles (24 kilometers). Point-to-point links can traverse over greater distances by augmenting the antennas at both ends (a dish similar to a microwave dish is used in these cases) and in fact approximate the "mountain top to mountain top" links described previously.

Most P-MP systems require line of sight, although some of the ones that use the lower frequencies (such as 900 MHz) do not. The lower frequencies however generally limit throughput to T1 speeds (1.544 Mbs)... if you are lucky.

To summarize, P-MP systems, in the opinion of this humble writer, represent the best trade-off of cost, performance, ease of use, and variety of interfaces available to the enterprise user seeking disaster recovery and network availability.

Summary

I like the P-MP systems. First, I have never cared for monopolies like the phone company and I like to have the widest diversity of choice possible.

From a disaster recovery perspective, these systems rock. Imagine a unit you can have shipped in overnight that can reestablish a T1, nail up an Ethernet link, or provide you upward of 10 times the capacity of a point-to-point T1. All without a license, or the need to go to a school, or the need to add yet another black box to interface with your network.

Check them out. You can get more info at AirCanopy.net and myriad other sources. Until next time, have a super and disaster-resilient year!



viernes, 13 de julio de 2007

Tendencias sobre “El Futuro del Hogar Digital"


En la última década la tecnología ha dado un salto enorme hacia delante. Hace tan sólo diez años los teléfonos móviles eran pocos e infrecuentes, Internet era una novedad, y la televisión digital todavía estaba en su infancia.

Desde entonces, el modo en que trabajamos ha cambiado de forma más que irreconocible, con una comunicación más rápida y una abundancia de información al alcance de la mano. Con todo, la tecnología no sólo ha cambiado la forma en que trabajamos, sino que también ha transformado el modo en que nos relajamos.

Peter Esser, Vicepresidente Ejecutivo de Consumo, Dispositivos y Operaciones de Suministro de Fujitsu Siemens Computers, comenta: “La tecnología no solo ha cambiado el aspecto de las oficinas sino que también ha transformado el entorno del hogar. De hecho, la casa del siglo XXI está lista para convertirse en un refugio doméstico, enriquecido por la innovación tecnológica".

Este estudio de Fujitsu Siemens Computers hace un repaso de cómo nuestras casas pueden cambiar en los próximos cinco años. Utilizando una serie de informes de analistas así como el suyo propio, el estudio demuestra el avance del entretenimiento, donde el consumidor ya no es un espectador pasivo sino un participante activo del hogar digital.

El concepto del hogar digital ya está bien establecido y se está viendo impulsado hacia una única unidad en la que almacenar y desde la que acceder a todo el contenido del hogar digital, desde música y fotos hasta televisión e Internet. Gracias a la combinación de wi-fi y Bluetooth, este contenido es ahora accesible desde cualquier punto de la casa, y en los próximos diez años la mayoría de los hogares tendrán esta única unidad como centro de su entretenimiento digital. Las posibilidades de crecimiento en esta área se reflejan en el hecho de que solo el 49% de los propietarios de múltiples dispositivos digitales tienen una red doméstica y a medida que estos consumidores tecnológicos descubran las ventajas de disponer algo así, la red doméstica llegará a tener más penetración. El resultado de esta revolución en la red doméstica será la descentralización del salón.

A finales de la década de los 80, un nuevo tipo de juego informático empezó a arrasar en Japón y el resto del este asiático. La alfombra de baile, en la que los niños podían bailar al ritmo que marcaba la pantalla, se convirtió en algo muy habitual en los locales recreativos de la zona. La zona Oeste del mundo en un principio veía a este nuevo juguete con cierto sentido de ironía, pero en poco tiempo este tipo de juego arrasó en todo el mundo. Lo mismo se puede decir del Tamagotchi, Pokemon, o incluso de las consolas de juegos. Si queremos saber a qué jugaremos durante los próximos diez años, sólo tenemos que echar un vistazo al Este del mundo, donde nacen casi todas las innovaciones en los juegos.

Los Juegos Online Multijugador Masivos (MMOGs - Massively Multi-player Online Games) son la nueva moda en Corea. Como resultado, no solo más gente está compitiendo online sino que cada vez más personas están empezando a ver como entretenimiento en la televisión partidas de juegos de ordenador, de manera muy similar a como lo harían viendo las Olimpiadas o un partido de fútbol.

Para los fabricantes de consolas, las capacidades online van más allá del juego multijugador ya que supone la posibilidad de crear una red doméstica basándose en una máquina de jugar.

A medida que el mundo virtual se vuelve más en consonancia con el mundo real, el juego se volverá cada vez más en una parte importante de la forma en que interactuamos con los demás.

La cámara digital es el dispositivo perimetral más popular. Dos de cada tres europeos tienen una y el usuario medio realiza entre 1 y 20 fotos al mes, lo que supone una enorme cantidad de fotografías que se almacenan en los discos duros de toda Europa.

El hogar digital del futuro se está desarrollando a un ritmo increíble y está afectando a cada aspecto de nuestro estilo de vida: desde cómo nos relajamos, el espacio físico donde disfrutamos de la tecnología y cómo compartimos nuestros contenidos digitales.

“El futuro está claramente preparado para ser un lugar excitante donde la tecnología actuará de socializador que nos mantendrá unidos. A medida que la tecnología se convierte en una parte importante y esencial de nuestra vida diaria, las empresas tecnológicas como Fujitsu Siemens Computers tienen la responsabilidad de asegurar que continúan innovando, y ofrecer a los consumidores los equipos y las aplicaciones que necesitan, al menor precio posible y con el mayor estándar", indicó Peter Esser, Vicepresidente Ejecutivo de Consumo, Dispositivos y Operaciones de Suministro de Fujitsu Siemens Computers.

Trend Micro anuncia OfficeScan 8.0


La solución incorpora entre sus funcionalidades la nueva tecnología de reputación web y cuenta con la certificación Microsoft Windows Vista.

Trend Micro anuncia la última edición de su solución de seguridad desktop dirigida a medianas y grandes empresas: Trend Micro OfficeScan 8.0.

La solución ofrece protección frente a las amenazas web, malware basado en archivos, spyware, virus, rootkits y ataques de red tales como los intentos de hacking. La versión 8.0 incluye mejoras tales como la incorporación de una nueva funcionalidad de Reputación Web, que amplía la protección frente al malware de la web y el robo de datos, bloqueando el acceso a páginas web con contenido malicioso.

“Los puestos de trabajo empresariales están incrementando su movilidad y ahora los portátiles son más numerosos que los equipos de sobremesa en la mayoría de las compañías. Está claro que la creciente movilidad combinada con la sofisticación de las amenazas web requiere que las empresas presten especial atención a la forma en que se implementa su seguridad", comenta Fernando Rynne, Director de Marketing de Producto de Trend Micro para EMEA.

FUENTE:DIARIOTI

Microsoft publica parche para Windows y Office


El día de su actualización mensual de seguridad, Microsoft ha publicado seis actualizaciones que, en conjunto, corrigen 11 agujeros de seguridad en Windows y Office.

Aparte de las seis actualizaciones, Microsoft actualizó un parche publicado anteriormente. Según la compañía, cinco de los 11 agujeros corregidos tienen rango crítico. Entre otras cosas, se solucionan tres vulnerabilidad en .Net, que en teoría puede ser usadas para ejecutar programas no autorizados en el sistema local cuando lo solicita un sitio web programado con código maligno.

Aparte de ellas se han detectado tres errores en Excel, e incluso afectan a la versión Excel 2000, ahora de siete años. Las vulnerabilidades permiten infiltrar hojas de cálculo de Excel con código maligno, que es ejecutado cuando el documento contaminado es abierto en Office.

La actualización de seguridad incluye un parche para el flamante sistema operativo Windows Vista. El agujero permitiría, en teoría, eludir la protección cortafuegos de Vista.

Los demás agujeros corregidos corresponden a Actice Directory Server og Internet Information Services 5.1.

Ese sitio web, Microsoft publica una descripción detallada de todas las vulnerabilidades corregidos con su actualización mensual.

FUENTE :DIARIO TI
Búsqueda personalizada