Blog de JoseMPelaez

Aprendimiento: aprender del entorno con atrevimiento

Posts Tagged ‘red’

Número de Dunbar

Posted by josempelaez en Domingo, 26 abril 2009

Los grupos, redes y organizaciones son tales en la medida que comparten ciertas cosas y se producen interacciones de algún tipo. Se pueden estudiar a lo largo del tiempo. Resulta lógico que nuestras capacidades deben limitar los números máximo y óptimo de sus integrantes. También cabe preguntarse si los distingos entre ellos comportan "números mágicos" diferentes.

maqueta_mercado-tlatelolco

Relaciones en un mercado pochteca (cc Derek Vinyard, Flicr 070929)

Siempre ha habido seres humanos muy autónomos. Sin embargo, la mayoría nos hemos agrupado de alguna forma, llegando al gregarismo con demasiada frecuencia. Aunque la geología y la paleontología nos permiten saber cosas de hace millones de años, para estudiar el comportamiento remoto de nuestros congéneres nos basta con retroceder unas pocas decenas de miles de años. Por lo tanto, podría bastarnos con la arqueología y la antropología.

En la práctica, como el incremento del monto del conocimiento y la velocidad del cambio social han ido creciendo de manera progresiva, no hace falta retroceder muchas centenas de años para ello. Si queremos averiguar el cómo y los porqués podemos recurrir sólo a la filosofía, historia y neurociencia (~2.500) y, más recientemente, a la sociología y psicología (~200).

No obstante, hoy ni siquiera es preciso ser una especie de sabio renacentista. Hace poco más de una década bastaba con aprender a leer y escribir, tener un poco de sentido común y pasar algún tiempo en una buena biblioteca pública de barrio con acceso a internet. El poso del conocimiento tiene la ventaja de que puede decantarse y consolidarse bien en pocos años de publicaciones. En este siglo también se puede aprender mucho con un terminal móvil conectado a una red inalámbrica digital.

En los comentarios de la entrada previa, "Pseudópodo" afloró el «número de Dunbar» (150) al que se refería Juan Freire en uno de los enlaces incluidos. Robin Dunbar es un antropólogo británico y biólogo evolucionista que ha estudiado el comportamiento social de los chimpancés. Observó que 55 era el número máximo de individuos que interactuaban en los grupos y consideró que era un comportamiento que dependía de su funcionamiento cerebral

Partiendo de la proximidad que hay en el reino animal entre chimpancés y humanos, dedujo su número "aplicando una regla de tres" a las circunvoluciones de la corteza dados los respectivos tamaños cerebrales. Debo precisar que se refiere a tamaños máximos de grupos que establecen redes donde sus componentes se relacionan de alguna forma con cierta frecuencia.

Mark Zuckerberg es un programador y emprendedor joven que dejó sus estudios en Harvard; no es sociólogo ni investigador. Sin embargo, gracias a sus iniciativas y experimentos para lanzar y desarrollar Facebook, nos ha permitido observar cosas interesantes. Una de ellas es la que comenzó a denominarse ambient awareness (consciencia ambiental) o ambient intimacy hace un par de años. 

grupo-danza-tribal

Grupo de danza tribal en Santo Domingo (Vanessa Angulo, 2008)

Las herramientas digitales móviles y multimedia actuales permiten que podamos mantener más cercanía o nivel de intimidad social con un mucho mayor número de personas que antes. El clásico espacio-tiempo físico limitaba la cantidad máxima de individuos a los que podías acariciar o con los que podías comunicarte de forma cotidiana. Ahora se ve que el guarismo 150 ha resultado corto como cota superior. 

Ahora bien, ¿se ha quedado corto para qué? ¿Qué clase de interacciones desarrollamos en un grupo o red social? Es claro que nuestra necesidad de pertenecer a entidades diferentes hace que nos relacionemos con muchos tipos de personas, y que lo hagamos de formas muy diversas. Nuestras distintas identidades condicionan el tiempo que dedicamos y la naturaleza de las relaciones que mantenemos con familiares, compañeros, amigos, colegas, etcétera.

¿Qué relaciones son capaces de concretar los que siguen a miles de personas en Twitter? ¿Se trata de otro fenómeno de consumo masivo de unos nuevos medios gratuitos de comunicación? ¿Tendremos que hablar más de mercadotecnia?

¿Estamos desarrollando nuevas clases de grupos sociales que se relacionan empleando unas herramientas que antes no existían? ¿Cómo hemos de interpretar el lenguaje que muchos usan en ellas? ¿Qué reglas de etiqueta deben de regir su utilización? ¿Comportan estas reglas alguna clase de organización?

Me resulta evidente que ahora podemos ser más conscientes de lo que sucede en nuestro entorno, cada vez más global y más próximo. Sin embargo, ello no implica que vayamos a ser nodos activos de unas ciertas redes sociales de personas vinculadas por algunos motivos o intereses compartidos. En cualquier caso, no creo que debamos confundir las redes o grupos con las organizaciones. Entiendo que en las últimas se dan unos propósitos que las diferencian de los primeros.

El «número de Dunbar» aplica a los grupos sociales que pueden tocarse u observarse a simple vista. ¿Hay números mágicos en las organizaciones? A esto me refería en mi nota anterior. Continuará…

Entradas de este cuaderno con alguna relación: Tamaño crítico en la organización.

Suscribirse a las entradas de este cuaderno mediante un lector.

Posted in gestión | Etiquetado: , , , , , , , | 1 Comment »

Nudos entre comunicaciones

Posted by josempelaez en Miércoles, 26 noviembre 2008

Las redes de ordenadores siguen incrementando su protagonismo en la sociedad y culturas actuales. A sus usos en proyectos científicos y aplicaciones técnicas con presencia en los medios de comunicación hay que añadir el empleo extensivo de internet para diseminar mensajes de forma distribuida. Las innovaciones en la conectividad entre unidades de procesamiento de información permitirán avances que pocos pueden intuir, pero algunos sí que los ven, y la «tercera cultura» ayudará en su difusión.

grid-light

Grid para una luz fluorescente (cc RobertFrancis, Flickr)

Hace tres semanas me hice eco de la noticia de que el regulador estadounidense había aprobado la asignación del «espacio blanco» del espectro radioeléctrico —las frecuencias que quedaban libres al cambiar a la TV digital—. Ello me parece relevante porque va a facilitar el despliegue del acceso a internet mediante otra "banda ancha sin cables". Algunos le denominan una "Wi-Fi con esteroides" ya que tendrá una mayor capacidad que la actual, y que las redes celulares 3G que el empleo de los nuevos terminales tipo iPhone están saturando.

Bueno, en realidad, hablar sólo de acceso es poco veraz. Internet es una red y, como tal, está formada por enlaces o líneas, además de por los nudos o conexiones entre ellos que, en sentido estricto, serían tan sólo sus intersecciones o puntos de cruce. Por consiguiente, los canales de comunicación de este espacio "liberado" serán una parte importante de internet, que el DRAE define como: «Red informática mundial, descentralizada, formada por la conexión directa entre computadoras u ordenadores mediante un protocolo especial de comunicación.» 

Malla, parrilla, enrejado, celosía, trama, cuadrícula, tamiz… son vocablos relacionados con red que, en unos casos, enfatizan los hilos, líneas o canales de unión, mientras que en otros resaltan los huecos que se forman entre ellos. Ahora bien, curiosa y extrañamente, los nudos o nodos parecen carecer de interés en todas sus acepciones. Como pocos saben de su papel crucial en muchos tipos de estructuras para una distribución correcta de cargas, me resulta una paradoja su reducido protagonismo semántico ya que esos puntos fueron los protagonistas iniciales de internet, que nació para conectar ordenadores heterogéneos formando una red de topología distribuida. Por cierto, que los exploradores de la Sociedad de las Indias Electrónicas han explicado las diferencias entre descentralizado y distribuido a estos efectos, distingo que no han hecho los miembros de la Real Academia Española en su diccionario de la lengua.

cern_eege-grid

Algunos nodos del EGEE (datos del Imperial College London sobre Google Earth)

Cuando miro las imágenes que usé para ilustrar las dos anotaciones de hace veinte días en que me referí al proyecto del CERN «LHC Computing Grid», observo que todas ellas  ponen más de relieve los nodos que las líneas de conexión. Si miro al otro proyecto grid computing del CERN, el de infraestructura «Enabling Grids for E-sciencE», concluyo que, durante su difusión, el énfasis se puso en que su software permitió conectar más de 2.000 computadoras en abril de 2006 (con motivo de la crisis mundial de la gripe aviar). Recuerdo que esta red permitió, en sólo 1 mes de colaboración, hacer un trabajo de computación que hubiera demandado 1.200 meses de proceso en 1 ordenador (no decían de qué tamaño, así que debían de referirse al promedio). 

La página informativa del centro público que inventó la web explica que la Grid se basa en la misma idea: compartir recursos entre ordenadores distribuidos geográficamente. Aclara que, mientras la web simplemente compartía información entre ellos, la nueva red, que algunos asocian con la "internet del futuro", también comparte capacidad de proceso y de almacenamiento. En septiembre de 2006, la EGEE Grid financiada por la Unión Europea estaba formada por más de 200 centros y conectaba más de 20.000 computadoras repartidas por el globo.

Por consiguiente, a diferencia de las parrillas de acero corrugado que arman el hormigón, o de las redes que se emplean para pescar, internet dota de un gran protagonismo a sus nodos. No debemos olvidar que un buen número de ellos se dedican exclusivamente a regular el tráfico y la confidencialidad de los paquetes de datos que transitan por sus líneas cableadas e inalámbricas: encaminadores, pasarelas, conmutadores, cortafuegos, cifradores, traductores, repetidores, moduladores, emisoras, captadores, centralitas digitales…

grid-poles_cloud

Líneas y postes de electricidad (cc einarfour, Flickr)

Bien, vale, quizá resulte que los cables de cobre, los de fibra óptica, los pulsos lumínicos, las ondas electromagnéticas, los transductores y acopladores, las claves de señales, los protocolos de transmisión, los algoritmos de cifrado… son menos importantes que los nudos de cómputo que también conforman la trama de internet. Será que éstos deben de ser los elementos clave de las redes aplicadas a las TIC. Será que los vocablos de nuestro pasado sociotécnico —que se refieren a las conexiones y espacios vacíos entre líneas más que a los nodos materiales donde se cruzan— deberán de adaptar su significado para poder reflejar lo importante en las nuevas TIC. ¿Y a mí qué?, podría preguntarme.

Pues resulta que considero importante no perder de vista que no hay redes de ordenadores sin conexiones y comunicaciones. Las unidades de almacenamiento y procesamiento de datos servirán de poco si formamos islas de información accesibles sólo desde "ventanillas" dentro del perímetro delimitado por una especie de foso de aislamiento infestado de cocodrilos, o por una profunda zanja cortafuegos o contra asaltadores del tesoro de la información. Sería como si los aeropuertos fueran hubs & spokes completamente aislados, sin aeronaves que los conectaran, o como si las estaciones o terminales de tren no tuvieran redes ferroviarias que las enlazaran. 

La lógica del tamaño del hueco de una red que permite no atrapar al "pezqueñín" es una cuestión básica para el sostenimiento de la vida marina. El lenguaje humano —nuestros protocolos de comunicación—, también es clave para nuestro desarrollo, como enseñan la experiencia y la biolingüística.

internet-mapping_mit

Representación de la periferia del 'universo on-line' (Lanet-vi program of I. Alvarez-Hamelin et al. - MIT Technology Review)

Sin comunicación no habría grupos de personas, ni tribus, ni aglomeraciones urbanas, ni sociedades, ni culturas, ni Civilización Humana (en singular). La nanotecnología, la física cuántica, la genética molecular, la neurociencia… van descubriendo nuevas estructuras dentro de órganos que antes se estudiaban en niveles superiores. Siguiendo "hacia arriba", ¿qué nos depararán las nuevas redes de ordenadores como el Grid del CERN, o la extensión de una computación en la nube que hoy lastran algunos armados de mitos interesados que montan alrededor de la seguridad, disponibilidad, integración, dependencia…?

Para terminar quiero anotar el desencadenante inmediato para escribir esta entrada en el cuaderno, y así poder recordarlo. Tenía rondando por mi cabeza varias ideas sobre "espacios vacíos", grids, datos en la nube, islas de información, protecciones culturales y lenguajes de comunicación cuando leí un artículo sobre Ray Ozzie en Wired. Se extiende sobre su actual papel en Microsoft como Chief Software Architect, para lo que se remonta a los orígenes de su posición a favor de la computación en la nube y, por consiguiente, fuera del firewall. Al final del mismo se dice:

«To Ozzie, software's soul does not lie in the accumulation of features. Instead, it lies in his dream of connectivity. "Live Mesh is very Ray," Mitch Kapor [Lotus founder] says. "It's the son of Groove, which is the son of Notes." Which was, of course, the son of Ozzie's beloved Plato [an early interactive system to connect people]. Thirty-three years later, Ozzie is still trying to build on what he saw in sophomore year. But it's no longer the Ray Ozzie vision. It's Microsoft's.» [negrita del editor]

Interesante, ¿no?

Entradas relacionadas: Conmutación a la nube, El «espacio blanco» de la televisión, Sistemas operativos en la web

Suscribirse en un lector a este cuaderno. El servicio co.mments permite seguir los eventuales comentarios por correo electrónico.

Posted in computación, web | Etiquetado: , , , , , , , | Leave a Comment »

El software de la nube

Posted by josempelaez en Viernes, 15 agosto 2008

El procesamiento de datos en paralelo tiene más de 40 años de historia. Que ahora se haga con los estándares de software de internet y se etiquete con «cloud computing» no le hace algo novedoso.

El comentario que hice en Infoman el sábado pretendía relativizar un eventual mensaje excesivamente cauteloso y general que hubiera podido dejar flotando. A pesar de su consejo de probar, podría pensarse que la «cloud computing» es algo a lo que acercarse con más precaución de la habitual. Dice que «como todas las modas, hay que esperar». Rodolfo añade que:

«la realidad de los servicios informáticos se descubre una vez ha pasado la primera ola de promesas y se pueden contar los éxitos y fracasos».

Yo lo veo de otra forma. No creo que la oferta de Amazon de «computación en la nube» (web) sea una “primera ola”. Por ello me puse a escribir el lunes. Quería analizar qué es lo realmente nuevo. Sigamos.

vax_clusterEl buen funcionamiento comercial de varios ordenadores trabajando conjuntamente en una red se remonta a 1984. Este año DEC sacó su “VAXcluster” con VMS. Estos sistemas se orientaban a procesos críticos de negocio. Varias máquinas trabajaban de forma conjunta ofreciendo más prestaciones y recursos redundantes. Respondieron muy bien, y lo siguen haciendo bajo la marca HP.

La ingeniería de los primeros procesos en paralelo con varios ordenadores, no obstante, se remonta a 1967. Se necesitaba distribuir trabajos de proceso y compartir archivos entre ordenadores. No debemos olvidar que internet y varias redes de ordenadores Unix —conectadas mediante el protocolo de conmutación de paquetes TCP/IP— se desarrollaron en los 70.

Podemos decir que Sun Microsystems ofrecía una proto «internet computing» en 1983. Según expone John Gage en el vínculo de la entrada previa, pronto emplearon el lema: «la red es la computadora». Usaban TCP/IP para interconectar sus máquinas, que utilizaban una variante del BSD Unix (Solaris).

Las redes de área local proliferan a partir de finales de los 80 para integrar los micro ordenadores en la informática corporativa. Implican otro espaldarazo a la computación distribuida. La arquitectura cliente/servidor reparte las tareas de proceso entre distintas máquinas especializadas (datos, cálculo, presentación).

En los segundos 90 se habla ya de «grid computing» para referirse a redes de ordenadores menos acoplados que en los clusters anteriores. Un distingo relevante era que los equipos no tenían que ser homogéneos. La metáfora hace referencia a la semejanza entre esta infraestructura de computación y «The Grid». Éste es el apelativo que el sistema de generación y distribución eléctrica recibe en los EE.UU.

seti_at_homeNo hay que olvidar otros hitos de la “computación en red”: en 1999 nacieron SETI@home y Napster. Junto a otras propuestas, permitían la colaboración entre PCs. Ello supuso un hito significativo en el establecimiento y difusión de las redes P2P (peer-to-peer) para compartir archivos y procesar información en paralelo.

Por consiguiente, podemos afirmar que hay muchas cosas probadas que “funcionan en la nube” desde hace años, aunque haya habido innovaciones. ¿Qué diferencia real hay entre el «cloud computing» de ahora y el «parallel processing» de hace 40 años?

La necesidad de proceso distribuido surge cuando un ordenador se queda corto para resolver un problema de cálculo, o de disponibilidad del sistema. Si una línea de telecomunicaciones conecta un terminal remoto con un ordenador central también puede unir dos o más ordenadores. Se pueden mandar bloques de programa, datos para ser tratados en paralelo y resultados de los procesos. Es una cuestión de programación modular, y de coordinación de los bloques de trabajo que se separan e integran para hacerlo.

Diseño modular, programación orientada a objetos, desarrollo basado en componentes, cohesión y acoplamiento, middleware, servicios web, arquitectura orientada a servicios… son la traslación de enfoques probados en la ingeniería civil o industrial a la construcción de software. Creo que los avances en los métodos y herramientas de desarrollo de programas, y su progresiva orientación a componentes encapsulados interoperables, son los que han permitido evolucionar un planteamiento antiguo.

Por un lado tenemos las aplicaciones construídas con módulos débilmente acoplados, que se pueden reusar, cambiar o reemplazar de manera gradual con menor riesgo. Éstos también permiten concebirlas para que sean ejecutadas en varios hilos de proceso paralelo. Por otro están las «máquinas virtuales» y herramientas evolucionadas de los sistemas operativos. Permiten ejecutar los procesos en varias equipos heterogéneos de manera simultánea, incluso si las aplicaciones que corren por encima no se diseñaron para ello.

system_network_mgmt¿Cómo pueden interconectarse fácilmente estos nuevos programas de mayor o menor nivel? Los protocolos, lenguajes y esquemas estandarizados por la difusión de internet han aportado una solución al problema. Las redes corporativas de transmisión de datos que conectaban los equipos de AT&T, IBM y DEC eran las tres mayores del mundo a primeros de los 80, pero no se entendían bien. Cada una se gestionaba con un protocolo de comunicaciones diferente que dificultaba los intercambios de datos entre redes. Internet fue cambiando paulatinamente este panorama, que aún se alteró más rápidamente con la expansión de la aplicaciones de la web estándar a partir de 1995.

En mi opinión, lo único que pudiera haber de nuevo en la «cloud computing» actual es el software específico de “paralelización” o de aplicación que se esté utilizando. Los conceptos están probados desde hace mucho tiempo y, en muchos casos, se usan herramientas probadas o de código abierto.

Ahora bien, como en toda implementación de un nuevo sistema de arquitectura testeada, hay unos ciclos de maduración del software que se pueden ejecutar mejor o peor. Además, puede avanzarse en fases muy largas (como en las versiones de Windows), o en etapas temporales cortas e incrementales de menor riesgo (como en los servicios de Google).

Cuando empezó con las subastas, Amazon tuvo que cambiar la plataforma típica de las “puntocom” (servidores de datos y de aplicaciones) para afrontar los nuevos retos y resolver los serios problemas que ya tenía. Tras haber probado con un mainframe, acertó con una arquitectura distribuida centrada en La Red.

A Bezos le gusta decir que, en el fondo, Amazon es una empresa de software. Han ido desarrollando sus aplicaciones y utilidades desde que empezaron. En el caso de «la nube de Amazon», por tanto, mi pregunta sería: ¿podemos confiar en el trabajo hecho por sus desarrolladores? ¿Qué han demostrado en los años que llevan explotando sus AWS y, en particular, S3 y EC2? ¿Existen en el mercado mejores alternativas a su oferta actual?

En nuevas entradas continuaré con estas reflexiones y trataré de abordar las cuestiones pendientes de las precedentes.


[Imagen 1: Esquema VAX-Alpha cluster. HP ]
[Foto 2: La unión hace la superfuerza. rmundaca]
[Imagen 3: Comunicaciones digitales. Human Productivity Lab]

Entradas relacionadas: Red como computadora, La nube de Amazon.

Posted in computación | Etiquetado: , , , , , | 2 Comments »

Red como computadora

Posted by josempelaez en Miércoles, 13 agosto 2008

La «cloud computing» ha estado precedida por muchos años de informática distribuida operando en redes de ordenadores. El planteamiento de «utility computing» se va haciendo más viable, aunque quepan interrogantes.

El lunes escribí sobre los orígenes de la metáfora «cloud computing» y su empleo por Amazon. Mi curiosidad se despertó al preguntarme por las cautelas que llevan a muchas personas a ir más allá de lo obvio al probar algo nuevo. Una cuestión que me resulta pertinente es: ¿hasta dónde es algo nuevo?

distributed_computingQuizá lo de «computar en la nube» (es decir, en internet o, más específicamente, en la web) pueda no tener mucho tiempo de vida, aunque internet comenzara su andadura en 1969 y la web en 1993 (aunque se concibieran antes). Sin embargo, hay información de muchos años de experiencias procesando datos en redes de ordenadores buscando fiabilidad, flexibilidad y economía. Remontémonos hacia el pasado para ver hasta dónde.

Unos cinco años atrás, algunos grandes fabricantes de ordenadores (IBM, HP, Sun…) comenzaron a hablar de «computing on-demand». Sin embargo, hasta 2002-03, sólo hablaban de la posibilidad contractual de ir ampliando sus ordenadores con unos costes y tiempos de respuesta predecibles («capacity on-demand»).

Por esta “flexibilidad escalar de un sentido” se pagaba una prima en la adquisición del hardware. Para lograrla se instalaban sistemas sobredimensionados donde se preveía la adición de componentes partiendo de una monitorización del sistema, análisis de capacidad e inventarios de piezas. En ocasiones, el equipo los tenía ya preinstalados, y se activaban al ejercer la opción de ampliación previamente adquirida.

En el caso precedente se trataba de ordenadores potentes y fiables, pero no de redes que ofrecieran prestaciones y características similares a menor coste. Aunque los grandes fabricantes comenzaran a promover su «on-demand computing» hace 3-5 años, la comunidad TIC no pudo hacer uso de ello hasta que se ofertó «La nube de Amazon».

server_farmSi nos remontamos más atrás, en los 90 y finales de los 80 teníamos «granjas de servidores» y «computación distribuida» en el mundo Unix de «sistemas abiertos»: interoperables, portables y escalables. En estos años, la capacidad de proceso de los mini ordenadores y estaciones de trabajo se combinaba empleando redes de área local (LAN) y amplia (WAN). De esta forma, podían lograrse potencias competitivas con las de los más costosos mainframes y ordenadores de «multi proceso simétrico».

Este enfoque de trabajo en red combina máquinas estándar que, siendo capaces de trabajar aisladamente, también pueden hacerlo como un todo interconectadas adecuadamente («parallel processing», «grid computing»). Este planteamiento ha ido evolucionando técnicamente desde que John Gage, uno de los fundadores Sun Microsystems en 1982, acuñara dos o tres años más tarde su aforismo «la red es la computadora». Con él explicaba el valor añadido de sus nuevas workstations de ingeniería unidas mediante redes Ethernet.

Años antes, algunos fabricantes de mini ordenadores (Digital Equipment Corp., Tandem Computers, Stratus Computer…) habían desarrollado esquemas propietarios de trabajo en red en sus sistemas operativos para ofrecer tolerancia a fallos orientada a «sistemas de misión crítica».

La evolución de las capacidades escalables de proceso compartido y distribución de la información dio pie a que se empezara a hablar de «utility computing». Esta expresión se refiere a la posibilidad de usar la computación como otros servicios típicos de red: agua, electricidad, gas, transporte, correos, telecomunicaciones…, donde se paga según el consumo que se hace (“pay-as-you-go, pay-by-the-drink, pay-per-use”).

Este enfoque había sido ya planteado conceptualmente por John McCarthy en 1961 a propósito del time-sharing en los mainframes. Los service bureaus de los 60 y 70 lo emplearon para procesar de forma compartida los datos de muchas empresas comerciales que no tenían otra opción económica. La situación no empezó a cambiar hasta que la empresa de Ken Olsen y sus emuladores comenzaron a comercializar con éxito los mini computers fuera de los mercados científico-técnicos y universitarios.

the-gridEl planteamiento de uso compartido ha ido adaptándose hasta hoy. Sin embargo, el desarrollo tecnológico del proceso y transmisión de datos, además del empresarial, no permitieron empezar a concretar una oferta masiva tipo utility hasta el cambio de siglo, cuando aparecieron las primeras propuestas de los Application Service Providers. Aun así, éstas se hicieron en malas condiciones al emplear software no diseñado para ello, pero ésta es materia para otro momento.

Nick Carr, uno de los más conocidos y seguidos defensores de este enfoque de servicios, levantó una difundida polémica con su artículo «IT Doesn't Matter de mayo de 2003. En él desmitificó el valor competitivo de las infraestructuras TIC empresariales al considerarlas un factor de producción poco diferenciable que se terminará por adquirir fuera y pagar por uso, con cuota por derecho de acceso o sin ella.

Jeff Bezos, otro de los notables defensores del «utility computing», no teme que sus Amazon Web Services se conviertan en algo indiferenciable (commodity) tras la entrada de competidores: Google, IBM, Salesforce.com, EMC, Sun, Microsoft… Sostiene que ellos están acostumbrados a competir en estas condiciones ya que conocen bien el comercio minorista, negocio sin márgenes del 35-40% típicos de los tecnológicos.

fail-whale_gmailA pesar de los avances, el panorama no está despejado. Salesforce.com ha causado varios problemas en los últimos años a las empresas que sirve con su infraestructura y aplicación de CRM. El servicio S3 de Amazon para almacenamiento sufrió un incidente que duró siete horas causando impacto en varios clientes en julio. El lunes no se pudo acceder al correo web de Google durante un par de horas.

Tras este repaso, varias de las cuestiones finales del lunes siguen estando abiertas, y podríamos formular más. ¿Podrán aprender estos nuevos proveedores a gestionar su infraestructura informática de manera tan fiable como se requiera? ¿Cuánto van a impactar sus problemas de nivel de servicio en la adopción de su propuesta comercial? Si pensamos en las empresas grandes ¿deben de seguir acudiendo a los outsourcers informáticos tradicionales (IBM, EDS, CSC, Accenture…) para poder externalizar sus sistemas críticos de negocio?

En la próxima entrada trataré de continuar con mi reflexión sobre la fiabilidad y oportunidades de adopción de la «cloud computing».


[Imagen 1: Diagrama computación distribuida. BACIT]
[Foto 2: Granja de servidores. sean dreilinger]
[Foto 3: Red distribución eléctrica. Focht]
[Imagen 4: Símbolo ficticio de incidencia Twitter-Gmail. ronin691]

Entradas relacionadas: La nube de Amazon.

Posted in computación | Etiquetado: , , , , , | 2 Comments »

Computadoras sin margen

Posted by josempelaez en Viernes, 1 agosto 2008

El pasado 21 de julio, el New York Times publicaba un artículo titulado «Smaller PCs Cause Worry for Industry». Su autor, Matt Richtel, decía:

«The personal computer industry is poised to sell tens of millions of small, energy-efficient Internet-centric devices. Curiously, some of the biggest companies in the business consider this bad news. […] computer companies are wary of the new breed of computers because their low price could threaten PC makers’ already thin profit margins. The new computers, often called netbooks, have scant onboard memory. They use energy-sipping computer chips. They are intended largely for surfing Web sites and checking e-mail. The price is small too, with some selling for as little as $300.»

mid_intelLuego escribe que algunos analistas del sector opinan que los grandes fabricantes (Microsoft, Intel, H.P., Dell…) pueden verse amenzados por esta nueva clase de equipos de bajo coste centrados en el procesamiento en la red (cloud computing). Razonan que estas compañías se han construído sobre la base de que los consumidores iban a seguir demandado cada vez más potencia y funciones en sus nuevos ordenadores.

Algunos fabricantes, cogidos por sorpresa, decidieron entrar en el mercado “creado” por el primer Eee PC de ASUS con la esperanza de que esta categoría no prosperase mucho. Otros, como Fujitsu, dijeron que no lo iban a hacer (creo que no lo han cumplido). Todos los establecidos consideran muy peligrosa esta tendencia hacia un PC de bajo coste ya que, aunque vendieran muchos, no añadirían nada a sus márgenes de beneficio.

Sin embargo, Intel proyecta un mercado de 40 millones de netbooks anuales en 2011. Hablan de MID para los equipos con Wi-Fi/WiMAX tratando de que el consumidor distinga entre estas máquinas y los “verdaderos PCs”, que también recomiendan usar (y comprar). Un directivo de H.P. opinaba que el consumidor iba a querer más que un terminal móvil de internet. Otro de Dell creía que esta categoría tendría poca demanda. Consideraba que podría servir para un aeropuerto o un trayecto en tren o autobús, pero no para una experiencia más intensa de uso del ordenador.

Hasta aquí mi largo refrito del NYT. Me ha suscitado varias cosas.

Por un lado he recordado cuando Larry Ellison, en 1995, anunció el network computer (NC), equipo cliente con memoria local y CPU, pero sin disco. Las aplicaciones y datos se descargaban desde un servidor, tratando así de recrear las ventajas de mantenibilidad y seguridad del viejo mainframe y sus dumb terminals. Microsoft e Intel reaccionaron con su NetPC y lograron controlar el progreso comercial de estos thin clients.

Sun Microsystems, uno de cuyos fundadores acuñó la frase «the network is the computer», lo volvió a intentar en 1999 reemplazando su NC (JavaStation) por la Sun Ray. Este equipo, que sigue disponible hoy día para Solaris y Linux, no descarga las aplicaciones localmente. Se ocupa básicamente de la conectividad y presentación.

windows_vista_scoreEn los últimos trece años ha ido cambiando el panorama que determinó el poco éxito de los NCs. Las telecomunicaciones cableadas e inalámbricas, los centros de proceso de datos, la infraestructura de internet y la participación en la web de hoy son muy diferentes. Son más adaptables y accesibles (usables y económicas). Además, la evolución en los thick clients presupuesta por los grandes fabricantes ha topado con un mojón significativo: la discutible experiencia del lanzamiento de Vista al mercado.

Por otro lado, hay que tener en cuenta que, en la oficina o en casa, muchos usuarios de los ordenadores no trabajan ya de forma estática en una mesa. Leen y responden su correo, consultan la web, redactan documentos o cumplimentan formularios de datos cuando están “fuera de su sitio” (¿es que, acaso, hay un lugar en el mundo para cada uno?).

Muchos otros tipos de trabajo, como la edición de fotos digitales o el bosquejo de páginas web, también pueden hacerse usando un navegador normal (FotoFlexer, Picnik, Pencil). Por tanto, ya no es tan claro que haya que seguir aconsejando a los consumidores que adquieran PCs más potentes que los de la generación anterior. Parece que el mercado mira más ahora el coste de adquisición y de uso (energía, movilidad). ¿Será por la crisis? ¿Quizá es que hemos aprendido a pagar sólo por lo realmente útil?

Los nuevos chips que mueven estos UMPC (por ahora, básicamente, Intel Atom / Celeron y VIA Nano) ofrecen unas prestaciones más que suficientes para muchas actividades. Microsoft ha tenido que prolongar la vida de Windows XP para que siga gobernando este tipo de equipos y poder defender así su cuota de mercado frente a la competencia de Linux.

Dentro de pocos meses habrá una gran oferta de estos equipos en el mercado. Tendremos fabricantes poco conocidos compitiendo contra las marcas más conocidas. Algunos de los menos nombrados y caros contarán con el apoyo comercial de las operadoras de telecomunicaciones. Éstas tratarán de promover un mayor consumo de sus servicios de datos móviles potenciando el empleo de los nuevos terminales.

atm_graffiti¿Conseguirán los grandes fabricantes occidentales detener la creciente expansión de estos “resucitados” network computers para no seguir sufriendo un deterioro de márgenes? ¿Habrá margen para que los usuarios se beneficien de la innovación y la competencia entre fabricantes?

¿Hasta dónde podrán las grandes marcas seguir defendiendo unas políticas de precios altos y discriminatorios, como Apple?

¿Se seguirá argumentando que es mejor guardar nuestra información en casa que en los “bancos de datos” de la red?

¿Causarán los productorees de los nuevos low cost PCs que los grandes tengan unos resultados comerciales similares a los que están sufriendo algunos fabricantes occidentales de equipos de telecomunicaciones, como Alcatel-Lucent?

Respecto de la utilidad y futuro de los netbooks, yo no abrazaría las opiniones de los citados por el NYT. Como recomendaba hace poco Consultor Anónimo: «nunca confíes en el asesoramiento de quien tiene algo que ganar o que perder en función del consejo que te da».

Lo que más me ha gustado del artículo del NYT, aunque no esté escrito allí, es que este movimento “inesperado” del mercado comenzó como una reacción comercial al proyecto del OLPC promovido por Nicholas Negroponte (“$100 per laptop”), y que Intel ha tenido mucho que ver en ella.


[Foto 1: Mobile Internet Device de Intel. Engadget]
[Imagen 2: Puntuación del Acer Ferrari laptop con Vista. Laughing Squid]
[Foto 3: Cajero bancario en pared con graffiti. Flickr, ohad]

Posted in negocio | Etiquetado: , , , , , | 5 Comments »

 
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.