Red como computadora

La «cloud computing» ha estado precedida por muchos años de informática distribuida operando en redes de ordenadores. El planteamiento de «utility computing» se va haciendo más viable, aunque quepan interrogantes.

El lunes escribí sobre los orígenes de la metáfora «cloud computing» y su empleo por Amazon. Mi curiosidad se despertó al preguntarme por las cautelas que llevan a muchas personas a ir más allá de lo obvio al probar algo nuevo. Una cuestión que me resulta pertinente es: ¿hasta dónde es algo nuevo?

distributed_computingQuizá lo de «computar en la nube» (es decir, en internet o, más específicamente, en la web) pueda no tener mucho tiempo de vida, aunque internet comenzara su andadura en 1969 y la web en 1993 (aunque se concibieran antes). Sin embargo, hay información de muchos años de experiencias procesando datos en redes de ordenadores buscando fiabilidad, flexibilidad y economía. Remontémonos hacia el pasado para ver hasta dónde.

Unos cinco años atrás, algunos grandes fabricantes de ordenadores (IBM, HP, Sun…) comenzaron a hablar de «computing on-demand». Sin embargo, hasta 2002-03, sólo hablaban de la posibilidad contractual de ir ampliando sus ordenadores con unos costes y tiempos de respuesta predecibles («capacity on-demand»).

Por esta “flexibilidad escalar de un sentido” se pagaba una prima en la adquisición del hardware. Para lograrla se instalaban sistemas sobredimensionados donde se preveía la adición de componentes partiendo de una monitorización del sistema, análisis de capacidad e inventarios de piezas. En ocasiones, el equipo los tenía ya preinstalados, y se activaban al ejercer la opción de ampliación previamente adquirida.

En el caso precedente se trataba de ordenadores potentes y fiables, pero no de redes que ofrecieran prestaciones y características similares a menor coste. Aunque los grandes fabricantes comenzaran a promover su «on-demand computing» hace 3-5 años, la comunidad TIC no pudo hacer uso de ello hasta que se ofertó «La nube de Amazon».

server_farmSi nos remontamos más atrás, en los 90 y finales de los 80 teníamos «granjas de servidores» y «computación distribuida» en el mundo Unix de «sistemas abiertos»: interoperables, portables y escalables. En estos años, la capacidad de proceso de los mini ordenadores y estaciones de trabajo se combinaba empleando redes de área local (LAN) y amplia (WAN). De esta forma, podían lograrse potencias competitivas con las de los más costosos mainframes y ordenadores de «multi proceso simétrico».

Este enfoque de trabajo en red combina máquinas estándar que, siendo capaces de trabajar aisladamente, también pueden hacerlo como un todo interconectadas adecuadamente («parallel processing», «grid computing»). Este planteamiento ha ido evolucionando técnicamente desde que John Gage, uno de los fundadores Sun Microsystems en 1982, acuñara dos o tres años más tarde su aforismo «la red es la computadora». Con él explicaba el valor añadido de sus nuevas workstations de ingeniería unidas mediante redes Ethernet.

Años antes, algunos fabricantes de mini ordenadores (Digital Equipment Corp., Tandem Computers, Stratus Computer…) habían desarrollado esquemas propietarios de trabajo en red en sus sistemas operativos para ofrecer tolerancia a fallos orientada a «sistemas de misión crítica».

La evolución de las capacidades escalables de proceso compartido y distribución de la información dio pie a que se empezara a hablar de «utility computing». Esta expresión se refiere a la posibilidad de usar la computación como otros servicios típicos de red: agua, electricidad, gas, transporte, correos, telecomunicaciones…, donde se paga según el consumo que se hace (“pay-as-you-go, pay-by-the-drink, pay-per-use”).

Este enfoque había sido ya planteado conceptualmente por John McCarthy en 1961 a propósito del time-sharing en los mainframes. Los service bureaus de los 60 y 70 lo emplearon para procesar de forma compartida los datos de muchas empresas comerciales que no tenían otra opción económica. La situación no empezó a cambiar hasta que la empresa de Ken Olsen y sus emuladores comenzaron a comercializar con éxito los mini computers fuera de los mercados científico-técnicos y universitarios.

the-gridEl planteamiento de uso compartido ha ido adaptándose hasta hoy. Sin embargo, el desarrollo tecnológico del proceso y transmisión de datos, además del empresarial, no permitieron empezar a concretar una oferta masiva tipo utility hasta el cambio de siglo, cuando aparecieron las primeras propuestas de los Application Service Providers. Aun así, éstas se hicieron en malas condiciones al emplear software no diseñado para ello, pero ésta es materia para otro momento.

Nick Carr, uno de los más conocidos y seguidos defensores de este enfoque de servicios, levantó una difundida polémica con su artículo «IT Doesn’t Matter de mayo de 2003. En él desmitificó el valor competitivo de las infraestructuras TIC empresariales al considerarlas un factor de producción poco diferenciable que se terminará por adquirir fuera y pagar por uso, con cuota por derecho de acceso o sin ella.

Jeff Bezos, otro de los notables defensores del «utility computing», no teme que sus Amazon Web Services se conviertan en algo indiferenciable (commodity) tras la entrada de competidores: Google, IBM, Salesforce.com, EMC, Sun, Microsoft… Sostiene que ellos están acostumbrados a competir en estas condiciones ya que conocen bien el comercio minorista, negocio sin márgenes del 35-40% típicos de los tecnológicos.

fail-whale_gmailA pesar de los avances, el panorama no está despejado. Salesforce.com ha causado varios problemas en los últimos años a las empresas que sirve con su infraestructura y aplicación de CRM. El servicio S3 de Amazon para almacenamiento sufrió un incidente que duró siete horas causando impacto en varios clientes en julio. El lunes no se pudo acceder al correo web de Google durante un par de horas.

Tras este repaso, varias de las cuestiones finales del lunes siguen estando abiertas, y podríamos formular más. ¿Podrán aprender estos nuevos proveedores a gestionar su infraestructura informática de manera tan fiable como se requiera? ¿Cuánto van a impactar sus problemas de nivel de servicio en la adopción de su propuesta comercial? Si pensamos en las empresas grandes ¿deben de seguir acudiendo a los outsourcers informáticos tradicionales (IBM, EDS, CSC, Accenture…) para poder externalizar sus sistemas críticos de negocio?

En la próxima entrada trataré de continuar con mi reflexión sobre la fiabilidad y oportunidades de adopción de la «cloud computing».


[Imagen 1: Diagrama computación distribuida. BACIT]
[Foto 2: Granja de servidores. sean dreilinger]
[Foto 3: Red distribución eléctrica. Focht]
[Imagen 4: Símbolo ficticio de incidencia Twitter-Gmail. ronin691]

Entradas relacionadas: La nube de Amazon.

3 comentarios en “Red como computadora

  1. Fantastico blog, muy facil de leer y facil
    de entender. Yo estoy con un proyecto mas sencillo

Deja un comentario

search previous next tag category expand menu location phone mail time cart zoom edit close