Blog de JoseMPelaez

Aprendimiento: aprender del entorno con atrevimiento

Archive for 28 agosto 2008

Buscador de fallos

Posted by josempelaez en Jueves, 28 agosto 2008

El crítico ocurrente y deslenguado también debe aportar datos y motivos para sustentar lo que dice, aunque sea emprendedor y escriba en The Register. La controversia de este apunte gira alrededor de los servicios para cloud computing de Amazon y Google.

El lunes pasado, cuando un tuiteo de tic616 me dio el queo, leí lo publicado por The Register (TR) sobre «Cloud computing: A catchphrase in puberty». Entre otras cosas pone que:

«You can come up with any CTO-friendlyname you like, but they all mean the same shit: Renting your quickly depreciating physical assets out because your software company is out of ideas for computer programs.
Amazon’s EC2 was likely the brainchild of a mid-level ops director who overbought for a data center and had to come up with a way to save his own ass. […]
A Cloud Is Easier To Draw On A Whiteboard Than A Grid
.
EC2 is very popular with the Web 2.0 crowd, which is strange, considering the hurdles that these Javascript all-stars need to overcome.
»

ted_dziubaTed Dziuba, el redactor de estas opiniones, es un matemático nacido en la costa este de los EE UU (Connecticut) en 1984 que, tras graduarse en 2006, trabajó en Google como desarrollador web en su intranet hasta que se aburrió al cabo de un año. En julio de 2007 fundó Persai con dos compañeros del Instituto Tecnológico de Rochester que habían montado el proyecto RadRails mientras trabajaban en IBM Rational. Para desarrollar un primera versión de un agregador de feeds personalizable contaron con el apoyo de los ángeles inversores que aportaron 35.000 $ hasta final de enero.

Ted también escribe sobre software desde la costa oeste (Frisco East Bay). Es donde se codea con “los que se sientan al otro lado de la bahía”, y donde algún editor de TechCrunch se “enganchaba” con él.

Su proyecto despertó cierto escepticismo cuando sacaron el “nuevo” servicio en beta a final de enero. Dos meses después, el proyecto parecía no marchar bien.

Su startup, de la que es el CTO, “renació” el 17 de julio de 2008 como Pressflip. Oficialmente se trató del lanzamiento público. Antes presentaban su sitio como un lugar donde ir a mirar lo que se publicaba en la web. En vez de utilizar un “filtro manual”, como Digg o Menéame, lo hacían “a máquina” con su software. Ahora ofrecen un motor de búsqueda persistente capaz de aprender para rastrear la web en busca de artículos con los que responder a la pregunta: “¿en qué estás interesado?”

A diferencia de la respuesta a lo que plantea Twitter, que te lleva a una cierta relación, aquí se trata de decirle al motor lo que quieres que te busque. Afirman que, como lo han dotado de inteligencia artificial, sus algoritmos van aprendiendo según vas respondiendo si te parece bien lo que te presenta. Sustituyen la red social que te “descubre” información interesante por una automatización del proceso.

ted_dziuba-persai

Persai is the company created by Matt Kent, Ted Dziuba, and Kyle Shank, who are perhaps better known as the guys behind Uncov, the recently shuttered blog known for its harsh, and profanity laced, criticisms of Silicon Valley companies. (Wired 080129)

A pesar de que Ted opine que Mike Arrington contemporiza con las startups, éste no valoró bien los resultados de su producto al referirse a su “planchazo” hace cinco semanas. Aprovechó para recordar que resultaba más difícil el hacer que el criticar a los que habían bajado a la arena. Resulta que Ted editó el blog Uncov en 2007 en paralelo con sus comienzos empresariales hasta muy poco antes de anunciar la beta, y que los tres colegas eran conocidos entonces por sus observaciones “trituradoras” sobre proyectos de la web 2.0. Ello les deparó ciertos epítetos e implicó algunas consecuencias (además de notoriedad para su nueva empresa y de lo que esperaba de TechCrunch).

Tras lo escrito en TR, veo que el mozo sigue sin afeitarse los pelos de la lengua. Continua aireando sus opiniones con un gracejo groserillo, cosa que muchos no hacen porque no saben, no se atreven o, sencillamente, les parece impertinente. Es una lástima que no aporte más datos o razones para que, aparte de entretenernos y servir de pasto para comentarios, pueda sostener más persuasivamente sus puntos de vista. Me llama la atención que no lo haga dados sus aprendizajes formales en Rochester, o empíricos en Google, aunque sólo “aguantara” un año.

Ted debe de valorarse como un buen técnico y crítico perspicaz, a la vez que aprecia incompetencia en muchos desarrolladores. Como consecuencia, metió puyazos sobre los fallos de los que consideraban la web 2.0 como una oportunidad para desarrollar un “sitio molón” al que atraer usuarios y dinero de algunos inversores, como en las “puntocom”. Él dice valorar la tecnología, y opina que Ajax no aporta nada relevante dado que todo su código está ya programado en las bibliotecas [“librerías” para los informáticos].

mike_arrington-techcrunchPues mire usted, joven, que diría mi abuelo. Comparto su opinión sobre que hay que aportar algo, pero debe valorar más que los mercados son agnósticos respecto de la novedad técnica, a diferencia de los políticos que dicen apoyar la innovación tecnológica para seguir el rollo de la Agenda de Lisboa. Es más, aquéllos suelen ser ateos, como usted sabe. Prefieren lo que está bien probado, resulta estable y resuelve alguna necesidad. Los clientes y usuarios aprecian y usan lo que les simplifica la vida y sus relaciones (Microsoft, Google, Amazon…), o lo que les hace sentirse diferentes sin complicaciones (Apple, BlackBerry…).

En fin, espero que Ted pueda explicarnos mejor algún día qué tiene en contra del marketing, de la «cloud computing», o de Amazon, de quien ha sido cliente, según cuenta. Quizá se precipitara al contratar su hosting “en la nube” esperando algo que todavía no ofrecían. Como poco, no creo que lleve ninguna razón cuando arremete contra sus responsables del CPD y del soporte.

Por un lado, menosprecia al equipo de Werner Vogels, que entró en enero de 2005 para montar los AWS de infraestructura (entre otras cosas). Por otro, recuerdo que antes habían migrado del enfoque back/front al grid para poder ir escalando de manera flexible. ¿A qué “sobrante” de capacidad se refiere? ¿Acaso intenta culparles de que su proyecto no sea rentable porque le cobran unos servicios hardware que deberían de regalarle por “tener de sobra”, según él?

werner_vogels-amazonSi miramos los perfiles profesionales de Werner y Ted veremos que son incomparables, aunque ambos sean CTOs. Quien haya tenido responsabilidades de explotación sobre una infraestructura telemática sabe que el buen funcionamiento de los servicios desencadena muchos quebraderos de cabeza. Aunque sólo emplee tecnología básica, cualquiera que te ayude a cumplir los objetivos de manera fiable se valora como una bendición, ya sea un vulgar comerciante o un ex empleador. ¿Que aún no llegan sus nubes al nivel celestial requerido para ciertas cosas? Pues habrá que seguir esperando mientras se trabaja “en las minas” de los CPDs internos.

Creo que el nuevo cuento sobre vendedores de picos y palas (Cisco/Nortel – Sun/IBM – Accenture/PwC – Amazon/Google) que nos ha largado este “aprendiz” de columnista crítico-sátiro no llega ni al rango de boutade. Espero que siga aprendiendo y balancee mejor sus dedicaciones al análisis, periodismo, tecnología y empresa. No descarto que tenga cierta razón tras lo que expresa en TR. Muchos sabemos cómo se funciona en las empresas grandes, pero también conocemos las expectativas de los clientes pequeños. En cualquier caso, no me ha parecido convincente según lo ha contado. En otra entrada volveré sobre este asunto.

Ahora bien, quizá lo que esté ocurriendo es que los editores británicos de TR pretendan recrear los chismes del Valleymag de Gawker para hacer “cloud fight” en vez de “food fight”. No me parece que sea un camino acertado para desarrollar profesionalmente una comunidad TIC.


[Foto 1: Ted Dziuba. Wired]
[Foto 2: Equipo de Persai. Wired]
[Foto 3: Mike Arrington. chesh2000]
[Foto 4: Werner Vogels. Mr Noded]

Entradas relacionadas: Confianza en la nube, Servicios externos, El software de la nube, Red como computadora, La nube de Amazon.

Actualización: Nick Carr, en Machine Head, a propósito de los gustos musicales de Werner, dice que «yeah, you bet your ass I’d entrust my mission-critical data and apps to this guy».

Posted in computación, emprendedor | Etiquetado: , , , , , , , , , | Leave a Comment »

Información accidentada

Posted by josempelaez en Lunes, 25 agosto 2008

La catástrofe aérea de Barajas muestra que debemos mejorar la forma de reaccionar ante un desastre desde los planos informativo y organizativo. También ha dado ocasión para que algunos intentaran aprovechar el aluvión mediático en defensa de sus intereses particulares.

«Je suis désolé» es una de las pocas expresiones que recuerdo del francés aprendido en la enseñanza secundaria de los 60. Después de haberlo sentido mucho, la aflicción, el desconsuelo, la tristeza… que me afectaron inicialmente —tras el reciente desastre aéreo en el aeropuerto de Barajas— han ido migrando hacia el desconcierto, la contrariedad, el disgusto… por mi percepción de lo que estuvo sucediendo luego.

avion_spanair

Imagen de archivo del avión de Spanair siniestrado. (Foto: AFP)

Nos sigue quedando mucho por aprender. Opino que el tratamiento que damos a la información en este tipo de sucesos es malo, francamente malo. Directivos, periodistas, políticos, trabajadores, ciudadanos…, todos hemos de preguntarnos sobre lo que debiera mejorarse en circunstancias de esa naturaleza.

¿Está establecido que los familiares y amigos de las víctimas de un accidente aéreo sólo puedan confirmar los pasajeros mediante una llamada del transportista? ¿Cómo se va a evitar que reciban informaciones imprecisas a través de los que cuentan lo que creen saber o haber visto u oído? ¿Por qué no se publican inmediatamente los datos contrastados que se van teniendo sobre los hechos?

En el caso del avión de Spanair en Madrid, la lista de pasajeros embarcados, el historial de operación y mantenimiento del aparato estrellado, la grabación de AENA del despegue, el número y distribución de heridos en los hospitales… eran informaciones tratables informáticamente. En contra de lo que hicieron algunos, considero que debieran haberse ofrecido a todos los involucrados al cabo de muy poco tiempo. No pueden escudarse en la posibilidad de errores. ¿A quiénes preguntaron o qué hicieron para verificar la lista del pasaje publicada pasadas varias horas? El siniestro no ocurrió en un país poco desarrollado, ni en un lugar remoto o aislado de la geografía española.

Me parece que son demasiados los que consideran que los directivos, técnicos o autoridades (de las empresas u organismos involucrados) que no están en la comisión de investigación tienen más capacidad para entender lo ocurrido y analizar los datos de un accidente que los demás interesados. Por consiguiente, según esos, la mayoría no tenemos por qué conocer las informaciones de partida ni las hipótesis causales, sino sólo las conclusiones, pero para éstas hay que esperar muchos meses.

No obstante, nadie va a evitar que los humanos emitamos opiniones y juicios, y que éstos, aparte de que puedan ser precipitados, se apoyen en suposiciones. La carencia de datos veraces y claros sólo provocará que especulemos más y peor. Por tanto, algunas de las conjeturas, hipótesis, deducciones o valoraciones hechas con datos cuestionables no serán más que estupideces, o intentos burdos de manipular la opinión pública si hay intereses espurios, como creo que ha habido en algún caso.

¿Por qué los directivos no informaron inicialmente con más claridad sobre la causa del retraso en el primer intento de despegue? Habiendo tanta regulación, ¿por qué no hay mejores límites a la discrecionalidad con la que actúan las compañías aéreas, autoridades aeroportuarias y comandantes de vuelo cuando “secuestran a los viajeros” una vez facturados los equipajes, traspasados los controles y efectuados los embarques?

accidente_aereo_cd080823ePor otra parte, en este caso, creo que los periodistas han estado por debajo del nivel exigible en demasiadas ocasiones. ¿Quién manda a los que, micrófono y cámara en mano, tratan de obtener imágenes morbosas o declaraciones emocionales y acusadoras de los más afectados? ¿Dónde han aprendido a hurgar en la herida y formular preguntas propias de gilís? ¿Cómo se titulan las noticias para extractar sin errores el cuerpo de la información? ¿Para qué lanzan cuestiones al aire en vez de buscar a los que saben las respuestas? ¿No deberían contrastar mejor sus informaciones?

Si miramos a los jefes de los “informadores”, no creo que encontremos un panorama mejor. ¿Por qué algunos decidieron presentar opiniones parciales como parte de un análisis de causas del accidente? ¿A quién pretenden imputar la culpa algunos editores con pocos escrúpulos? ¿Por qué dan rango de información a cualquier majadería que diga un afectado, por mucho que lo esté? ¿Cuál es la noticia: el dolor, la impotencia, el deseo de venganza o la supuesta responsabilidad de alguien?

Tras la catástrofe del Prestige, ¿quién es el jefe partidista que ahora osa no personarse en el lugar de una tragedia para decir «esta boca es mía»? ¿A santo de qué viene enzarzarse en “batallitas” irrelevantes sobre quién fue el primero en activar el plan de emergencia en Madrid? ¿Por qué unos políticos técnicamente ignorantes revelan los comentarios privados de otros que saben menos de aeronáutica que muchos miles de ciudadanos? ¿Qué pretenden examinar los parlamentarios en paralelo con la comisión de investigación? ¿Es que van a revisar las prioridades de gasto en los presupuestos o abroncar a una ministra por un retraso de ejecución que no hubiera impedido nada?

Me sorprendió la rapidez con la que salieron a la palestra televisiva los sindicatos de técnicos de mantenimiento y pilotos de aeronaves a dar sus versiones y opiniones sobre lo que estaba sucediendo. Según ellos, ambas categorías de trabajadores no tienen que decidir nada en este tipo de circunstancias. Dicen que todo lo que hacen está determinado por unos procedimientos escritos. Me parece que esos portavoces no mostraron mucha vergüenza al sostener esa postura. También me parece que no fueron buenos profesionales quienes les preguntaron cuando trataron de hacernos creer que los afiliados a sus gremios no son responsables de nada en relación con el mantenimiento y vuelo de los aviones (¿sólo siguen instrucciones de manual?).

spanair_protesta

Manifestación, en agosto, de los trabajadores de Spanair contra el ERE y por la falta de personal. (Foto: J. Avelló)

Me ha parecido torticero el proceder del SEPLA con sus comunicados relativos a las circunstancias empresariales de Spanair y las negociaciones laborales en curso. ¿Es que sólo los directivos representan a su empresa? La patronal ha tenido que replicar. Si los pilotos de verdad creyeran que las operaciones estaban sufriendo por la crisis de la empresa, ¿por qué retiraron la última proclama de su web al conocer el accidente pocas horas después de haberla difundido? ¿Qué dudas querían sembrar para negociar mejor cuando lo más sensato era sostener que una tripulación no se juega la vida si estima que hay algo que va mal?

Los mayoría de los humanos siente la pérdida de vidas, tanto en accidentes de escaso interés mediático como en catástrofes concentradas en el espacio y el tiempo. En momentos de emociones intensas, ya sean individuales o colectivas, a veces expresamos nuestros sentimientos con palabras que no resistirían un mínimo análisis racional, pero que nos resultan muy útiles para poder continuar la vida. Nuestros problemas pueden comenzar cuando alguien las usa para otros fines, o cuando nos empeñamos en buscar una causa, origen, responsable, acusado, culpable… para cobrarnos un precio por lo sucedido.

¿Quién decidió que viviésemos nosotros y no el hermano que no nació porque nuestra madre abortó accidentalmente? ¿Por qué ha de ser más asumible la muerte por enfermedad que en un incendio? La vida está llena de accidentes. Todos alteran el orden regular de las cosas (según nuestro insignificante punto de vista). Unos son menos fortuitos y más predecibles que otros, pero todos tienen efectos inalterables. El riesgo es inevitable. Lo que podemos hacer, como seres racionales, es tratar de identificar las circunstancias que rodearon lo sucedido para poder prevenir su repetición si condujeron a algo desagradable o doloroso.

Descansen en paz los muertos. Encontremos consuelo para vivir los que moriremos más adelante y, mientras llega ese momento, intentemos dejar información precisa, puntual y plena a nuestros descendientes, algo que nuestra técnica y cultura permiten sobradamente.


[Foto 1: Avión MD-82. AFP]
[Imagen 2: Titular erróneo (rectificado parcialmente: no en la foto). Cinco Días]
[Foto 3: Protesta de trabajadores. El Mundo]

Entradas relacionadas: —

Posted in gestión | Etiquetado: , , , , , | 3 Comments »

Confianza en la nube

Posted by josempelaez en Jueves, 21 agosto 2008

Las empresas que han sacado partido de la plataforma web para montar sus nuevos negocios están ofreciendo sus servidores y aplicaciones como servicio en internet (nube). Frente a las opciones tradicionales, su gestión industrializada ofrece unas ventajas de inmediatez, flexibilidad, coste y fiabilidad que muchas empresas están aprovechando al confiar en ellas.

Las reflexiones previas sobre los servicios externos y la moda de la «computación en la nube» me condujo a repasar lo que ocurrió en la segunda mitad de los 90 con la infraestructura. En esa época es cuando la web se extendió y ofreció una plataforma tecnológica estándar y universal.

dot-com_companiesNacieron empresas como Yahoo!, Amazon, eBay, The Street, Expedia, Hotmail, Google, Netflix…, que la aprovecharon para llegar a los mercados de otra manera y proponer servicios innovadores. No estamos hablando sólo de usar internet para mejorar la investigación, como hacían las universidades, o para “digitalizar” los negocios existentes, como proponían los consultores (e-business). Los entrantes lanzaron nuevos negocios o transformaron disruptivamente los existentes, para lo que desarrollaron herramientas y montaron aplicaciones sobre la tecnología de la web.

Al amparo de los primeros éxitos de las llamadas «empresas de internet», muchas consultoras, inversores y empresas tradicionales quisieron participar también. Para ello promovieron muchas startups. Trataron de alterar el statu quo de los negocios existentes proponiendo cambiar las relaciones a través de sus plataformas digitales.

Aparecieron servicios de provisión de aplicaciones y de gestión de infraestructura (ASP, MSP), portales de acceso a la información, revistas digitales, mercados electrónicos para transacciones (e-marketplaces, B2B exchanges), tiendas virtuales, agencias de viajes, banca en línea… Una mayoría de estas iniciativas fracasaron. No encontraron mercados donde obtener ingresos con los que pagar sus altos costes.

Uno de sus problemas fue que las plantearon de la forma tradicional. Adquirieron las infraestructuras, aplicaciones y adaptaciones a los proveedores y outsourcers tradicionales. También confiaron en los gastos de marketing para generar una demanda en busca de valor para ellos, pero no tanto para sus usuarios o clientes. El tiempo corría, los gastos crecían, los clientes no aumentaban, el capital se agotaba y los cierres se encadenaban. En 2001 vivimos el final de la moda de las “puntocom”.

autonomous-computingEn 2002 empezó a notarse el “ruido” de las campañas de los fabricantes de ordenadores sobre «utility computing», «e-business on-demand», «autonomic computing», «adaptive enterprise»… Parece que necesitaban software con el que ofrecer computación flexible sobre sus redes de ordenadores, y empezaron a anunciarlo. Los analistas trataban de separar la realidad del marketing de los grandes fabricantes y outsourcers a la hora de gestionar “elásticamente” el proceso de datos.

Al poco cambió el punto de mira de los medios. Los servicios web comenzaron a adquirir protagonismo. ¿Es la «computación en la nube» tan sólo una moda promovida, en este caso, por las «empresas de internet»?

No lo creo. Ni Google ni Amazon gastan mucho dinero en campañas de comunicación. Cuando lo hacen, sus objetivos suelen ser otros. Prefieren lanzar nuevos servicios para que sus clientes los prueben y, si les gustan, los recomienden.

Amazon sigue sorprendiendo porque lleva más de doce años en la web con una trayectoria ascendente. Está marcando una diferencia con los otros dos grandes pioneros, Yahoo! y eBay, al brindar uno de los casos más destacados de la «cloud computing».

Google, Amazon, Salesforce, Yahoo… van abriendo a sus clientes el uso de sus plataformas, desarrolladas para sus servicios. Tienen bastantes años de experiencia en la explotación de sus infraestructuras respectivas. Operan con unos costes mucho menores, y sospecho que brindan unos niveles de servicio mejores que los ofrecidos por los outsourcers (no tengo datos para comparar). Además, los prestan en condiciones muy poco favorables para ello: con cambios constantes. No debemos olvidar que las capacidades necesarias para gestionar procesos industriales son distintas de las que demandan los servicios a medida.

intel_virtualizationPara haber logrado esto han empleado varios elementos distintivos. Uno ha sido el uso de máquinas estándar y herramientas de código abierto. Otro el consolidar servidores para ahorrar espacio y energía en sus centros de proceso de datos. También han utilizado software para automatizar los procesos de gestión de sistemas y aplicaciones, ya fuera distribuyéndolos entre varios ordenadores o alojando varias «máquinas virtuales» en un servidor físico. Han debido de industrializar muchas tareas empleando herramientas de terceros y propias, como compañías abiertas que se declaran.

Hay que considerar que, en 1998, resurgió la virtualización de máquinas con VMware para extraer más rendimiento a los servidores infrautilizados. Un software de este tipo, que antes sólo se usaba en los mainframes, permite correr varios entornos de proceso en servidores básicos, máquinas que ya disponen de prestaciones significativas. Otra herramienta de virtualización muy popular al ser de código abierto es la del proyecto Xen. Su compañía promotora fue adquirida por Citrix en 2007. Es la empleada por el AWS EC2.

Amazon tiene 80 millones de clientes que usan satisfactoriamente el software que ofrecen en la “nube”. La enorme mayoría son particulares y pequeñas empresas, pero también hay corporaciones que confían en sus niveles de servicio: Target, Marks & Spencer, Mothercare, The New York Times, Nasdaq OMX…

jeff-bezosOfrece sus AWS de infraestructura para que sus clientes ejecuten sus aplicaciones sobre ella (más de 300.000 desarrolladores). ¿Será porque, sin hablar del precio, su utilidad (rendimiento, seguridad, disponibilidad, interconexión, flexibilidad…) compara muy bien con la lograda on premise y la ofrecida por los servicios externos tradicionales?

Hay prescriptores que recomiendan probar la nube con precaución y, al igual que refieren sus ventajas, alertan sobre los inconvenientes o riesgos que deben considerarse. No obstante, me parece que no dicen nada que no se haya tenido que tratar antes con los proveedores externos y empleados internos: seguridad, respaldo, regulaciones, niveles de servicio, terminación…

Internet se ha convertido en una herramienta para los negocios muy potente. Personalmente creo que la futura competitividad de las empresas pasa por confiar en las nubes gestionadas de manera industrial por profesionales. Ello permite asegurar el cumplimiento de los requerimientos exigibles. Las empresas que no adopten los nuevos planteamientos se quedarán en la edad de piedra digital.

En mi opinión, los dos criterios más importantes a evaluar para poder confiar en la nube serán que las aplicaciones se hayan diseñado para ser robustas, y que exista siempre la posibilidad de migrar a otro servicio alternativo.


[Ilustración 1: Pioneros de internet. David Simonds]
[Ilustración 2: Gartner Hype Cycle for Server Technologies? 2002. ZDNet Korea]
[Ilustración 3: Esquema de virtualización Intel Itanium. ZDNet Asia]
[Foto 4: Jeff Bezos. Wired]

Entradas relacionadas: Servicios externos, El software de la nube, Red como computadora, La nube de Amazon.

Actualización: Amazon EBS – Elastic Block Store has launched

Posted in computación | Etiquetado: , , , , , | 2 Comments »

Servicios externos

Posted by josempelaez en Lunes, 18 agosto 2008

Creo que la moda de la «computación en la nube» es el resultado de una doble evolución. Por un lado la de los servicios externos de gestión de sistemas informáticos. Por otro la de internet como plataforma de computación.

Intentando seguir el hilo de la nota previa he querido pensar sobre la fiabilidad del trabajo de la gente de Amazon en su “nube”. ¿Qué puedo emplear para comparar? Creo que, en realidad, el riesgo está acotado ya que han aplicado conceptos probados usando, eso sí, herramientas y desarrollos nuevos de software.

Entonces, si se basa en cosas existentes, ¿por qué se ha puesto tan de moda la «cloud computing» como si fuera algo novedoso? Después de todo, los programas informáticos se cambian cada día, y se lanzan muchos nuevos cada poco. ¿Podría ser que ahora las cosas se hagan de manera más industrializada y resulten más sencillas de abordar en la práctica que antes?

cloud_computing¿Serán las facilidades y apertura de Amazon, Google y otras «empresas de internet» las que han provocado que la “nube” sea ya un tema destacado en algunas cumbres tecnológicas de los EE.UU.? [Por cierto, recomiendo leer este artículo excelente.] ¿Por qué ahora se refieren a ella tan a menudo revistas de negocios tan prestigiosas como Business Week o The Economist? ¿Será porque cada vez tiene más sentido computar empleando servicios externos gestionados por especialistas que los ofrezcan de forma accesible, con garantías suficientes y a precios competitivos?

Para algunas empresas grandes, esto último lo han ofrecido los outsourcers informáticos desde hace tiempo, especialmente desde los 80. Incluso antes podemos encontrar los trabajos tipo «service bureau» de finales de los 50. Ofertaban proceso de datos a «tiempo compartido» empleando mainframes, aunque sólo fuera porque no había otra opción (los primeros ordenadores no estaban al alcance de las empresas).

En la segunda mitad de los 60 (IBM S/360), los mainframes se estandarizaron y redujeron sus precios. Los mini y micro ordenadores se difundieron en los 70 y 80. Tras ello, muchas organizaciones armaron sus propios sistemas informáticos para ganar libertad, pero tuvieron que explotarlos lidiando con una complejidad creciente. Para afrontar esos retos y resolver los problemas derivados, los clientes acudieron generalmente al soporte y consultoría de los técnicos de los fabricantes de ordenadores (IBM, Unisys, NCR, Bull, DEC, HP, Sun…).

Los 70 introdujeron más competencia al sector informático al desacoplar legalmente el hardware y software de los sistemas. Muchas terceras empresas, nacidas antes para recomendar soluciones de proceso y proveer servicios de software (AA, CSC, EDS, CG…), potenciaron su crecimiento incorporando a su cartera la gestión de sistemas y redes.

VAX 11/780En los 80, muchas corporaciones acudieron a estas empresas especializadas para mejorar resultados, reducir y flexibilizar costes, liberar capital y proporcionar mejor formación y carreras profesionales a sus técnicos. En esta década se empezó a popularizar la expresión «outsourcing informático» para referirse a la contratación externa de estos servicios e infraestructuras de sistemas.

Por consiguiente, hace muchos años que las empresas acuden a servicios externos para gestionar sus sistemas de información. 50 años atrás no disponían de otras opciones, pero luego sí. De ello puede deducirse que el cumplimiento de los requerimientos de prestaciones (velocidad, volumen), seguridad (integridad, privacidad), disponibilidad (fiabilidad, mantenibilidad), integrabilidad (interoperabilidad) y cumplimiento de la regulación no exige que la computación se haga internamente.

El buen proceso de datos es independiente del negocio al que se aplica, aunque éste pueda demandar mayores dosis de un requerimiento que de otro. El proveedor externo especializado que disponga de economías de escala, y de conocimiento acumulado por su trabajo de explotación para muchas organizaciones, siempre tiene ventajas potenciales respecto de un grupo de empleados. En el fondo es como si todos los departamentos internos, incluyendo los de empresas competidoras, colaborasen para mejorar de forma contínua sus procedimientos técnicos a través de un tercero.

¿Por qué un trabajador con contrato laboral va a desempeñar su tarea mejor que un proveedor con contrato mercantil? ¿Qué razones técnicas puede haber para que un departamento de sistemas corporativo pueda hacer la mejor gestión posible de su informática y telecomunicaciones?

outsourcingMuchas empresas no encontraron buenas respuestas a estas preguntas y se sumaron en los 90 a la “externalización” de su gestión de sistemas al hilo del BPR. No obstante, aunque la teoría es muy convincente, la práctica no se ha correspondido en muchas ocasiones con ella. Aunque los precios eran competitivos, y las garantías contractuales suficientes sobre el papel, este tipo de outsourcing ha tenido una aplicación efectiva muy limitada.

Lo que ha sucedido en la realidad es que la gestión compartida de recursos es muy compleja y, si los centros son grandes, se complica más que linealmente. Además, los cambios tecnológicos y de negocio son constantes (invalidando las “garantías”), y muchos proveedores tratan de maximizar sus beneficios a corto plazo. Todo ello se ha traducido en dificultades y sobrecostes para los clientes en bastantes ocasiones. Muchas empresas han visto defraudadas sus expectativas. En este marco, la mayor sintonía entre las cambiantes necesidades de sus usuarios y los departamentos internos ha dado una gran ventaja a éstos en muchas situaciones. ¿Va a ser siempre así, o es que el modelo de «servicio externo» aplicado era incorrecto?

En este escenario llegó la gran difusión de internet con la web. Ya sabemos que no ha sido una moda que vaya a desaparecer, aunque haya ido evolucionando y ahora se hable de la «web programable», «plataforma web», «web 2.0», colaboración, combinación, participación… Se propone algo, se usa, experimenta, extiende, consolida, innova…, y vuelta a empezar otro ciclo. Cuando los primeros navegadores permitieron usar internet para más aplicaciones que las de comunicaciones (transferencia de archivos, foros de discusión, correo electrónico) no se sabía bien qué iba a pasar, aunque algunos intuyeran que su empleo comercial sería algo positivo y enorme.

love_internet¿Qué motivo primario pudo haberse dado para ello? Creo que fue su gran capacidad para integrar dinámicamente todas las máquinas de proceso de datos (mainframes, mini/ micro/ personal/ network/ mobile computers, handheld/ workabout terminals, smart communicators, data/ application/ presentation servers, routers, bridges, switches, network appliances, network attached storage, firewalls, load balancers…) y modelos de computación desarrollados previamente (time sharing, parallel processing, virtual machines, distributed/ cluster/ grid/ autonomic/ pervasive/ ubiquitous/ utility/ cloud computing, client-server/ service oriented architecture…).

Sus estándares y lenguajes abiertos, y la neutralidad de la red, aportaron nuevas e inimaginables dosis de flexibilidad, libertad, creatividad, competitividad… Esto es mucho más que un «servicio externo», y no hay un proveedor único que “garantice” el buen funcionamiento de internet. ¿Servirán de orientación los faros de Amazon, Google, Yahoo, Salesforce… en estas nuevas singladuras?

Sabemos que los particulartes, startups y pymes han comenzado a abrazar el uso de estos «servicios externos». Como pasaba en los 50, no tienen mejores opciones, especialmente si lo que buscan es usar una buena aplicación (funcionalidad, rendimiento, seguridad…) sin preocuparse de la infraestructura técnica que haya debajo. Ahora bien, ¿podrán los departamentos internos de las empresas medianas y grandes confiar en la “nube” para ciertas cosas y progresar en sus usos? Veremos…, pero yo lo tengo claro.


[Ilustración 1: PC movido por la “nube”. Business Week]
[Foto 2: Mini ordenador DEC VAX 11/780. RICM]
[Ilustración 3: Viñeta humor. re-ality]
[Ilustración 4: Pegatina. billjon]

Entradas relacionadas: El software de la nube, Red como computadora, La nube de Amazon.

Posted in computación | Etiquetado: , , , , , | 2 Comments »

El software de la nube

Posted by josempelaez en Viernes, 15 agosto 2008

El procesamiento de datos en paralelo tiene más de 40 años de historia. Que ahora se haga con los estándares de software de internet y se etiquete con «cloud computing» no le hace algo novedoso.

El comentario que hice en Infoman el sábado pretendía relativizar un eventual mensaje excesivamente cauteloso y general que hubiera podido dejar flotando. A pesar de su consejo de probar, podría pensarse que la «cloud computing» es algo a lo que acercarse con más precaución de la habitual. Dice que «como todas las modas, hay que esperar». Rodolfo añade que:

«la realidad de los servicios informáticos se descubre una vez ha pasado la primera ola de promesas y se pueden contar los éxitos y fracasos».

Yo lo veo de otra forma. No creo que la oferta de Amazon de «computación en la nube» (web) sea una “primera ola”. Por ello me puse a escribir el lunes. Quería analizar qué es lo realmente nuevo. Sigamos.

vax_clusterEl buen funcionamiento comercial de varios ordenadores trabajando conjuntamente en una red se remonta a 1984. Este año DEC sacó su “VAXcluster” con VMS. Estos sistemas se orientaban a procesos críticos de negocio. Varias máquinas trabajaban de forma conjunta ofreciendo más prestaciones y recursos redundantes. Respondieron muy bien, y lo siguen haciendo bajo la marca HP.

La ingeniería de los primeros procesos en paralelo con varios ordenadores, no obstante, se remonta a 1967. Se necesitaba distribuir trabajos de proceso y compartir archivos entre ordenadores. No debemos olvidar que internet y varias redes de ordenadores Unix —conectadas mediante el protocolo de conmutación de paquetes TCP/IP— se desarrollaron en los 70.

Podemos decir que Sun Microsystems ofrecía una proto «internet computing» en 1983. Según expone John Gage en el vínculo de la entrada previa, pronto emplearon el lema: «la red es la computadora». Usaban TCP/IP para interconectar sus máquinas, que utilizaban una variante del BSD Unix (Solaris).

Las redes de área local proliferan a partir de finales de los 80 para integrar los micro ordenadores en la informática corporativa. Implican otro espaldarazo a la computación distribuida. La arquitectura cliente/servidor reparte las tareas de proceso entre distintas máquinas especializadas (datos, cálculo, presentación).

En los segundos 90 se habla ya de «grid computing» para referirse a redes de ordenadores menos acoplados que en los clusters anteriores. Un distingo relevante era que los equipos no tenían que ser homogéneos. La metáfora hace referencia a la semejanza entre esta infraestructura de computación y «The Grid». Éste es el apelativo que el sistema de generación y distribución eléctrica recibe en los EE.UU.

seti_at_homeNo hay que olvidar otros hitos de la “computación en red”: en 1999 nacieron SETI@home y Napster. Junto a otras propuestas, permitían la colaboración entre PCs. Ello supuso un hito significativo en el establecimiento y difusión de las redes P2P (peer-to-peer) para compartir archivos y procesar información en paralelo.

Por consiguiente, podemos afirmar que hay muchas cosas probadas que “funcionan en la nube” desde hace años, aunque haya habido innovaciones. ¿Qué diferencia real hay entre el «cloud computing» de ahora y el «parallel processing» de hace 40 años?

La necesidad de proceso distribuido surge cuando un ordenador se queda corto para resolver un problema de cálculo, o de disponibilidad del sistema. Si una línea de telecomunicaciones conecta un terminal remoto con un ordenador central también puede unir dos o más ordenadores. Se pueden mandar bloques de programa, datos para ser tratados en paralelo y resultados de los procesos. Es una cuestión de programación modular, y de coordinación de los bloques de trabajo que se separan e integran para hacerlo.

Diseño modular, programación orientada a objetos, desarrollo basado en componentes, cohesión y acoplamiento, middleware, servicios web, arquitectura orientada a servicios… son la traslación de enfoques probados en la ingeniería civil o industrial a la construcción de software. Creo que los avances en los métodos y herramientas de desarrollo de programas, y su progresiva orientación a componentes encapsulados interoperables, son los que han permitido evolucionar un planteamiento antiguo.

Por un lado tenemos las aplicaciones construídas con módulos débilmente acoplados, que se pueden reusar, cambiar o reemplazar de manera gradual con menor riesgo. Éstos también permiten concebirlas para que sean ejecutadas en varios hilos de proceso paralelo. Por otro están las «máquinas virtuales» y herramientas evolucionadas de los sistemas operativos. Permiten ejecutar los procesos en varias equipos heterogéneos de manera simultánea, incluso si las aplicaciones que corren por encima no se diseñaron para ello.

system_network_mgmt¿Cómo pueden interconectarse fácilmente estos nuevos programas de mayor o menor nivel? Los protocolos, lenguajes y esquemas estandarizados por la difusión de internet han aportado una solución al problema. Las redes corporativas de transmisión de datos que conectaban los equipos de AT&T, IBM y DEC eran las tres mayores del mundo a primeros de los 80, pero no se entendían bien. Cada una se gestionaba con un protocolo de comunicaciones diferente que dificultaba los intercambios de datos entre redes. Internet fue cambiando paulatinamente este panorama, que aún se alteró más rápidamente con la expansión de la aplicaciones de la web estándar a partir de 1995.

En mi opinión, lo único que pudiera haber de nuevo en la «cloud computing» actual es el software específico de “paralelización” o de aplicación que se esté utilizando. Los conceptos están probados desde hace mucho tiempo y, en muchos casos, se usan herramientas probadas o de código abierto.

Ahora bien, como en toda implementación de un nuevo sistema de arquitectura testeada, hay unos ciclos de maduración del software que se pueden ejecutar mejor o peor. Además, puede avanzarse en fases muy largas (como en las versiones de Windows), o en etapas temporales cortas e incrementales de menor riesgo (como en los servicios de Google).

Cuando empezó con las subastas, Amazon tuvo que cambiar la plataforma típica de las “puntocom” (servidores de datos y de aplicaciones) para afrontar los nuevos retos y resolver los serios problemas que ya tenía. Tras haber probado con un mainframe, acertó con una arquitectura distribuida centrada en La Red.

A Bezos le gusta decir que, en el fondo, Amazon es una empresa de software. Han ido desarrollando sus aplicaciones y utilidades desde que empezaron. En el caso de «la nube de Amazon», por tanto, mi pregunta sería: ¿podemos confiar en el trabajo hecho por sus desarrolladores? ¿Qué han demostrado en los años que llevan explotando sus AWS y, en particular, S3 y EC2? ¿Existen en el mercado mejores alternativas a su oferta actual?

En nuevas entradas continuaré con estas reflexiones y trataré de abordar las cuestiones pendientes de las precedentes.


[Imagen 1: Esquema VAX-Alpha cluster. HP ]
[Foto 2: La unión hace la superfuerza. rmundaca]
[Imagen 3: Comunicaciones digitales. Human Productivity Lab]

Entradas relacionadas: Red como computadora, La nube de Amazon.

Posted in computación | Etiquetado: , , , , , | 2 Comments »