Blog de JoseMPelaez

Aprendimiento: aprender del entorno con atrevimiento

Posts Tagged ‘computación’

Navegar hacia las nubes de datos

Posted by josempelaez en Jueves, 5 marzo 2009

El reciente nombramiento de un director de sistemas de información en el nuevo gobierno estadounidense me permite relacionar otra vez el software y la política. Los criterios que han impulsado la mejora y el acceso a los datos también conducen a potenciar el uso de aplicaciones web que saquen partido de la «computación en la nube». Este enfoque puede trasladarse fácilmente a otros terrenos donde deben cooperar diversas entidades, como el de las «cadenas de suministros».

cartel-publicitario_derribado-viento

Cartel derribado por viento. Madrid (©ÁlvaroGarcía, El País 090305)

El temporal ha arreciado y el viento se ha mantenido soplando fuerte y constante por España en estos días. Además, las tasas de desempleo han seguido subiendo, los tipos de interés han continuado bajando y los juegos de los políticos, aunque hayan rolado, no han amainado demasiado. Parece que quedaron atrás los rompientes de los lances cinegéticos, de las filtraciones periodísticas, de las contiendas electorales…, pero ahora tenemos delante los bajíos de los coches gallegos, de los espías madrileños, de los golpes vascos

Todavía quedan cargas en mi tintero para escribir sobre varios aspectos que considero paradójicos en relación con la situación social que nos afecta, y mucho. Sin embargo, voy a dirigirme a otras aguas menos borrascosas y provocadoras de naúseas. Trataré de mantener el rumbo emprendido después de la virada en mi última navegación web a bordo de este cuaderno de bitácora. Resulta que, cada vez que intento adentrarme en los mares de la economía y la gobernanza española, termina surgiendo en mi mente la sensación de deslizarme por terrenos casi ignotos por irracionales. Navegando por zonas donde prevalece un oleaje de intereses creados y respuestas viscerales, se termina levantando mi temor a un naufragio tenebroso.

En mi entrada previa puse rumbo hacia la participación ciudadana y el desarrollo de software al traducir la mayor parte de un artículo donde se lee que «we need to create open innovation platforms for citizens to create solutions for themselves». Uno de sus enlaces apuntaba al concurso Apps for Democracy, en cuya organización había participado la agencia digital del redactor del texto. Hoy he recordado esta iniciativa al conocer el nombramiento de otro de sus promotores como nuevo CIO del gobierno estadounidense

Vivek Kundra, que hasta ahora era el CTO del Distrito de Columbia (Washington DC), fue premiado por el MIT Sloan CIO Symposium en 2008 como un innovador en el uso de las tecnologías de información. Ha sido uno de los tecnólogos que ha contribuido a los planes de acción del gobierno federal. Como anécdotas ilustrativas cabe reseñar que es usuario de Twitter y que ha promovido el empleo de las aplicaciones web de Google entre los funcionarios de WDC como alternativa a la suite de Microsoft Office que tenían.

Vivek Kundra escuchando (cc David Clow, Flickr 080725)

Vivek Kundra (34 años) escuchando (cc David Clow, Flickr 080725)

Entre las políticas implantadas está la de emplear tecnología ya disponible comercialmente —en vez de encargar desarrollos específicos a los proveedores habituales en este tipo de adjudicaciones—. Para lo que deseo anotar hoy aquí, me interesa subrayar también el criterio de gestión de potenciar la transparencia y la participación ciudadana eliminando barreras para acceder y compartir la información. [Vamos, algo distinto de lo que pasó ayer con el uso de Twitter en la Asamblea de Madrid, por ejemplo.]

En la línea de fomentar la participación, el concurso de aplicaciones referido ha recibido 47 propuestas para ser votadas por los futuros usuarios, es decir, por los ciudadanos. Una de las condiciones era la de usar los datos que se publican para favorecer los desarrollos web de mash-ups empleando técnicas estándar y ágiles. Con esta iniciativa también se perseguía el superar las anticuadas y toscas herramientas de ofimática que aún lastran la productividad de las personas y grupos en muchas organizaciones públicas y privadas.

La facilitación del acceso a las bases públicas de datos me ha recordado la disponibilidad de los Amazon Public Datasets. Se anunció poco después de una conversación que tuve con el autor de Nubeblog sobre el futuro de la captura y explotación de datos en La Nube. En ese encuentro comenté con Diego Parrilla —que hoy promueve la tecnología de Abiquo— las posibilidades y ventajas de las nubes públicas frente a las privadas. Las primeras permiten la explotación de los datos que son de interés para muchas personas y organizaciones, o que son susceptibles de tipos distintos de aprovechamiento. 

tienda-ropa

Tienda de ropa variada (Phil's Stock World Favorites, 080611)

Para ilustrar mi postura usé ejemplos de las «cadenas de suministros» para el aprovisionamiento (supply chains), algo que yo prefiero llamar «redes de abastecimiento» de la demanda (demand networks). Por ello también he recordado mi enfoque tras leer ayer un artículo de AMR Research sobre «Categorizing Content in the Supply Chain». Trata de los desafíos que plantea la gestión de los distintos tipos de datos (“contenidos”) que se manejan en las supply chains, de los que algunos han de ser necesariamente compartidos por distintos motivos. Uno de los casos que menciona es el de los efectos de las terapias sanitarias, situación que en España resulta de actualidad ante el caso de unas vacunas contra el cáncer de útero.

El análisis de datos agregados puede aportar un gran valor, aunque resulta escaso cuando se limita al plano individual. El contenido y precio de un carro de compra semanal de una familia aporta cierta información, pero no es comparable con la del análisis de todas las compras de esa familia durante un largo periodo de tiempo. Tampoco lo es con el valor que pueden obtener los comerciantes capaces de procesar adecuadamente los datos agregados de consumo por artículos y clientes en toda clase de segmentos zonales y temporales.

Podemos encontrar otros ejemplos ya también clásicos en los actuales servicios disponibles en la web para muchos usuarios que comparten información por encima de la plataforma, como el recién lanzado Likaholix. Sin embargo, los ejemplos más antiguos y lucrativos provienen del sector financiero —pionero y usuario intensivo de los ordenadores—, como exponía IC en «el front running, la madre de todos los negocios».

Todo esto me lleva a pensar en otra idea, pero ya la compartiré en la entrada siguiente.

Entradas de este cuaderno con alguna relación: ¿Jugamos a la política o desarrollamos algo?, Captura de datos en la nube, Conmutación a la nube.

Suscribirse a las entradas de este cuaderno mediante un lector.

Posted in software | Etiquetado: , , , , , | Leave a Comment »

Nudos entre comunicaciones

Posted by josempelaez en Miércoles, 26 noviembre 2008

Las redes de ordenadores siguen incrementando su protagonismo en la sociedad y culturas actuales. A sus usos en proyectos científicos y aplicaciones técnicas con presencia en los medios de comunicación hay que añadir el empleo extensivo de internet para diseminar mensajes de forma distribuida. Las innovaciones en la conectividad entre unidades de procesamiento de información permitirán avances que pocos pueden intuir, pero algunos sí que los ven, y la «tercera cultura» ayudará en su difusión.

grid-light

Grid para una luz fluorescente (cc RobertFrancis, Flickr)

Hace tres semanas me hice eco de la noticia de que el regulador estadounidense había aprobado la asignación del «espacio blanco» del espectro radioeléctrico —las frecuencias que quedaban libres al cambiar a la TV digital—. Ello me parece relevante porque va a facilitar el despliegue del acceso a internet mediante otra “banda ancha sin cables”. Algunos le denominan una “Wi-Fi con esteroides” ya que tendrá una mayor capacidad que la actual, y que las redes celulares 3G que el empleo de los nuevos terminales tipo iPhone están saturando.

Bueno, en realidad, hablar sólo de acceso es poco veraz. Internet es una red y, como tal, está formada por enlaces o líneas, además de por los nudos o conexiones entre ellos que, en sentido estricto, serían tan sólo sus intersecciones o puntos de cruce. Por consiguiente, los canales de comunicación de este espacio “liberado” serán una parte importante de internet, que el DRAE define como: «Red informática mundial, descentralizada, formada por la conexión directa entre computadoras u ordenadores mediante un protocolo especial de comunicación.» 

Malla, parrilla, enrejado, celosía, trama, cuadrícula, tamiz… son vocablos relacionados con red que, en unos casos, enfatizan los hilos, líneas o canales de unión, mientras que en otros resaltan los huecos que se forman entre ellos. Ahora bien, curiosa y extrañamente, los nudos o nodos parecen carecer de interés en todas sus acepciones. Como pocos saben de su papel crucial en muchos tipos de estructuras para una distribución correcta de cargas, me resulta una paradoja su reducido protagonismo semántico ya que esos puntos fueron los protagonistas iniciales de internet, que nació para conectar ordenadores heterogéneos formando una red de topología distribuida. Por cierto, que los exploradores de la Sociedad de las Indias Electrónicas han explicado las diferencias entre descentralizado y distribuido a estos efectos, distingo que no han hecho los miembros de la Real Academia Española en su diccionario de la lengua.

cern_eege-grid

Algunos nodos del EGEE (datos del Imperial College London sobre Google Earth)

Cuando miro las imágenes que usé para ilustrar las dos anotaciones de hace veinte días en que me referí al proyecto del CERN «LHC Computing Grid», observo que todas ellas  ponen más de relieve los nodos que las líneas de conexión. Si miro al otro proyecto grid computing del CERN, el de infraestructura «Enabling Grids for E-sciencE», concluyo que, durante su difusión, el énfasis se puso en que su software permitió conectar más de 2.000 computadoras en abril de 2006 (con motivo de la crisis mundial de la gripe aviar). Recuerdo que esta red permitió, en sólo 1 mes de colaboración, hacer un trabajo de computación que hubiera demandado 1.200 meses de proceso en 1 ordenador (no decían de qué tamaño, así que debían de referirse al promedio). 

La página informativa del centro público que inventó la web explica que la Grid se basa en la misma idea: compartir recursos entre ordenadores distribuidos geográficamente. Aclara que, mientras la web simplemente compartía información entre ellos, la nueva red, que algunos asocian con la “internet del futuro”, también comparte capacidad de proceso y de almacenamiento. En septiembre de 2006, la EGEE Grid financiada por la Unión Europea estaba formada por más de 200 centros y conectaba más de 20.000 computadoras repartidas por el globo.

Por consiguiente, a diferencia de las parrillas de acero corrugado que arman el hormigón, o de las redes que se emplean para pescar, internet dota de un gran protagonismo a sus nodos. No debemos olvidar que un buen número de ellos se dedican exclusivamente a regular el tráfico y la confidencialidad de los paquetes de datos que transitan por sus líneas cableadas e inalámbricas: encaminadores, pasarelas, conmutadores, cortafuegos, cifradores, traductores, repetidores, moduladores, emisoras, captadores, centralitas digitales…

grid-poles_cloud

Líneas y postes de electricidad (cc einarfour, Flickr)

Bien, vale, quizá resulte que los cables de cobre, los de fibra óptica, los pulsos lumínicos, las ondas electromagnéticas, los transductores y acopladores, las claves de señales, los protocolos de transmisión, los algoritmos de cifrado… son menos importantes que los nudos de cómputo que también conforman la trama de internet. Será que éstos deben de ser los elementos clave de las redes aplicadas a las TIC. Será que los vocablos de nuestro pasado sociotécnico —que se refieren a las conexiones y espacios vacíos entre líneas más que a los nodos materiales donde se cruzan— deberán de adaptar su significado para poder reflejar lo importante en las nuevas TIC. ¿Y a mí qué?, podría preguntarme.

Pues resulta que considero importante no perder de vista que no hay redes de ordenadores sin conexiones y comunicaciones. Las unidades de almacenamiento y procesamiento de datos servirán de poco si formamos islas de información accesibles sólo desde “ventanillas” dentro del perímetro delimitado por una especie de foso de aislamiento infestado de cocodrilos, o por una profunda zanja cortafuegos o contra asaltadores del tesoro de la información. Sería como si los aeropuertos fueran hubs & spokes completamente aislados, sin aeronaves que los conectaran, o como si las estaciones o terminales de tren no tuvieran redes ferroviarias que las enlazaran. 

La lógica del tamaño del hueco de una red que permite no atrapar al “pezqueñín” es una cuestión básica para el sostenimiento de la vida marina. El lenguaje humano —nuestros protocolos de comunicación—, también es clave para nuestro desarrollo, como enseñan la experiencia y la biolingüística.

internet-mapping_mit

Representación de la periferia del 'universo on-line' (Lanet-vi program of I. Alvarez-Hamelin et al. - MIT Technology Review)

Sin comunicación no habría grupos de personas, ni tribus, ni aglomeraciones urbanas, ni sociedades, ni culturas, ni Civilización Humana (en singular). La nanotecnología, la física cuántica, la genética molecular, la neurociencia… van descubriendo nuevas estructuras dentro de órganos que antes se estudiaban en niveles superiores. Siguiendo “hacia arriba”, ¿qué nos depararán las nuevas redes de ordenadores como el Grid del CERN, o la extensión de una computación en la nube que hoy lastran algunos armados de mitos interesados que montan alrededor de la seguridad, disponibilidad, integración, dependencia…?

Para terminar quiero anotar el desencadenante inmediato para escribir esta entrada en el cuaderno, y así poder recordarlo. Tenía rondando por mi cabeza varias ideas sobre “espacios vacíos”, grids, datos en la nube, islas de información, protecciones culturales y lenguajes de comunicación cuando leí un artículo sobre Ray Ozzie en Wired. Se extiende sobre su actual papel en Microsoft como Chief Software Architect, para lo que se remonta a los orígenes de su posición a favor de la computación en la nube y, por consiguiente, fuera del firewall. Al final del mismo se dice:

«To Ozzie, software’s soul does not lie in the accumulation of features. Instead, it lies in his dream of connectivity. “Live Mesh is very Ray,” Mitch Kapor [Lotus founder] says. “It’s the son of Groove, which is the son of Notes.” Which was, of course, the son of Ozzie’s beloved Plato [an early interactive system to connect people]. Thirty-three years later, Ozzie is still trying to build on what he saw in sophomore year. But it’s no longer the Ray Ozzie vision. It’s Microsoft’s.» [negrita del editor]

Interesante, ¿no?

Entradas relacionadas: Conmutación a la nube, El «espacio blanco» de la televisión, Sistemas operativos en la web

Suscribirse en un lector a este cuaderno. El servicio co.mments permite seguir los eventuales comentarios por correo electrónico.

Posted in computación, web | Etiquetado: , , , , , , , | Leave a Comment »

Captura de datos en la nube

Posted by josempelaez en Jueves, 20 noviembre 2008

El comercio, la banca, la sanidad, la industria… han estado utilizado terminales de captura de datos desde hace varias décadas. La difusión del empleo de internet está suponiendo una estandarización significativa de las telecomunicaciones cableadas e inalámbricas de toda clase de dispositivos. Ello potenciará el aumento de los datos a procesar que, a su vez, conducirá al desarrollo de nuevas aplicaciones que puedan aprovechar las grandes posibilidades de la computación en la nube.

restaurant_touch-screen-terminal

Terminal táctil para pedir en un restaurante coreano de Tokyo. Es multi idioma y totaliza el precio (cc bobsee, Flickr 070506)

Hace pocos días estuve merendando con un experto y entusiasta de la computación en la nube para compartir ideas sobre el posible impacto y aplicaciones de esta manera de procesar los datos. Entre otras muchas cosas, hablamos de que el volumen de información susceptible de ser captada y tratada de forma automática va a ir creciendo de forma singular a medida que se vayan materializando las ideas que subyacen detrás de la computación ubicua y de la «internet de las cosas».

Ya casi estamos acostumbrados a que cada semana aparezcan noticias o reportajes sobre distintas aplicaciones de la tecnología en este sentido. En realidad nada que no haya estado sucediendo durante las cinco últimas décadas en que ha ido progresando la técnica informática. Trataré de explicarme mejor mediante algunos ejemplos.

José Cervera escribía hace dos semanas sobre el tecno restaurante y decía que:

«Una casa de comidas en la que el papel desaparezca, los menús sean electrónicos y la información sobre comida y bebida sea amplia, instantánea y electrónica parece ser un sueño ampliamente extendido. Y una realidad creciente, a juzgar por las diversas ofertas que están apareciendo en el mercado. Una de las primeras fue uWink, fundada por el creador de Atari Nolan Bushnell, que cuenta ya con tres restaurantes propios en California, y con una tecnología que licencia a otros emprendedores

Por un lado tenemos la novedad relativa que pueda implicar esta interfaz de usuario concreta. Supongo que debe de mejorar de alguna forma las que ya se emplean en bastantes restaurantes de Oriente desde hace un tiempo, así como las de las máquinas expendedoras de tiques para consumiciones en muchas cafeterías de instituciones públicas y de colectivos en España y otras partes del mundo.

atm-banking

Cajero automático. Panama (cc thinkpanama, Flickr 071228)

Por otra parte, tenemos el hecho de extender la propuesta de que ya no sea un intermediario quien emplee su memoria, libreta o terminal electrónico de mano para las comandas, como se empezó a ver hace más años en bastantes restaurantes, bares y cafeterías. La automatización está permitiendo eliminar un paso en la cadena de proceso de la información entre el demandante de una comida y el que la prepara, con las ventajas e inconvenientes que de ello se derivan. Habrá que sopesarlas en cada tipo de aplicación y caso particular.

Los cajeros automáticos (ATM) de los bancos y cajas de ahorros llevan ya muchos años implantados y funcionando en un buen número de ciudades y pueblos del mundo. Habiendo comenzado su despliegue en 1967, constituyen uno de los factores más influyentes en la transformación de las operaciones bancarias, uno de los sectores que más provecho ha obtenido de las aplicaciones de la informática. En este caso, el usuario, cliente de la entidad financiera, obtiene el efectivo, la información que necesita o ingresa el talón que desea sin la intervención directa de ninguna otra persona. En esta línea cabe mencionar que hay hipermercados que emplean cajas de autopago para que sus clientes abonen directamente las compras sin tener que esperar en una cola.

En un restaurante de los que utilizan un sistema tipo uWink, el cocinero ha de preparar la comida de una manera bastante sincrónica. Un dispensador de bebidas o de bocadillos en una terminal de transporte, una esquina de la calle, una fábrica o una oficina funciona de manera más desacoplada del resto de componentes del sistema, como lo hacen los cajeros automáticos. Sin embargo, en el caso de las máquinas expendedoras electrónicas de alimentos no sólo debe controlarse la reposición de las existencias, lo que comenzó a realizarse hace unos quince años, sino también su buen estado (fecha de caducidad, condiciones de conservación, aspecto externo…)

El despacho de medicinas en farmacias robotizadas, drogas y consumibles de quirófano y unidades de cuidados intensivos, tratamientos terapéuticos en centros de salud…, desde hace pocos años, está siendo controlado y gestionado por máquinas dispensadoras que han de gobernarse a distancia y que, por tanto, requieren de unas comunicaciones y una “inteligencia” remota que permita su funcionamiento constante.

street_vending-machines

Línea de máquinas expendedoras ('vending') en Akihabara, distrito de Tokyo (cc jpellgen, Flickr 080325)

Las correspondientes conexiones M2M pueden materializarse de varias formas. Las comunicaciones inalámbricas por vía celular tienen aún tarifas demasiado elevadas para estas aplicaciones. Las redes Wi-Fi son más económicas, y van mejorando su cobertura, pero su grado de desarrollo todavía está lejos de permitir un uso ubicuo y permanente. La futura banda ancha inalámbrica irá transformando este panorama en los años venideros, pero aún le faltan años.

Los sistemas propietarios de instrumentación y control mediante radiocomunicación se han empleado bastante en los sectores de construcción, industria y transporte desde hace décadas. Han evolucionado mucho desde las primeras aplicaciones de medida, señalización, control y telemando en presas, canales y carreteras perdidas por el territorio. Hoy tenemos aplicaciones M2M similares en los modernos parques de energías renovables (donde también cabe emplear comunicaciones PLC), que han de estar conectados permanentemente para monitorizar su correcto funcionamiento y gestionar la seguridad, en la lectura automática de contadores de agua y gas, en sistemas experimentales de comunicaciones entre automóviles en ruta, de recogidas de residuos sólidos urbanos, etcétera.

Las posibilidades de conexión en entornos muy poblados son mucho mayores. Además de mejores prestaciones, permiten la propuesta de muchas otras aplicaciones. Dr. Touch es un terminal presentado hace unos meses por LG Electronics e Intel que está orientado a monitorizar la salud de las personas desde sus casas, sin tener que estar conectado permanentemente con su centro médico, que podrá hacerlo cuando las circunstancias lo requieran. Hablando de un proyecto más local, el ganador del reciente I Foro de Start-ups del First Tuesday de Barcelona es uno promovido por Cooclea, una empresa financiada por el CIDEM que está desarrollando un sistema de diagnóstico remoto del síndrome de la apnea del sueño. Para ello se basa en la voz del paciente, que se registra mediante un micrófono conectado a un ordenador equipado con el programa correspondiente.

Terminal doméstico de control de salud (© Intel)

Terminal doméstico de control de salud (© Intel)

Una diferencia entre estos dos tipos de proyectos de salud y los del grupo anterior es que los últimos se apoyan en la infraestructura estándar de internet accesible desde un gran porcentaje de casas, oficinas y hospitales. Ello me parece muy relevante porque implica unas amplias posibilidades de reducción de costes, robustez y escalabilidad. Por tanto, facilita el poderse plantear aplicaciones basadas en la presencia ubicua de terminales, sensores, instrumentos, mecanismos, actuadores, antenas, monitores, dispositivos, equipos, automatismos, robots… Además de poder conectarse directamente entre sí para facilitar las comunicaciones en una red de tipo mesh, o para computar en la nube, también se podrán comunicar con los servidores o nodos de la red donde se ejecuten programas más complejos que agreguen y procesen los datos capturados de manera sincrónica. 

En el funcionamiento comercial de la web tradicional, es decir, de los sitios que son accedidos por los usuarios empleando terminales fijos y móviles, hay ya quienes están apuntando las muchas posibilidades de inteligencia y dinamismo de los sistemas basados en reglas que gobiernen los procesos de petición-respuesta clásicos en los mecanismos industriales “de toda la vida”. El empleo de internet para unir de manera automática muchos aspectos de los enfoques comercial e industrial permitirá nuevas formas de explotación de todos esos nuevos datos procesables de los que hablé con mi interlocutor durante la merienda referida al inicio. Las grandes economía y flexibilidad que la computación en la nube aporta también potenciarán estos nuevos usos.

Habrá muchas oportunidades para start-ups que permitan generar respuestas antes las demandas de los componentes que forman el borde del sistema. Siguiendo con la comida, por donde comencé esta nota, ¿llegará un día en el que los frigoríficos y otros armarios de ubicación de alimentos envíen directamente los pedidos al almacén o fábrica siguiendo unas reglas de reaprovisionamiento individualmente establecidas? No estoy pensando en cientos de miles de grandes superficies de alimentación y colmados de barrio, sino en cientos de millones de refrigeradores domésticos.

Entradas relacionadas: El «espacio blanco» de la televisión, Las start-ups pueden aprovechar la crisis, Terminales ubicuos para navegar

 Suscribirse en un lector a este cuaderno. El servicio co.mments permite seguir los eventuales comentarios por correo electrónico.

Posted in computación, innovación | Etiquetado: , , , , , , | 6 Comments »

Conmutación a la nube

Posted by josempelaez en Viernes, 7 noviembre 2008

En la entrada previa comenté un par de informaciones periodísticas sobre dos materias técnicas que creo que van a representar un papel muy relevante en el futuro de internet: la banda ancha sin cables (Wi-Fi 2.0, ya sea TV white space o WiMAX) y la computación distribuida (grid computing). En ésta trato de aclarar los distingos entre las informáticas de la "cuadrícula" y de la "nube", además de referirme a algunas desventajas y ventajas de la segunda.

grid-supercollider-diagram

«The Grid» en el 'Supercollider' del CERN (Computerworld 051010)

El reportaje de El Periódico vinculado el miércoles equiparaba los conceptos de grid y cloud computing al decir: 

«El grid es un software que permite no solo acceder a páginas web, como ahora cuando se navega por internet, sino también registrar datos en una nube de ordenadores dispersos por todo el mundo e incluso utilizarlos para hacer cálculos (de ahí lo de computación por nubes, otra denominación de la tecnología grid). “En el futuro, las memorias USB serán superfluas porque se podrá enviar toda la información a miles de máquinas remotas”, explica Diego Mariño, cofundador de Abiquo.»

Evidentemente, un artículo de divulgación para directivos o gran público no suele entrar en detalles o distingos técnicos. No obstante, creo que tenemos que diferenciar la semántica o la tecnología subyacentes para poder comprender en qué consisten ciertos conceptos y, especialmente, para reconocer sus potenciales aplicaciones e implicaciones. No son muchos los redactores científicos o técnicos que escriben entendiendo bien lo que hay detrás de lo que leen o escuchan, y ello puede transmitir ideas mal extractadas o formadas. Considero que ello puede conducir a repetir afirmaciones propias de un tiempo pasado que ya no se sustentan en las nuevas evidencias.

En este cuaderno de apuntes he tratado de buscar anteriormente los orígenes históricos de esos dos conceptos, muy vinculados a internet. Hasta donde he sabido investigar, «The Grid» es como se conoce en los EE. UU. a la red de generación y distribución de electricidad. En informática se ha utilizado cuando se ha aplicado a internet el modelo de  computación distribuida entre varias máquinas procesando información en paralelo que se usa desde la segunda mitad de los 60. Paralell y distributed computing fueron las expresiones que se emplearon inicialmente para este enfoque, mientras que grid computing comienza a emplearse en 1997 para referirse al proceso en clusters heterogéneos y dispersos en la WAN.

cern-datagrid

The DataGrid Project 'OSI certified' (CERN project funded by EU)

Es la misma época en que se prueba el acceso a internet a través de la red eléctricaLa información llega al punto de consumo de forma instantánea procediendo de fuentes cambiantes en un proceso que resulta transparente para el usuario. En 2000, tras percatarse de que el supercomputador basado en MPP no iba a resolver su problema, el CERN decidió explorar el enfoque grid para poder procesar las ingentes cantidades de datos que planeaba obtener al explotar su futuro «Large Hadron Collider». El proyecto del LHC fue aprobado en 1994 y el del DataGrid a final de 2000. La nueva instalación arrancó en septiembre. En abril habían presentado en sociedad su nueva “the grid para poder almacenar y tratar los datos de los experimentos (Worldwide LHC Computing Grid – WLCG).

Por otra parte, «The Cloud» se ha convertido en una referencia común a internet al ser una de sus formas más usuales de representación gráfica en los esquemas de sistemas de información. La expresión cloud computing ha venido empleándose desde hace poco más de dos años y parece gustar mucho a los especialistas de marketing, por lo que su empleo va en aumento y se ha puesto de moda, como refleja The Guardian. Suele aplicarse cuando los recursos de proceso, los de almacenamiento o las aplicaciones están en un sistema informático al que puede accederse a través de una simple URI de internet, que abstrae a la persona o máquina que los usan de toda la complejidad que suele haber detrás. En ciertos casos se emplea como sinónimo de utility o de on-demand computing, que no tienen por qué ofrecerse desde internet, como tampoco el grid, aunque hoy sea ya lo más frecuente.

Por consiguiente, entiendo que la redactora de El Periódico asocia indebidamente las expresiones “tecnología grid” y “computación por nubes” que, dicho sea de paso, no sería la traducción más adecuada al español. El enfoque grid ha existido desde hace décadas dentro de las organizaciones, aunque haya sido con otros nombres y sin tanta heterogeneidad de máquinas. Su extensión afronta dificultades cuando se quieren combinar recursos dentro y fuera de los límites o cortafuegos de las estructuras organizativas tradicionales.

cern-globe-palais

CERN Globe Communication building (© Thomas Janster, Expo 2002)

Como dice Diego:

«”Las grandes empresas se montarán sus grid internas para no compartir datos”, dice Mariño. La privacidad y la confiden cialidad son cuestiones cruciales en la nueva tecnología. “Sin embargo –concluye–, todo el mundo es consciente de que para explotar al máximo su potencial es necesario converger en una única red. Un poco como cuando, en los años 80, las redes de distintas universidades y empresas se coordinaron y dieron vida a internet”.»

El empleo o combinación de servicios informáticos localizados “en la nube” ha planteado muchas objeciones de los directivos de las grandes empresas relacionadas con la disponibilidad (robustez, fiabilidad), seguridad (confidencialidad, privacidad), integración (conectividad, interoperabilidad) e independencia (control, regulación, portabilidad). Considero que un buen software o middleware para grid puede resolver satisfactoriamente todas y cada una de estas cuestiones relevantes. A esto me refería cuando escribía más arriba que no se debe argumentar con premisas basadas en ideas mal formadas, o en simples creencias anticuadas que no resisten una mínima comparación de datos. Considero que hay bastantes mitos, paraguas de cobertura, comportamientos gregarios y problemas de agencia en este terreno.

cern-datacenter-storage

Almacenamiento de datos en un supercomputador (© CERN, 1999)

De momento sólo añadiré que aprecio contradicciones en la postura conservadora, como el propio reportaje creo que pone de manifiesto. Considerando las dos citas previas podríamos concluir que «las memorias USB serán superfluas» en las grandes empresas porque «se montarán sus grid internas para no compartir datos» “en la nube”. Una cuestión que me surge es ¿por qué el usuario de una empresa va a confiar más en su director de informática que en los de Google, Microsoft, IBM o Amazon, por nombrar algunas grandes empresas de tecnología que no emplean el modelo de CPD central? ¿Lo seguirá haciendo porque lo impone el consejero delegado o el “manual de políticas y procedimientos” de la compañía? ¿Acaso las empresas desconfían de los bancos que procesan sus datos económicos? Hmmm…

Espero poder tocar esos puntos en futuras anotaciones. Evidentemente, la nueva teoría y la vieja práctica necesitan convivir un tiempo para ir convergiendo al resolver los “problemas” apuntados en muchos lugares, como en el vinculado de Jack Schofield (The Guardian). Hay otros muchos que se han hecho eco de unas recientes declaraciones negativas de Richard Stallman que, a veces, parece vivir confinado en un “stall“. Voy a referirme otro artículo ligero sobre tendencias tecnológicas titulado «promesas y riesgos del Cloud Computing» de una reciente newsletter del e-business Center PwC&IESE. Comparto plenamente la conclusión que obtienen tras revisar los riesgos: «La informática puede estar en las nubes. El profesional no.»

Por ahora me limitaré a subrayar las ventajas de innovar dando un salto hacia delante y pasar a compartir recursos en la nube, capacidades que suelen presentarse como servicios. Si el proceso de datos se conmutara a la nube, si se hiciera este click en el switch de las organizaciones, se mejoraría la situación actual de su informática en los cuatro aspectos citados. También se reducirían mucho los costes, las rigideces y los riesgos. ¿Los CIOs quieren números?, pues los tendrán.

Sin embargo, quizá lo más importante a largo plazo derive de lo apuntado en la cita de Mariño sobre “explotar al máximo su potencial”. Continuará…

Entradas relacionadas: Confianza en la nube, El software de la nube, La nube de Amazon

Posted in computación | Etiquetado: , , , , , , , , , , | 12 Comments »

El «espacio blanco» de la televisión

Posted by josempelaez en Miércoles, 5 noviembre 2008

Recientemente han aparecido dos noticias muy relevantes para el futuro de internet. La primera fue la puesta en servicio de la infraestructura de computación grid impulsada por el CERN de Ginebra. La segunda ha sido la reciente liberación de una parte del espacio radioeléctrico que ocupaba la TV analógica. Ambas pueden bien llevarnos a una "nueva internet".

white-space_fcc

Recorte noticia The New York Times 081104

En medio de las históricas elecciones presidenciales y parlamentarias en los EE. UU., ha aparecido una noticia importante para los usuarios y el futuro de internet. La Comisión Federal de Comunicaciones (FCC) ha aprobado por 5 votos a 0 el nuevo uso de varias frecuencias no sujetas a licencia gubernativa conocidas como “espacio blanco”. Muchas han sido las objeciones planteadas por los grupos de presión formados por las emisoras de televisión y representaciones artísticas en grandes espacios abiertos a cuenta de las potenciales interferencias vinculadas a su utilización. No obstante, los reguladores han expresado que, tras las exhaustivas pruebas efectuadas, consideran que no hay un riesgo muy elevado de que eso suceda, y que las que aparezcan podrán mitigarse regulando los aparatos correspondientes. 

Haciéndose eco de varios puntos de vista, han expresado que esta medida puede conducir al desarrollo de una generación nueva de dispositivos que emplee esa parte del espacio radioeléctrico para suministrar accesos a internet. Se espera que esta posibilidad mejore los actuales accesos a través de Wi-Fi, tecnología que tiene una fiabilidad y un alcance más limitados. Hay muchos que hablan de una nueva “Wi-Fi con esteroides“, lo que varios comisionados confían en que pueda hacerse realidad.

Este punto de vista es el defendido por empresas como Google, Hewlett-Packard, Microsoft, Motorola, Dell, Intel, Philips, Samsung…, que se beneficiarán de una ampliación del acceso a internet. Se trata de una posibilidad que lleva estudiándose desde 2004, cuando la evolución hacia la digitalización de la señal de televisión permitió pensar en cómo aprovechar la parte que se liberase del espectro utilizado hasta el momento. Larry Page, uno de los fundadores de Google, ha escrito que:

«As an engineer, I was also really gratified to see that the FCC decided to put science over politics. For years the broadcasting lobby and others have tried to spread fear and confusion about this technology, rather than allow the FCC’s engineers to simply do their work.»

Esquema del gris montado para procesar los datos del LHC

Esquema del grid montado para procesar los datos del LHC susceptible de más aplicaciones (El Periódico 081103)

Pensando en las innovaciones que puedan introducirse a través de sus posibles aplicaciones, he recordado otra noticia del lunes en la prensa española relativa al proceso distribuido de grandes cantidades de datos. Para cuando entrara en funcionamiento el nuevo acelerador de partículas LHC del CERN construido en Ginebra, cuyas primeras pruebas empezaron hace pocas semanas, se ha ido desarrollando una gran infraestructura de computación mallada (grid computing) apoyada en software abierto y estándares de interoperabilidad desde finales de los 90. Es lo que el artículo, que no entra en muchos detalles, titula como la “internet de nueva generación”.

Personalmente no emplearía ese calificativo ya que, entre otros motivos, el gráfico con el que ilustra el concepto se refiere a una red específica destinada sólo a la computación intensiva. Además de la ingente cantidad de datos del Gran Colisionador de Hadrones, que hay que almacenar y procesar sobre la marcha, hay otras aplicaciones que se beneficiarán de la nueva forma de hacer computación distribuida o paralela. Entre ellas podemos considerar la observación astronómica, la monitorización y cuidado de la salud, la investigación farmacéutica, las maquetas en ingeniería y arquitectura, el modelado y simulación aerodinámica, la predicción meteorológica, las finanzas, etcétera. En resumen, las aplicaciones del High Performance Computing (HPC), que antes requerían de computadores o técnicas muy específicas y costosas, ahora pueden ejecutarse en redes de servidores, terminales, dispositivos y sensores donde se haya instalado un middleware adecuado.

Considero que este enfoque conduce más a la llamada “internet de las cosas”. En cualquier caso, entiendo que la combinación de las nuevas formas de conectar los ordenadores grandes y pequeños, incluyendo los minúsculos, con las telecomunicaciones de gran ancho de banda sin cable (wireless broadband), nos permitirá pensar en una generación diferente de aplicaciones de internet.

A corto plazo, como comenta Diego Mariño de Abiquo en El Periódico y en su blog, una buena parte de las aplicaciones de la tecnología grid, o de «computación en la nube», se quedarán posiblemente dentro de las organizaciones por cuestiones de privacidad. Entiendo que en esas condiciones se perderán algunas ventajas importantes de la compartición de datos, pero creo que este asunto se escapa ya del alcance de esta reflexión sobre pasos hacia el futuro de internet.

Opino que la conectividad e interacción de ésta determinará que la audiencia se vaya desplazando y que la televisión tradicional se quede con más “espacios en blanco”.

Entradas relacionadas: Confianza en la nube, Red como computadora

Posted in computación | Etiquetado: , , , , , | 5 Comments »