Blog de JoseMPelaez

Aprendimiento: aprender del entorno con atrevimiento

Posts Tagged ‘nube’

Navegar hacia las nubes de datos

Posted by josempelaez en Jueves, 5 marzo 2009

El reciente nombramiento de un director de sistemas de información en el nuevo gobierno estadounidense me permite relacionar otra vez el software y la política. Los criterios que han impulsado la mejora y el acceso a los datos también conducen a potenciar el uso de aplicaciones web que saquen partido de la «computación en la nube». Este enfoque puede trasladarse fácilmente a otros terrenos donde deben cooperar diversas entidades, como el de las «cadenas de suministros».

cartel-publicitario_derribado-viento

Cartel derribado por viento. Madrid (©ÁlvaroGarcía, El País 090305)

El temporal ha arreciado y el viento se ha mantenido soplando fuerte y constante por España en estos días. Además, las tasas de desempleo han seguido subiendo, los tipos de interés han continuado bajando y los juegos de los políticos, aunque hayan rolado, no han amainado demasiado. Parece que quedaron atrás los rompientes de los lances cinegéticos, de las filtraciones periodísticas, de las contiendas electorales…, pero ahora tenemos delante los bajíos de los coches gallegos, de los espías madrileños, de los golpes vascos

Todavía quedan cargas en mi tintero para escribir sobre varios aspectos que considero paradójicos en relación con la situación social que nos afecta, y mucho. Sin embargo, voy a dirigirme a otras aguas menos borrascosas y provocadoras de naúseas. Trataré de mantener el rumbo emprendido después de la virada en mi última navegación web a bordo de este cuaderno de bitácora. Resulta que, cada vez que intento adentrarme en los mares de la economía y la gobernanza española, termina surgiendo en mi mente la sensación de deslizarme por terrenos casi ignotos por irracionales. Navegando por zonas donde prevalece un oleaje de intereses creados y respuestas viscerales, se termina levantando mi temor a un naufragio tenebroso.

En mi entrada previa puse rumbo hacia la participación ciudadana y el desarrollo de software al traducir la mayor parte de un artículo donde se lee que «we need to create open innovation platforms for citizens to create solutions for themselves». Uno de sus enlaces apuntaba al concurso Apps for Democracy, en cuya organización había participado la agencia digital del redactor del texto. Hoy he recordado esta iniciativa al conocer el nombramiento de otro de sus promotores como nuevo CIO del gobierno estadounidense

Vivek Kundra, que hasta ahora era el CTO del Distrito de Columbia (Washington DC), fue premiado por el MIT Sloan CIO Symposium en 2008 como un innovador en el uso de las tecnologías de información. Ha sido uno de los tecnólogos que ha contribuido a los planes de acción del gobierno federal. Como anécdotas ilustrativas cabe reseñar que es usuario de Twitter y que ha promovido el empleo de las aplicaciones web de Google entre los funcionarios de WDC como alternativa a la suite de Microsoft Office que tenían.

Vivek Kundra escuchando (cc David Clow, Flickr 080725)

Vivek Kundra (34 años) escuchando (cc David Clow, Flickr 080725)

Entre las políticas implantadas está la de emplear tecnología ya disponible comercialmente —en vez de encargar desarrollos específicos a los proveedores habituales en este tipo de adjudicaciones—. Para lo que deseo anotar hoy aquí, me interesa subrayar también el criterio de gestión de potenciar la transparencia y la participación ciudadana eliminando barreras para acceder y compartir la información. [Vamos, algo distinto de lo que pasó ayer con el uso de Twitter en la Asamblea de Madrid, por ejemplo.]

En la línea de fomentar la participación, el concurso de aplicaciones referido ha recibido 47 propuestas para ser votadas por los futuros usuarios, es decir, por los ciudadanos. Una de las condiciones era la de usar los datos que se publican para favorecer los desarrollos web de mash-ups empleando técnicas estándar y ágiles. Con esta iniciativa también se perseguía el superar las anticuadas y toscas herramientas de ofimática que aún lastran la productividad de las personas y grupos en muchas organizaciones públicas y privadas.

La facilitación del acceso a las bases públicas de datos me ha recordado la disponibilidad de los Amazon Public Datasets. Se anunció poco después de una conversación que tuve con el autor de Nubeblog sobre el futuro de la captura y explotación de datos en La Nube. En ese encuentro comenté con Diego Parrilla —que hoy promueve la tecnología de Abiquo— las posibilidades y ventajas de las nubes públicas frente a las privadas. Las primeras permiten la explotación de los datos que son de interés para muchas personas y organizaciones, o que son susceptibles de tipos distintos de aprovechamiento. 

tienda-ropa

Tienda de ropa variada (Phil's Stock World Favorites, 080611)

Para ilustrar mi postura usé ejemplos de las «cadenas de suministros» para el aprovisionamiento (supply chains), algo que yo prefiero llamar «redes de abastecimiento» de la demanda (demand networks). Por ello también he recordado mi enfoque tras leer ayer un artículo de AMR Research sobre «Categorizing Content in the Supply Chain». Trata de los desafíos que plantea la gestión de los distintos tipos de datos (“contenidos”) que se manejan en las supply chains, de los que algunos han de ser necesariamente compartidos por distintos motivos. Uno de los casos que menciona es el de los efectos de las terapias sanitarias, situación que en España resulta de actualidad ante el caso de unas vacunas contra el cáncer de útero.

El análisis de datos agregados puede aportar un gran valor, aunque resulta escaso cuando se limita al plano individual. El contenido y precio de un carro de compra semanal de una familia aporta cierta información, pero no es comparable con la del análisis de todas las compras de esa familia durante un largo periodo de tiempo. Tampoco lo es con el valor que pueden obtener los comerciantes capaces de procesar adecuadamente los datos agregados de consumo por artículos y clientes en toda clase de segmentos zonales y temporales.

Podemos encontrar otros ejemplos ya también clásicos en los actuales servicios disponibles en la web para muchos usuarios que comparten información por encima de la plataforma, como el recién lanzado Likaholix. Sin embargo, los ejemplos más antiguos y lucrativos provienen del sector financiero —pionero y usuario intensivo de los ordenadores—, como exponía IC en «el front running, la madre de todos los negocios».

Todo esto me lleva a pensar en otra idea, pero ya la compartiré en la entrada siguiente.

Entradas de este cuaderno con alguna relación: ¿Jugamos a la política o desarrollamos algo?, Captura de datos en la nube, Conmutación a la nube.

Suscribirse a las entradas de este cuaderno mediante un lector.

Posted in software | Etiquetado: , , , , , | Leave a Comment »

Captura de datos en la nube

Posted by josempelaez en Jueves, 20 noviembre 2008

El comercio, la banca, la sanidad, la industria… han estado utilizado terminales de captura de datos desde hace varias décadas. La difusión del empleo de internet está suponiendo una estandarización significativa de las telecomunicaciones cableadas e inalámbricas de toda clase de dispositivos. Ello potenciará el aumento de los datos a procesar que, a su vez, conducirá al desarrollo de nuevas aplicaciones que puedan aprovechar las grandes posibilidades de la computación en la nube.

restaurant_touch-screen-terminal

Terminal táctil para pedir en un restaurante coreano de Tokyo. Es multi idioma y totaliza el precio (cc bobsee, Flickr 070506)

Hace pocos días estuve merendando con un experto y entusiasta de la computación en la nube para compartir ideas sobre el posible impacto y aplicaciones de esta manera de procesar los datos. Entre otras muchas cosas, hablamos de que el volumen de información susceptible de ser captada y tratada de forma automática va a ir creciendo de forma singular a medida que se vayan materializando las ideas que subyacen detrás de la computación ubicua y de la «internet de las cosas».

Ya casi estamos acostumbrados a que cada semana aparezcan noticias o reportajes sobre distintas aplicaciones de la tecnología en este sentido. En realidad nada que no haya estado sucediendo durante las cinco últimas décadas en que ha ido progresando la técnica informática. Trataré de explicarme mejor mediante algunos ejemplos.

José Cervera escribía hace dos semanas sobre el tecno restaurante y decía que:

«Una casa de comidas en la que el papel desaparezca, los menús sean electrónicos y la información sobre comida y bebida sea amplia, instantánea y electrónica parece ser un sueño ampliamente extendido. Y una realidad creciente, a juzgar por las diversas ofertas que están apareciendo en el mercado. Una de las primeras fue uWink, fundada por el creador de Atari Nolan Bushnell, que cuenta ya con tres restaurantes propios en California, y con una tecnología que licencia a otros emprendedores

Por un lado tenemos la novedad relativa que pueda implicar esta interfaz de usuario concreta. Supongo que debe de mejorar de alguna forma las que ya se emplean en bastantes restaurantes de Oriente desde hace un tiempo, así como las de las máquinas expendedoras de tiques para consumiciones en muchas cafeterías de instituciones públicas y de colectivos en España y otras partes del mundo.

atm-banking

Cajero automático. Panama (cc thinkpanama, Flickr 071228)

Por otra parte, tenemos el hecho de extender la propuesta de que ya no sea un intermediario quien emplee su memoria, libreta o terminal electrónico de mano para las comandas, como se empezó a ver hace más años en bastantes restaurantes, bares y cafeterías. La automatización está permitiendo eliminar un paso en la cadena de proceso de la información entre el demandante de una comida y el que la prepara, con las ventajas e inconvenientes que de ello se derivan. Habrá que sopesarlas en cada tipo de aplicación y caso particular.

Los cajeros automáticos (ATM) de los bancos y cajas de ahorros llevan ya muchos años implantados y funcionando en un buen número de ciudades y pueblos del mundo. Habiendo comenzado su despliegue en 1967, constituyen uno de los factores más influyentes en la transformación de las operaciones bancarias, uno de los sectores que más provecho ha obtenido de las aplicaciones de la informática. En este caso, el usuario, cliente de la entidad financiera, obtiene el efectivo, la información que necesita o ingresa el talón que desea sin la intervención directa de ninguna otra persona. En esta línea cabe mencionar que hay hipermercados que emplean cajas de autopago para que sus clientes abonen directamente las compras sin tener que esperar en una cola.

En un restaurante de los que utilizan un sistema tipo uWink, el cocinero ha de preparar la comida de una manera bastante sincrónica. Un dispensador de bebidas o de bocadillos en una terminal de transporte, una esquina de la calle, una fábrica o una oficina funciona de manera más desacoplada del resto de componentes del sistema, como lo hacen los cajeros automáticos. Sin embargo, en el caso de las máquinas expendedoras electrónicas de alimentos no sólo debe controlarse la reposición de las existencias, lo que comenzó a realizarse hace unos quince años, sino también su buen estado (fecha de caducidad, condiciones de conservación, aspecto externo…)

El despacho de medicinas en farmacias robotizadas, drogas y consumibles de quirófano y unidades de cuidados intensivos, tratamientos terapéuticos en centros de salud…, desde hace pocos años, está siendo controlado y gestionado por máquinas dispensadoras que han de gobernarse a distancia y que, por tanto, requieren de unas comunicaciones y una “inteligencia” remota que permita su funcionamiento constante.

street_vending-machines

Línea de máquinas expendedoras ('vending') en Akihabara, distrito de Tokyo (cc jpellgen, Flickr 080325)

Las correspondientes conexiones M2M pueden materializarse de varias formas. Las comunicaciones inalámbricas por vía celular tienen aún tarifas demasiado elevadas para estas aplicaciones. Las redes Wi-Fi son más económicas, y van mejorando su cobertura, pero su grado de desarrollo todavía está lejos de permitir un uso ubicuo y permanente. La futura banda ancha inalámbrica irá transformando este panorama en los años venideros, pero aún le faltan años.

Los sistemas propietarios de instrumentación y control mediante radiocomunicación se han empleado bastante en los sectores de construcción, industria y transporte desde hace décadas. Han evolucionado mucho desde las primeras aplicaciones de medida, señalización, control y telemando en presas, canales y carreteras perdidas por el territorio. Hoy tenemos aplicaciones M2M similares en los modernos parques de energías renovables (donde también cabe emplear comunicaciones PLC), que han de estar conectados permanentemente para monitorizar su correcto funcionamiento y gestionar la seguridad, en la lectura automática de contadores de agua y gas, en sistemas experimentales de comunicaciones entre automóviles en ruta, de recogidas de residuos sólidos urbanos, etcétera.

Las posibilidades de conexión en entornos muy poblados son mucho mayores. Además de mejores prestaciones, permiten la propuesta de muchas otras aplicaciones. Dr. Touch es un terminal presentado hace unos meses por LG Electronics e Intel que está orientado a monitorizar la salud de las personas desde sus casas, sin tener que estar conectado permanentemente con su centro médico, que podrá hacerlo cuando las circunstancias lo requieran. Hablando de un proyecto más local, el ganador del reciente I Foro de Start-ups del First Tuesday de Barcelona es uno promovido por Cooclea, una empresa financiada por el CIDEM que está desarrollando un sistema de diagnóstico remoto del síndrome de la apnea del sueño. Para ello se basa en la voz del paciente, que se registra mediante un micrófono conectado a un ordenador equipado con el programa correspondiente.

Terminal doméstico de control de salud (© Intel)

Terminal doméstico de control de salud (© Intel)

Una diferencia entre estos dos tipos de proyectos de salud y los del grupo anterior es que los últimos se apoyan en la infraestructura estándar de internet accesible desde un gran porcentaje de casas, oficinas y hospitales. Ello me parece muy relevante porque implica unas amplias posibilidades de reducción de costes, robustez y escalabilidad. Por tanto, facilita el poderse plantear aplicaciones basadas en la presencia ubicua de terminales, sensores, instrumentos, mecanismos, actuadores, antenas, monitores, dispositivos, equipos, automatismos, robots… Además de poder conectarse directamente entre sí para facilitar las comunicaciones en una red de tipo mesh, o para computar en la nube, también se podrán comunicar con los servidores o nodos de la red donde se ejecuten programas más complejos que agreguen y procesen los datos capturados de manera sincrónica. 

En el funcionamiento comercial de la web tradicional, es decir, de los sitios que son accedidos por los usuarios empleando terminales fijos y móviles, hay ya quienes están apuntando las muchas posibilidades de inteligencia y dinamismo de los sistemas basados en reglas que gobiernen los procesos de petición-respuesta clásicos en los mecanismos industriales “de toda la vida”. El empleo de internet para unir de manera automática muchos aspectos de los enfoques comercial e industrial permitirá nuevas formas de explotación de todos esos nuevos datos procesables de los que hablé con mi interlocutor durante la merienda referida al inicio. Las grandes economía y flexibilidad que la computación en la nube aporta también potenciarán estos nuevos usos.

Habrá muchas oportunidades para start-ups que permitan generar respuestas antes las demandas de los componentes que forman el borde del sistema. Siguiendo con la comida, por donde comencé esta nota, ¿llegará un día en el que los frigoríficos y otros armarios de ubicación de alimentos envíen directamente los pedidos al almacén o fábrica siguiendo unas reglas de reaprovisionamiento individualmente establecidas? No estoy pensando en cientos de miles de grandes superficies de alimentación y colmados de barrio, sino en cientos de millones de refrigeradores domésticos.

Entradas relacionadas: El «espacio blanco» de la televisión, Las start-ups pueden aprovechar la crisis, Terminales ubicuos para navegar

 Suscribirse en un lector a este cuaderno. El servicio co.mments permite seguir los eventuales comentarios por correo electrónico.

Posted in computación, innovación | Etiquetado: , , , , , , | 6 Comments »

Conmutación a la nube

Posted by josempelaez en Viernes, 7 noviembre 2008

En la entrada previa comenté un par de informaciones periodísticas sobre dos materias técnicas que creo que van a representar un papel muy relevante en el futuro de internet: la banda ancha sin cables (Wi-Fi 2.0, ya sea TV white space o WiMAX) y la computación distribuida (grid computing). En ésta trato de aclarar los distingos entre las informáticas de la "cuadrícula" y de la "nube", además de referirme a algunas desventajas y ventajas de la segunda.

grid-supercollider-diagram

«The Grid» en el 'Supercollider' del CERN (Computerworld 051010)

El reportaje de El Periódico vinculado el miércoles equiparaba los conceptos de grid y cloud computing al decir: 

«El grid es un software que permite no solo acceder a páginas web, como ahora cuando se navega por internet, sino también registrar datos en una nube de ordenadores dispersos por todo el mundo e incluso utilizarlos para hacer cálculos (de ahí lo de computación por nubes, otra denominación de la tecnología grid). “En el futuro, las memorias USB serán superfluas porque se podrá enviar toda la información a miles de máquinas remotas”, explica Diego Mariño, cofundador de Abiquo.»

Evidentemente, un artículo de divulgación para directivos o gran público no suele entrar en detalles o distingos técnicos. No obstante, creo que tenemos que diferenciar la semántica o la tecnología subyacentes para poder comprender en qué consisten ciertos conceptos y, especialmente, para reconocer sus potenciales aplicaciones e implicaciones. No son muchos los redactores científicos o técnicos que escriben entendiendo bien lo que hay detrás de lo que leen o escuchan, y ello puede transmitir ideas mal extractadas o formadas. Considero que ello puede conducir a repetir afirmaciones propias de un tiempo pasado que ya no se sustentan en las nuevas evidencias.

En este cuaderno de apuntes he tratado de buscar anteriormente los orígenes históricos de esos dos conceptos, muy vinculados a internet. Hasta donde he sabido investigar, «The Grid» es como se conoce en los EE. UU. a la red de generación y distribución de electricidad. En informática se ha utilizado cuando se ha aplicado a internet el modelo de  computación distribuida entre varias máquinas procesando información en paralelo que se usa desde la segunda mitad de los 60. Paralell y distributed computing fueron las expresiones que se emplearon inicialmente para este enfoque, mientras que grid computing comienza a emplearse en 1997 para referirse al proceso en clusters heterogéneos y dispersos en la WAN.

cern-datagrid

The DataGrid Project 'OSI certified' (CERN project funded by EU)

Es la misma época en que se prueba el acceso a internet a través de la red eléctricaLa información llega al punto de consumo de forma instantánea procediendo de fuentes cambiantes en un proceso que resulta transparente para el usuario. En 2000, tras percatarse de que el supercomputador basado en MPP no iba a resolver su problema, el CERN decidió explorar el enfoque grid para poder procesar las ingentes cantidades de datos que planeaba obtener al explotar su futuro «Large Hadron Collider». El proyecto del LHC fue aprobado en 1994 y el del DataGrid a final de 2000. La nueva instalación arrancó en septiembre. En abril habían presentado en sociedad su nueva “the grid para poder almacenar y tratar los datos de los experimentos (Worldwide LHC Computing Grid – WLCG).

Por otra parte, «The Cloud» se ha convertido en una referencia común a internet al ser una de sus formas más usuales de representación gráfica en los esquemas de sistemas de información. La expresión cloud computing ha venido empleándose desde hace poco más de dos años y parece gustar mucho a los especialistas de marketing, por lo que su empleo va en aumento y se ha puesto de moda, como refleja The Guardian. Suele aplicarse cuando los recursos de proceso, los de almacenamiento o las aplicaciones están en un sistema informático al que puede accederse a través de una simple URI de internet, que abstrae a la persona o máquina que los usan de toda la complejidad que suele haber detrás. En ciertos casos se emplea como sinónimo de utility o de on-demand computing, que no tienen por qué ofrecerse desde internet, como tampoco el grid, aunque hoy sea ya lo más frecuente.

Por consiguiente, entiendo que la redactora de El Periódico asocia indebidamente las expresiones “tecnología grid” y “computación por nubes” que, dicho sea de paso, no sería la traducción más adecuada al español. El enfoque grid ha existido desde hace décadas dentro de las organizaciones, aunque haya sido con otros nombres y sin tanta heterogeneidad de máquinas. Su extensión afronta dificultades cuando se quieren combinar recursos dentro y fuera de los límites o cortafuegos de las estructuras organizativas tradicionales.

cern-globe-palais

CERN Globe Communication building (© Thomas Janster, Expo 2002)

Como dice Diego:

«”Las grandes empresas se montarán sus grid internas para no compartir datos”, dice Mariño. La privacidad y la confiden cialidad son cuestiones cruciales en la nueva tecnología. “Sin embargo –concluye–, todo el mundo es consciente de que para explotar al máximo su potencial es necesario converger en una única red. Un poco como cuando, en los años 80, las redes de distintas universidades y empresas se coordinaron y dieron vida a internet”.»

El empleo o combinación de servicios informáticos localizados “en la nube” ha planteado muchas objeciones de los directivos de las grandes empresas relacionadas con la disponibilidad (robustez, fiabilidad), seguridad (confidencialidad, privacidad), integración (conectividad, interoperabilidad) e independencia (control, regulación, portabilidad). Considero que un buen software o middleware para grid puede resolver satisfactoriamente todas y cada una de estas cuestiones relevantes. A esto me refería cuando escribía más arriba que no se debe argumentar con premisas basadas en ideas mal formadas, o en simples creencias anticuadas que no resisten una mínima comparación de datos. Considero que hay bastantes mitos, paraguas de cobertura, comportamientos gregarios y problemas de agencia en este terreno.

cern-datacenter-storage

Almacenamiento de datos en un supercomputador (© CERN, 1999)

De momento sólo añadiré que aprecio contradicciones en la postura conservadora, como el propio reportaje creo que pone de manifiesto. Considerando las dos citas previas podríamos concluir que «las memorias USB serán superfluas» en las grandes empresas porque «se montarán sus grid internas para no compartir datos» “en la nube”. Una cuestión que me surge es ¿por qué el usuario de una empresa va a confiar más en su director de informática que en los de Google, Microsoft, IBM o Amazon, por nombrar algunas grandes empresas de tecnología que no emplean el modelo de CPD central? ¿Lo seguirá haciendo porque lo impone el consejero delegado o el “manual de políticas y procedimientos” de la compañía? ¿Acaso las empresas desconfían de los bancos que procesan sus datos económicos? Hmmm…

Espero poder tocar esos puntos en futuras anotaciones. Evidentemente, la nueva teoría y la vieja práctica necesitan convivir un tiempo para ir convergiendo al resolver los “problemas” apuntados en muchos lugares, como en el vinculado de Jack Schofield (The Guardian). Hay otros muchos que se han hecho eco de unas recientes declaraciones negativas de Richard Stallman que, a veces, parece vivir confinado en un “stall“. Voy a referirme otro artículo ligero sobre tendencias tecnológicas titulado «promesas y riesgos del Cloud Computing» de una reciente newsletter del e-business Center PwC&IESE. Comparto plenamente la conclusión que obtienen tras revisar los riesgos: «La informática puede estar en las nubes. El profesional no.»

Por ahora me limitaré a subrayar las ventajas de innovar dando un salto hacia delante y pasar a compartir recursos en la nube, capacidades que suelen presentarse como servicios. Si el proceso de datos se conmutara a la nube, si se hiciera este click en el switch de las organizaciones, se mejoraría la situación actual de su informática en los cuatro aspectos citados. También se reducirían mucho los costes, las rigideces y los riesgos. ¿Los CIOs quieren números?, pues los tendrán.

Sin embargo, quizá lo más importante a largo plazo derive de lo apuntado en la cita de Mariño sobre “explotar al máximo su potencial”. Continuará…

Entradas relacionadas: Confianza en la nube, El software de la nube, La nube de Amazon

Posted in computación | Etiquetado: , , , , , , , , , , | 12 Comments »

El «espacio blanco» de la televisión

Posted by josempelaez en Miércoles, 5 noviembre 2008

Recientemente han aparecido dos noticias muy relevantes para el futuro de internet. La primera fue la puesta en servicio de la infraestructura de computación grid impulsada por el CERN de Ginebra. La segunda ha sido la reciente liberación de una parte del espacio radioeléctrico que ocupaba la TV analógica. Ambas pueden bien llevarnos a una "nueva internet".

white-space_fcc

Recorte noticia The New York Times 081104

En medio de las históricas elecciones presidenciales y parlamentarias en los EE. UU., ha aparecido una noticia importante para los usuarios y el futuro de internet. La Comisión Federal de Comunicaciones (FCC) ha aprobado por 5 votos a 0 el nuevo uso de varias frecuencias no sujetas a licencia gubernativa conocidas como “espacio blanco”. Muchas han sido las objeciones planteadas por los grupos de presión formados por las emisoras de televisión y representaciones artísticas en grandes espacios abiertos a cuenta de las potenciales interferencias vinculadas a su utilización. No obstante, los reguladores han expresado que, tras las exhaustivas pruebas efectuadas, consideran que no hay un riesgo muy elevado de que eso suceda, y que las que aparezcan podrán mitigarse regulando los aparatos correspondientes. 

Haciéndose eco de varios puntos de vista, han expresado que esta medida puede conducir al desarrollo de una generación nueva de dispositivos que emplee esa parte del espacio radioeléctrico para suministrar accesos a internet. Se espera que esta posibilidad mejore los actuales accesos a través de Wi-Fi, tecnología que tiene una fiabilidad y un alcance más limitados. Hay muchos que hablan de una nueva “Wi-Fi con esteroides“, lo que varios comisionados confían en que pueda hacerse realidad.

Este punto de vista es el defendido por empresas como Google, Hewlett-Packard, Microsoft, Motorola, Dell, Intel, Philips, Samsung…, que se beneficiarán de una ampliación del acceso a internet. Se trata de una posibilidad que lleva estudiándose desde 2004, cuando la evolución hacia la digitalización de la señal de televisión permitió pensar en cómo aprovechar la parte que se liberase del espectro utilizado hasta el momento. Larry Page, uno de los fundadores de Google, ha escrito que:

«As an engineer, I was also really gratified to see that the FCC decided to put science over politics. For years the broadcasting lobby and others have tried to spread fear and confusion about this technology, rather than allow the FCC’s engineers to simply do their work.»

Esquema del gris montado para procesar los datos del LHC

Esquema del grid montado para procesar los datos del LHC susceptible de más aplicaciones (El Periódico 081103)

Pensando en las innovaciones que puedan introducirse a través de sus posibles aplicaciones, he recordado otra noticia del lunes en la prensa española relativa al proceso distribuido de grandes cantidades de datos. Para cuando entrara en funcionamiento el nuevo acelerador de partículas LHC del CERN construido en Ginebra, cuyas primeras pruebas empezaron hace pocas semanas, se ha ido desarrollando una gran infraestructura de computación mallada (grid computing) apoyada en software abierto y estándares de interoperabilidad desde finales de los 90. Es lo que el artículo, que no entra en muchos detalles, titula como la “internet de nueva generación”.

Personalmente no emplearía ese calificativo ya que, entre otros motivos, el gráfico con el que ilustra el concepto se refiere a una red específica destinada sólo a la computación intensiva. Además de la ingente cantidad de datos del Gran Colisionador de Hadrones, que hay que almacenar y procesar sobre la marcha, hay otras aplicaciones que se beneficiarán de la nueva forma de hacer computación distribuida o paralela. Entre ellas podemos considerar la observación astronómica, la monitorización y cuidado de la salud, la investigación farmacéutica, las maquetas en ingeniería y arquitectura, el modelado y simulación aerodinámica, la predicción meteorológica, las finanzas, etcétera. En resumen, las aplicaciones del High Performance Computing (HPC), que antes requerían de computadores o técnicas muy específicas y costosas, ahora pueden ejecutarse en redes de servidores, terminales, dispositivos y sensores donde se haya instalado un middleware adecuado.

Considero que este enfoque conduce más a la llamada “internet de las cosas”. En cualquier caso, entiendo que la combinación de las nuevas formas de conectar los ordenadores grandes y pequeños, incluyendo los minúsculos, con las telecomunicaciones de gran ancho de banda sin cable (wireless broadband), nos permitirá pensar en una generación diferente de aplicaciones de internet.

A corto plazo, como comenta Diego Mariño de Abiquo en El Periódico y en su blog, una buena parte de las aplicaciones de la tecnología grid, o de «computación en la nube», se quedarán posiblemente dentro de las organizaciones por cuestiones de privacidad. Entiendo que en esas condiciones se perderán algunas ventajas importantes de la compartición de datos, pero creo que este asunto se escapa ya del alcance de esta reflexión sobre pasos hacia el futuro de internet.

Opino que la conectividad e interacción de ésta determinará que la audiencia se vaya desplazando y que la televisión tradicional se quede con más “espacios en blanco”.

Entradas relacionadas: Confianza en la nube, Red como computadora

Posted in computación | Etiquetado: , , , , , | 5 Comments »

Terminales ubicuos para navegar

Posted by josempelaez en Miércoles, 10 septiembre 2008

El mayor seguimiento de los estándares de navegación en la web que va a promover la nueva herramienta Chrome de Google facilitará el abaratamiento y ubicuidad de terminales de acceso. Ello comportará otros beneficios adicionales, sobre todo a medida que se incremente la actividad en la «mobile web» que, además de una cierta conveniencia de uso, también promueven las operadoras de telecomunicaciones.

Siguiendo con mis apreciaciones del lunes pasado, voy a introducir otras más relacionadas con el impacto de Chrome en el terreno de los terminales y la ubicuidad en el acceso a las aplicaciones y demás contenidos de la web.

ubiquitous_computing

La computación ubícua todavía se relaciona más con el empleo de sensores y dispositivos embebidos que con los terminales móviles

Terminales

Si los navegadores fueran cada vez más estándar (menos diferentes y con comportamientos independientes del terminal cliente), los proveedores de contenidos y de servicios de software (SaaS) podrían trasladar esfuerzos de desarrollo desde la resolución de problemas técnicos hacia la mejora de las funcionalidades y «experiencias de usuario».

Unos terminales de navegación más orientados a procesar eficientemente la parte de presentación de las aplicaciones web permitirán reducir el consumo de energía, correr menores riesgos de pérdida de información, incrementar su economía y difusión… Ello realimentará el círculo virtuoso del uso de la plataforma web y el incremento de los servicios de «computación en la nube» que no requieren potencias significativas en el cliente, sino factores de forma y usabilidad adaptados a cada empleo y circunstancia. El enfoque tan integrado de Apple no es el único posible para diferenciarse en los productos hardware.

El que la lógica y los datos de las aplicaciones no estén en los dispositivos abre la puerta a beneficios que considero aún más interesantes. La mayor disponibilidad de terminales sencillos en manos de los usuarios —y de sensores automáticos integrados en los sistemas industriales y comerciales— permitirá capturar los datos sólo una vez, en el momento, lugar y por el agente más relevante, ya sea una persona o un artefacto (como los de la foto). De esta manera se mejorará la precisión, puntualidad y plenitud de los datos, materia prima de todo tratamiento que busque obtener buena información y mejor conocimiento, especialmente en los mercados empresariales.

Otros beneficios derivarán de la mayor posibilidad de conectar muchos más dispositivos entre sí, y con los servidores situados en “la nube” para la transmisión y computación de datos. La aplicación de tecnologías grid/ ubiquitous/ real-time computing y las wireless sensor/ mesh networks llevarán a poder materializar el concepto de la «internet de las cosas». Un relevante efecto adicional está relacionado con las nuevas aplicaciones que saquen más partido de la agregación de datos en la red de forma directa y sincrónica. El tratamiento específico de este último aspecto lo dejo para el apartado de aplicaciones, que abordaré en otra entrada.

asuspc900

Navegando en un Asus PC900 netbook (Foto Trusted Reviews)

Ubicuidad

Hay quienes olvidan con demasiada frecuencia que el número de PCs de sobremesa es pequeño comparado con el total de dispositivos ya que va creciendo el número de accesos a la llamada «mobile web». Aparte de los omnipresentes intentos desde el TV y sus set-top-boxes (“cajas” que se van metiendo dentro), la realidad es que se va accediendo más a los contenidos desde terminales muy portátiles.

Entre los últimos hay que destacar los modernos smartphones (de RIM, Apple, HTC, Nokia, LG…) y netbooks con 3G interno o externo (de Asus, Acer, LG, Samsung, HP, Dell…). En este rango de productos hay quienes se dejan llevar por la tendencia a “subir” el nivel entrando en el campo de los notebooks, pero también los hay que apuestan por la ligereza y rapidez de respuesta (SSD, Linux) sin sacrificar la usabilidad (teclado, pantalla 9-10″).

Algunos de estos dos tipos de terminal versátil están, o estarán, subvencionados por las operadoras con contratos de permanencia. Además, y opino que con mejores perspectivas, podrán beneficiarse de los planes de datos que van introduciendo los que compiten en el terreno de las «redes celulares» y accesos WLAN/WMAN (Wi-Fi, WiMAX, huecos bandas TV…).

No puedo dejar de referirme a otros movimientos, como el de Amazon, que ha lanzado ya su tienda de video on-demand accesible desde un navegador estándar y los aparatos de TV Bravia de Sony. En este campo, Yahoo e Intel se han aliado recientemente para ofrecer diversos contenidos en los TV de alta definición. El navegador del iPhone va ganando terreno en las adaptaciones de formato de contenidos y accesos web. Google ha anunciado la próxima aparición de Chrome para Mac y Linux. No hay que tener bola de cristal para anticipar el navegador que equipará los terminales móviles de la Open Handset Alliance (Android).

Si todos los terminales van incrementando su capacidad de acceder de manera estándar a unos contenidos en aumento, ¿qué pasará en esa trastienda donde se generan: los programas que gobiernan el comportamiento de las aplicaciones en la plataforma web? Seguiré…

Actualización. Enrique Dans publicó ayer una entrada sobre «La consolidación y el futuro del mercado del netbook» en la que habla del riesgo de mezclar ambas categorías de “books“. Aunque no se diga allí, creo que Intel también ha querido catalogar los netbooks como Mobile Internet Devices en lugar de Ultra Mobile PCs para evitar esa confusión de expectativas. Sin embargo, ello no resulta fácil dado el origen de la aparición en el mercado de este tipo de aparatos (proyecto OLPC de Negroponte).

Entradas relacionadas: Navegar por las aplicaciones, Computadoras sin margen

Posted in computación, software | Etiquetado: , , , , , , , , | 1 Comment »