Páginas

jueves, 10 de mayo de 2012

[DISTRIBUIDOS Y PARALELOS] Grids computacionales


Un problema donde tipicamente se necesita de una potencia de cálculo y almacenamiento es por ejemplo en el acelerador/colisionador de particulas, cada colisión genera 1 megabyte de informacion, y se generan 100 megabytes de información cada minuto de informacion no trivial. Un a comutadora comun solo puede tratar máximo 1 terabyte con la actual tecnología. A largo plazo, el acelerador generará 10 petabytes de información, aproximadamente 20 km de cd's completamente llenos de información.

La potencia de cálculo y el almacenamiento necesario para este problema es absolutamente inabordable en
un único nodo. Se ha estimado que harían falta 100.000 procesadores de ultimísima generación. A lo que el SERN solo dispone de 1000 procesadores con 1 petabyte de almacenamiento. Conseguir una mayor potencia de cálculo, almacenamiento, aprovechamiento de recursos, etc. combinando los recursos computacionales de varias organizaciones.


Esto, en esencia, es la Computación Grid, Un nuevo paradigma de computación distribuida propuesto por Ian Foster y Carl Kesselman a mediados de los 90.



La computación grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una importante revolución.


Caracteristicas:


  • Capacidad de balanceo de sistemas: no habría necesidad de calcular la capacidad de los sistemas en función de los picos de trabajo, ya que la capacidad se puede reasignar desde la granja de recursos a donde se necesite;
  • Alta disponibilidad. con la nueva funcionalidad, si un servidor falla, se reasignan los servicios en los servidores restantes;
  • Reducción de costes: con esta arquitectura los servicios son gestionados por "granjas de recursos". Ya no es necesario disponer de "grandes servidores" y podremos hacer uso de componentes de bajo coste. Cada sistema puede ser configurado siguiendo el mismo patrón.
Desventajas:
  • Recursos heterogéneos: la computación grid debe ser capaz de poder manejar cualquier tipo de recurso que maneje el sistema, si no resultará totalmente inútil.
  • Descubrimiento, selección, reserva, asignación, gestión y monitorización de recursos son procesos que deben controlarse externamente y que influyen en el funcionamiento del grid.
  • Necesidad de desarrollo de aplicaciones para manejar el grid, así como desarrollo de modelos eficientes de uso.
  • Comunicación lenta y no uniforme.
  • Organizativos: dominios de administración, modelo de explotación y costes, política de seguridad...
  • Económicos: precio de los recursos, oferta/demanda...
Concepto de "La Grid"

Pronto, la red Internet podría quedar obsoleta. Ya están desarrollando otra red que será 10.000 veces más rápida que una conexión de banda ancha, y permitirá, por ejemplo, bajarse películas o mandar el catálogo completo con las canciones de los Rolling Stones de Gran Bretaña a Japón en cuestión de segundos.

Esta red, llamada The Grid, tuvo su origen en el mayor laboratorio de investigación en física de partículas a nivel mundial, conocido como CERN, en Suiza. David Britton, profesor de Física de la Universidad de Glasgow, uno de los líderes de la red, dijo que "esta tecnología revolucionará la sociedad". 

Britton sostuvo que este tipo de computación hará que "las futuras generaciones tengan la capacidad para colaborar y comunicarse que las personas mayores como yo no pueden imaginar". La idea de la futura red surgió siete años atrás, cuando los investigadores del CERN se dieron cuenta de que, con el acelerador de partículas que inaugurarán pronto, van a generar tan enorme cantidad de datos que la Internet de hoy podía colapsar.

El concepto de "La Grid" es aún un sueño, solo existen pequeñas grids en empresas o grupos, sin embargo La Grid abarca el uso de todas las computadoras conectadas a una red o pequeñas subgrids.

La grid sin duda sería una herramienta tan poderosa como lo es la internet, pero mucho más rápida, sin embargo el uso de este paradigma, cambiaría algunas cosas.

Sería un servicio más caro que el internet actual, pero tendriamos accesibilidad a una capacidad de cálculo impresionante. Existirían usuarios que controlan el "nucleo" de la grid. Estos usuarios autorizados van a tener acceso a una computadora global capaz de hacer cálculos hasta ahora impensados. Por ejemplo, en medicina podría servir para almacenar bases de datos radiográficos y otros estudios; y luego, a través de métodos de procesamiento de imágenes y de estadísticas, poder dar un mejor diagnóstico a un usuario que les presenta un caso.

1 comentario:

  1. Excelente. Con esto te subo a 8 el lab de esta semana y también te pongo 2 extras en una semana anterior. Te salió bien.

    ResponderBorrar