La rápida digitalización y generación de datos a nivel mundial requiere de nuevas formas y tecnologías, para capturarlos, almacenarlos, procesarlos y disponibilizarlos en forma eficiente y segura.  Se estima que la capacidad de almacenamiento instalada a nivel mundial llegará a los 6,8 ZB para el año 2020, y crecerá a 8,9 ZB en el 2024. En forma adicional, la relación entre almacenamiento en los puntos finales (celulares, computadores y otros) irá migrando hacia el almacenamiento en centros de datos.

La computación en la nube (cloud computing) es un modelo donde terceras partes proveen servicios de almacenamiento, procesamiento y soluciones de uso flexible; es decir, el uso de recursos es escalable ajustándose a las necesidades en forma dinámica, y con un modelo de pago por uso de recursos. Por lo tanto, en vez de comprar, poseer y mantener infraestructura de TI y centros de datos propietarios, se utiliza el modelo de “pago por uso” accediendo a las tecnologías en estado del arte, así como a los mejores estándares de ciberseguridad, permitiendo un rápido desarrollo, ya que el foco se centra en la solución y nos en las restricciones que imponen las tecnologías e infraestructura propietaria.

La informática de alto rendimiento (HPC) es la capacidad de procesar datos y realizar cálculos complejos a altas velocidades. Para ponerlo en perspectiva, una computadora portátil o de escritorio con un procesador de 3 GHz puede realizar alrededor de 3 mil millones de cálculos por segundo. Si bien eso es mucho más rápido de lo que cualquier ser humano puede lograr, palidece en comparación con las soluciones HPC que pueden realizar miles de millones de cálculos por segundo. Uno de los tipos más conocidos de soluciones HPC es la supercomputadora, herramienta que contiene miles de nodos informáticos que trabajan juntos para completar una o más tareas. Esto se denomina procesamiento paralelo, acción muy similar a tener miles de PC conectadas en red, combinando potencia de cómputo para completar tareas más rápido.

 

AMAZON WEB SERVICES

El Data Observatory tiene como socio fundador a Amazon Web Services (AWS), la empresa líder en el mercado de cloud computing. AWS se lanzó en 2006 desde la infraestructura interna que Amazon.com creó para manejar sus operaciones minoristas en línea. AWS fue una de las primeras empresas en introducir un modelo de computación en la nube de pago por uso, que se escala para proporcionar a los usuarios computación, almacenamiento o rendimiento según sea necesario. En la actualidad AWS ofrece variadas herramientas y soluciones, las cuales están disponibles a través del Data Observatory, entre ellas destacan.

  1. Capacidad de cómputo. Elastic Compute Cloud (EC2) es un servicio que proporciona servidores virtuales, llamados instancias EC2, ofreciendo docenas de tipos de instancias con capacidades y tamaños variables, adaptados a tipos y aplicaciones de carga de trabajo;
  2. Almacenamiento. Simple Storage Service (S3) proporciona almacenamiento escalable de objetos para copias de seguridad, recopilación y análisis de datos; Elastic Block Store proporciona volúmenes de almacenamiento a nivel de bloque para el almacenamiento de datos persistente cuando se utilizan instancias EC2; y Elastic File System ofrece almacenamiento administrado de archivos basado en la nube;
  3. Bases de datos, gestión de datos. El servicio de base de datos relacional, que incluye opciones SQL para Oracle, SQL Server, PostgreSQL, MySQL, MariaDB y Aurora, además de una NoSQL DynamoDB;
  4. Herramientas de desarrollo
  5. Herramientas de analytics