search
close-icon
Centros de Datos
PlatformDIGITAL®
Partners
Experiencia y recursos
Acerca de Digital Realty
Language
Login
banner
Artículo

Principios fundamentales de la computación de alto rendimiento (HPC)

Autor: Tony Bishop, SVP Enterprise Platform and Solutions, Digital Realty

La computación de alto rendimiento (HPC) es una tecnología diseñada para procesar cantidades masivas de datos aprovechando múltiples nodos o clústeres de computadoras que se ejecutan en paralelo para completar una tarea o una serie de tareas.

En Digital Realty hemos visto recientemente ejemplos de uso de HPC, incluyendo casos como:

  • Meteorología: pronóstico del tiempo.
  • Supercomputadoras que impulsan la innovación en ciencias biológicas.
  • Mapeo genómico para desarrollos en investigación médica
  • Pruebas de semiconductores.
  • Simulaciones complejas y multidimensionales.

Debido al entorno excepcional necesario para la computación de alto rendimiento y la inteligencia artificial (IA), los departamentos IT están implementando infraestructuras distribuidas que eliminan las barreras producidad por el efecto data gravity. El efecto de gravedad de los datos simplemente significa que los datos tienen una atracción gravitacional: a medida que un conjunto de datos crece, atrae aplicaciones y servicios, lo que crea un círculo virtuoso de creación de aún más datos. Para respaldar esta infraestructura distribuida se requieren cuatro bases digitales estratégicas:

  • Red
  • Computación
  • Datos
  • Seguridad

En este artículo nos centramos en cómo la base computacional de HPC impulsa la estrategia y el desarrollo de una infraestructura IT avanzada.

La computación de alto rendimiento permite la transacción, el procesamiento y el análisis de datos distribuidos en una red global. Los gestores IT saben que sus empresas ya producen conjuntos de datos exponencialmente más grandes que nunca, por lo que las organizaciones que dependen de una arquitectura tradicional ponen a su negocio en clara desventaja.

¿Por qué adoptar la computación de alto rendimiento? ¿Por qué ahora?

Las empresas evolucionadas crean arquitecturas de datos, preparadas para la IA y con diseño adaptado para la mayor carga de información. Lo hacen colocando los datos en el centro de la infraestructura IT, llevando a los servicios cloud y a los usuarios hacia los datos en lugar de lo contrario. Esto acelera el procesamiento, análisis y transacción de datos.

Las compañías que adopten esta estrategia se ubicarán delante de su competencia, ya que el crecimiento de los datos es una tendencia inevitable. El informe Worldwide Datasphere de IDC proyecta que los datos aumentarán un 573 % cada año para 2025.¹

Todas las empresas notarán el aumento de los datos, pero serán pocas las que los utilicen de manera eficaz para favorecer a sus organizaciones. Impulsadas por la amplia adopción de tecnología social y móvil, inteligencia artificial/aprendizaje automático (ML) e Internet de las Cosas (IoT), demandarán un entorno informático de alto rendimiento que pueda crear, procesar e intercambiar datos.

Ejemplos de uso corporativo de la computación de alto rendimiento

Se prevé que el crecimiento de los datos, que alcanzará un 573 % cada año en 2025, provenga del uso exponencial de la tecnología empresarial para brindar servicios a los usuarios finales, hacer crecer el negocio y proteger la propiedad intelectual. Los casos de uso que se presentan a continuación señalan las fuentes de crecimiento de los datos y la aplicación de la capacidad informática de alto rendimiento para gestionar ese crecimiento.

  • Inteligencia artificial generativa (GenAI): a medida que aumenta el uso de chatbots en las operaciones internas y externas de las empresas, los datos creados a partir del uso de esta tecnología contienen información relevante y procesable para las empresas que estén preparadas para recibir e interpretar dicha información.
  • Gestión de la cadena de suministro: las empresas con modelos predictivos y de previsión avanzados en sus cadenas de suministro superarán a sus competidores.
  • Transacciones financieras: los analistas predicen que el área de gestión financiera de las empresas seguirá siendo una fuente de expansión de datos.
  • Procesamiento de datos de usuarios específicos regionales: la preocupación por la privacidad de los datos sigue siendo una prioridad para los clientes, y estimula el desarrollo de legislación local, regional y específica de cada país sobre la soberanía de los datos. El procesamiento de datos en el punto de recopilación requiere potencia informática localizada a través de clústeres regionales de HPC.

Estos ejemplos muestran cómo las empresas pueden utilizar una estrategia sencilla para controlar y aprovechar al máximo su crecimiento exponencial de datos.

¿Cuál es la estrategia más adecuada para la computación de alto rendimiento?

A medida que los dirigentes IT empresariales consideran dónde actuar en el espacio HPC y cómo triunfar, surgen algunas consideraciones sobre la estrategia. La clave para el desarrollo estratégico en HPC es la conversión de la arquitectura IT tradicional en una arquitectura moderna para HPC.

Las arquitecturas tradicionales colocan aplicaciones, capacidad y datos en las nubes, lo que aumenta la latencia y la gravedad de los datos. Las arquitecturas preparadas para datos e IA colocan zonas de intercambio de datos entre las nubes y el borde o edge.

Estas zonas de intercambio de datos permiten a las empresas controlar y aprovechar los datos para lograr agilidad y una toma de decisiones basada en datos. Igualmente importante, las zonas de intercambio de datos facilitan la conexión de activos digitales corporativos a nivel global, lo que reduce la exposición a riesgos de soberanía de datos y acelera el acceso a la información.

Las zonas de intercambio de datos contienen redes, computación, seguridad y datos como bases digitales que funcionan localmente. Para ganar en eficiencia, las empresas se asocian con proveedores de servicios de colocation que pueden cubrir sus requisitos y poseen una sólida estructura de conectividad, proporcionando acceso rápido a sus proveedores de servicios.

Fundamentos de la infraestructura digital

Figura 1: Digital Realty, Pervasive Datacenter Architecture (PDx)®, 2021

A medida que nos enfocamos hacia el cuadrante de computación de la zona de intercambio de datos, podemos observar tanto los riesgos como los beneficios de una infraestructura preparada para los datos y la IA.

Los riesgos de no implementar HPC incluyen:

  • Gastos de capital innecesarios.
  • Diferentes funciones de cargas de trabajo anulan los ahorros en costes de infraestructura de implementaciones de carga de trabajo híbridas y multicloud.
  • Innovación lenta y obstáculos internos a las oportunidades de avance.

Las recompensas de las infraestructuras de HPC:

  • Un sistema que otorga a la empresa el control total de la tendencia al alza de creación de datos.
  • Menor exposición a multas por soberanía de datos.
  • Pronta identificación de las preferencias de la industria y de los clientes y la capacidad de capitalizarlas rápidamente.

Las empresas deberían alojar sus aplicaciones en sus propias instalaciones o a través de un servicio especializado de colocation, a la vez que optimizan las cargas de trabajo y escalan las soluciones de HPC.

La razón para adoptar esta estrategia se basa en que para 2025, los servidores informáticos empresariales globales tendrán un valor total de 15,3 millones de dólares, y la gran mayoría serán servidores que no están en la nube, según el Data Gravity Index™ 2.0.

Índice de gravedad de datos 2.0

Figura 2: Datos Gravity Index™ 2.0 , junio de 2023

La mayoría de las empresas pronto procesarán los datos de sus aplicaciones en sus propios servidores. La clave para ganar la carrera es saber cómo escalar rápidamente a un menor costo. Los centros de datos ayudan a las empresas inteligentes a dar el salto.

Además, la mayoría de los datos se crean y utilizan fuera de la nube pública, según el informe Data Gravity Index™ 2.0 Esto revela la necesidad de una arquitectura híbrida de múltiples servicios cloud para gestionar grandes volúmenes y escalas de datos.

Resumen de los fundamentos de la infraestructura digital

Con la computación HPC, las empresas pueden escalar el procesamiento de grandes cantidades de datos a través de clústeres HPC e interconexiones confiables y optimizadas para HPC. El resultado es un sistema para realizar transacciones, procesar datos y permitir una toma de decisiones rápida.

Un factor indispensable para el diseño de la infraestructura IT es contener la complejidad en todos los puntos del proceso de diseño. El lado computacional de la zona de intercambio de datos puede crear complejidades a medida que los datos se expanden. Las soluciones previamente integradas ofrecen sistemas probados y confiables sobre los cuales construir una infraestructura digital preparada para datos e IA.

La computación es una de las cuatro bases de la infraestructura digital. Las otras incluyen:

  • la red, para conectar datos, usuarios y aplicaciones localmente;
  • la seguridad, para proteger todo el diseño de la infraestructura;
  • y los datos, para implementar la localización de conjuntos de datos y el intercambio seguro de datos.

    Descubre más sobre las cuatro bases de la infraestructura digital y cómo pueden transformar tu recorrido hacia la computación de alto rendimiento descargando nuestro eBook Data and AI Ready.

    ¹IDC, IDC Global DataSphere Forecast, 2023 2027: Es una DataSphere distribuida, diversa y dinámica (3D), abril de 2023

Tags