En el marco de la próxima AI & Big Data Expo, que se llevará a cabo en el Centro de Convenciones McEnery de San José los días 18 y 19 de mayo, tuvimos la oportunidad de dialogar con Jerome Gabryszewski, Gerente de Desarrollo de Negocios de AI y Ciencia de Datos de HP. Durante la charla, abordamos temas cruciales como la inteligencia artificial, el procesamiento de datos para su ingestión y la comparación entre computación local y en la nube.
El mundo tecnológico suele afirmar que los datos son “el nuevo petróleo”, pero la realidad es que, a pesar de contar con abundante información de primera mano, aprovecharla efectivamente para el beneficio del negocio puede resultar complicado, especialmente a gran escala. Las empresas enfrentan decisiones difíciles: ¿deben optar por un modelo de AI alojado en la nube o utilizar computación local? ¿Cómo pueden organizar su “casa de datos” para que los modelos inteligentes generen resultados significativos?
Gabryszewski señala que uno de los principales puntos de fricción que observan es la subestimación de la deuda organizacional y arquitectónica que poseen las organizaciones en relación a sus datos. Antes de que la automatización pueda implementarse, deben reconciliar la propiedad fragmentada de datos entre departamentos, las inconsistencias en los esquemas de los sistemas y la infraestructura heredada que nunca fue diseñada para la interoperabilidad. En muchos casos, el esfuerzo técnico necesario para la automatización es menor que el trabajo de gobernanza e integración que debe realizarse previamente.
Además, el ejecutivo advierte que cuando los modelos de AI comienzan a actualizarse de manera continua, pueden surgir riesgos significativos. Para gestionar problemas como el concept drift y la contaminación de datos, aconsejan a sus clientes que traten las actualizaciones de modelos de la misma forma en que manejan las implementaciones de código. Esto significa que ningún modelo se pone en producción sin pasar por una puerta de validación. En el caso del drift, se requieren pipelines de MLOps con detección automatizada de drift y disparadores que involucren a humanos antes de que se inicie el reentrenamiento. En cuanto a la contaminación de datos, es fundamental conocer el origen de los datos de entrenamiento y quién puede acceder a ellos.
Gabryszewski también hace hincapié en la importancia de las raíces de hardware de HP. Explica que un workstation moderno debe ser capaz de manejar la complejidad de un ciclo de vida de AI autónomo. La serie Z de HP ha sido diseñada específicamente para satisfacer las demandas del cómputo profesional durante más de 15 años. Para las necesidades de AI, no se trata de una única máquina, sino de un espectro de opciones. Por ejemplo, el ZBook Ultra y el Z2 Mini son capaces de ejecutar modelos locales y flujos de trabajo pesados simultáneamente.
Una de las innovaciones más sorprendentes es el ZGX Nano, un superordenador de AI que cabe en la palma de la mano, impulsado por el NVIDIA GB10 Grace Blackwell Superchip. Esta máquina puede manejar modelos de hasta 200 mil millones de parámetros localmente, y si se necesita escalar, se pueden conectar dos unidades a través de un interconector de alta velocidad para trabajar con modelos de hasta 405 mil millones de parámetros. Todo esto sin depender de la nube ni de centros de datos.
Además, el Z8 Fury ofrece a los equipos de usuarios avanzados hasta cuatro NVIDIA RTX PRO 6000 Blackwell GPUs en un solo sistema, lo que permite ejecutar todo el ciclo de desarrollo del modelo de forma local. En la cúspide, el ZGX Fury redefine la conversación, al ser capaz de realizar inferencias de billones de parámetros en el escritorio, lo que se traduce en un retorno de inversión en un plazo de 8 a 12 meses en comparación con la computación en la nube.
El punto central de Gabryszewski es claro: el ciclo de vida de AI autónomo plantea problemas de gobernanza y latencia, no de computación. Las empresas no pueden seguir enviando datos sensibles a la nube cada vez que un modelo necesita actualizarse. La cartera de hardware de HP ofrece un camino escalable que acompaña la madurez del flujo de trabajo, desde el escritorio del desarrollador hasta la computación distribuida en las instalaciones.
Por último, el ejecutivo destaca que los costos de computación de Gen AI están aumentando para muchas empresas. La solución práctica para equilibrar estos gastos con la eficiencia moderna de la nube radica en establecer una clara distinción entre el trabajo exploratorio y las cargas de trabajo de producción. Las organizaciones que implementan este enfoque exitosamente utilizan un modelo de tres niveles, donde el trabajo experimental se realiza en hardware local, evitando así el gasto operativo en experimentos sin un camino claro hacia el retorno de inversión.










