JBS Dev aborda uno de los mitos más comunes en el uso de sistemas de inteligencia artificial generativa y agente: la idea de que los datos deben ser perfectos antes de comenzar cualquier trabajo con estas tecnologías. Joe Rose, presidente de esta empresa de tecnología estratégica, aclara que esta creencia es errónea. En un artículo reciente de AI Fieldbook, se sugiere que se requieren enormes lagos de datos y programas de transformación de datos que tomen años, lo que deja a muchos ejecutivos confundidos.

La realidad es más optimista. Rose sostiene que “las herramientas para manejar datos de mala calidad son mejores que nunca”. De hecho, destaca que un modelo de lenguaje grande (LLM) puede comprender incluso un aviso mal redactado. “Si tenés una herramienta así, es inteligente aprovecharla, siempre y cuando se implementen las medidas de seguridad adecuadas”, afirma.

La naturaleza impredecible de estos modelos implica que es necesario gestionar resultados erróneos, lo que introduce la figura del ser humano en el proceso. Rose menciona que, en el ámbito de datos textuales o categóricos, existe una resiliencia que permite trabajar con datos imperfectos. “La gente suele pensar que ‘lo construimos, funciona y nos olvidamos’”, dice. “Eso no es así con estos sistemas”.

Un ejemplo que da Rose proviene del sector médico, donde un cliente necesitaba migrar a un nuevo sistema de reconciliación de facturas. Los registros estaban mezclados; algunos eran PDFs, otros imágenes, y los nombres de los procedimientos a veces estaban en el nombre del médico, mientras que el nombre del médico aparecía en el nombre del paciente. La inteligencia artificial generativa logró identificar los datos limpios a partir de un simple aviso, utilizando reconocimiento óptico de caracteres (OCR) para las imágenes y extracción de texto de los PDFs. Posteriormente, se emplearon enfoques más complejos, como comparar un registro de cliente con un contrato de seguro para verificar si se facturó la tarifa correcta.

“Se empieza a superponer diferentes casos de uso”, explica Rose. “No quiero dar la impresión de que todo se hace a la perfección; aún se necesita un humano en el proceso. Pero el objetivo es comenzar con un 20% de automatización, luego un 40%, y así sucesivamente, hasta llegar al 80%”.

De cara al futuro, Rose anticipa que las discusiones sobre estos modelos se centrarán en el costo y la portabilidad. “Vamos a ver un cambio de enfoque, alejándonos de los saltos radicales en la capacidad del modelo, hacia cómo hacemos que el costo sea más sostenible, evitando construir centros de datos a la velocidad actual”, indica. “La última milla es cómo hacer que estos modelos funcionen en una laptop o un teléfono, en lugar de depender de un centro de datos”. Los modelos fueron entrenados con una vasta cantidad de datos, esencialmente cada página de internet y otros contenidos. “No hay tanta más información que no se haya incluido que pueda generar un avance significativo”, agrega.

En el evento AI & Big Data Expo, donde participa JBS Dev, Rose espera mantener conversaciones fructíferas. Una opinión provocadora que planea compartir es que la gente debería dejar de comprar a proveedores de software como servicio (SaaS) cuando pueden hacerlo por su cuenta. “No es tan complicado como parece”, dice. “Casi todos tienen algún tipo de presencia en la nube, y ahí es donde comenzaría, porque las herramientas en la nube, especialmente de los tres grandes, tienen todo lo necesario para implementar cargas de trabajo de inteligencia artificial generativa sin necesidad de nuevas licencias de software ni formación adicional”. Una vez que eso esté en marcha, JBS Dev estará listo para acompañar en los siguientes pasos del proceso.