OPINIÓN

La elección del desarrollador: Operacionalizar la IA para las empresas



Dirección copiada

A medida que la GenAI se expande, los desarrolladores se están dando cuenta de que los modelos de mayor tamaño no son la única opción para que las empresas liberen el potencial de esta tecnología e impulsen ROI

Publicado el 23 may 2025

Enric Delgado

director de Client Engineering Team de IBM España Portugal Grecia e Israel



desarrollo ia

Los modelos de lenguaje pequeños (SLM)

Aunque en los últimos años se han promocionado las ventajas de los modelos de lenguaje grandes (LLM), los modelos de lenguaje pequeños (SLM) están ganando popularidad.

Con conjuntos de datos más pequeños pero más curados y con menos parámetros, los SLM son más rentables en términos de desarrollo y mantenimiento en comparación con los LLM y mucho más eficientes desde el punto de vista energético. También tienen una latencia más baja y requieren menos potencia de cálculo y espacio de almacenamiento, lo que los hace incluso adecuados para entornos con recursos limitados, como las aplicaciones móviles y los dispositivos periféricos.

Además, los LLM estándar de uso general suelen funcionar como una «caja negra», con una transparencia limitada en cuanto a fuentes de datos y origen, lo que puede plantear problemas de seguridad y fiabilidad a las empresas.

Aprovechar las capacidades del procesamiento del lenguaje natural (PLN) de la IA generativa para crear chatbots, asistentes de voz o agentes de servicio al cliente se ha convertido en una práctica habitual en muchas empresas

ENRIC DELGADO, IBM ESPAÑA, PORTUGAL, GRECIA E ISRAEL

Para los desarrolladores, un modelo más pequeño significa un modelo más personalizable y fácil de usar. Los SLM pueden ajustarse mucho más fácilmente para cumplir requisitos específicos y entrenarse de forma segura con datos propios, permitiendo a las empresas ofrecer soluciones a medida para sus clientes.

Aunque los científicos de datos desempeñan un papel fundamental en la creación, entrenamiento y ajuste de modelos, la clave para liberar el valor real de la IA está en la capacidad del desarrollador para gestionar el ciclo de vida completo de la IA e integrar estos sistemas en entornos complejos. Al ofrecer un punto de partida accesible, los SLM pueden salvar la distancia entre los complejos sistemas de IA y las aplicaciones prácticas del mundo real.

Desde el análisis de series temporales hasta la creación de chatbots seguros, estos son algunos ejemplos de cómo la comunidad de desarrolladores puede aprovechar la flexibilidad de los SLM:

Transformación del servicio de atención al cliente

Aprovechar las capacidades del procesamiento del lenguaje natural (PLN) de la IA generativa para crear chatbots, asistentes de voz o agentes de servicio al cliente se ha convertido en una práctica habitual en muchas empresas. La capacidad de controlar y ajustar los SLMs los convierte en una opción excelente para la mayoría de las interacciones con usuarios, especialmente cuando el dominio de la conversación es específico y bien definido.

La baja latencia de los SLM permite procesar rápidamente las solicitudes, proporcionando respuestas en tiempo real cruciales para mantener conversaciones fluidas e interactivas con aplicaciones de chatbot. Esto es especialmente importante en los escenarios de atención al cliente, donde los tiempos de respuesta rápidos pueden mejorar significativamente la satisfacción del usuario. Además, su capacidad para ejecutarse en servicios locales mejora la privacidad de los datos, lo que las convierte en una opción más segura para manejar datos confidenciales y privados, por ejemplo, relativos a recursos humanos o pagos.

Predicción de series temporales

La previsión de series temporales consiste en predecir los valores futuros de una variable basándose en su comportamiento pasado. Este enfoque se utiliza en finanzas, economía o en la previsión meteorológica. Los modelos fundacionales aplicados a datos de series temporales (datos registrados a lo largo de intervalos de tiempo constantes) pueden ofrecer predicciones deterministas o probabilísticas, al igual que otros métodos tradicionales de previsión estadística.

A pesar de su elevado coste computacional y sus capacidades generales, los casos de uso han demostrado que los LLM preentrenados no superan a los modelos fundacionales pequeños cuando ñestos están bien entrenados y ajustados y se los usa en casos bien definidos.

El Granite TinyTimeMixer (TTM), de código abierto de IBM Research, está diseñado precisamente para este fin. Con menos de un millón de parámetros, el TTM es un modelo preentrenado «diminuto» muy eficaz para la previsión de series temporales con capacidades de aprendizaje por transferencia y entrenado exclusivamente en conjuntos de datos públicos. No solo eso, es un modelo abiertos disponibles para todo el mundo, como lo son el resto de los modelos Granite.

Un buen ejemplo de uso de este tipo de modelos preentrenados es la previsión energética. En un caso de uso reciente, se ajustó un modelo de estas características para predecir la demanda y la generación horarias de energía, entrenado con datos de consumo, generación y condiciones meterológicas durante cuatro años. Para obtener un resultado preciso, el modelo utilizó 512 horas de demanda total de energía y generación solar como datos de entrada, con el fin de prever la demanda y generación correspondientes a las 96 horas siguientes.

Proteger con lo pequeño

Mientras el panorama de los ciberataques evoluciona y se intensifica, el correo electrónico sigue siendo el principal vector de los ciberatacantes. El último informe de IBM X-Force revela que el phishing sigue siendo la principal vía de acceso inicial para los ataques en entornos de nube.

Para proteger a las organizaciones y a los empleados de esta amenaza, los centros de operaciones de seguridad (SOC) deben examinar manualmente las cabeceras de los correos electrónicos para identificar, analizar y notificar posibles mensajes de phishing. Sin embargo, el creciente volumen y sofisticación de los ataques puede provocar retrasos en la detección de amenazas, un uso ineficiente de los recursos y una mayor vulnerabilidad. El uso de modelos pequeños, adaptados a estos casos de uso, son la vía más segura para dar respuesta a esta amenaza que, como decíamos, no hará más que intensificarse en años venideros.

En definitiva, pocas empresas se beneficiarán de la IA generativa si no apoyamos a la comunidad de desarrolladores en hacer operativo el desarrollo de la IA generativa empresarial y facilitamos que estos desarrolladores ajusten esos modelos a lo que realmente necesitan. La entrada al mercado de un mayor número de modelos, que varían desde unos pocos miles de millones de parámetros a cientos de miles, está permitiendo a los desarrolladores tener esa libertad y esa flexibilidad para realizar ajustes que se adapten a casos de uso únicos y desbloqueen el valor real de la IA generativa.

Artículos relacionados

Artículo 1 de 5