JuicyScore logo
25 de marzo de 2026Opiniones de expertos

LLM en la prevención del fraude y la gestión del riesgo: tecnologías, expectativas y limitaciones reales

LLM en la prevención del fraude y la gestión del riesgo: tecnologías, expectativas y limitaciones reales
El hype de los LLM frente a la realidad de la gestión del riesgo arrow

La inteligencia artificial continúa transformando el panorama tecnológico a un ritmo sin precedentes. Una de sus direcciones más influyentes —los modelos generativos y los modelos de lenguaje a gran escala (LLM)— ya está redefiniendo la búsqueda, el desarrollo de software, los medios y los servicios dirigidos al cliente. En la gestión del riesgo digital, estas tecnologías comienzan a mejorar la productividad de los analistas, acelerar las investigaciones y facilitar la comprensión de patrones complejos de fraude. Esto abre una nueva etapa en el desarrollo de la IA, con el potencial de generar avances significativos.

La IA ya está aportando valor tangible en la prevención del fraude y la gestión del riesgo. Esto va más allá de modelos individuales y abarca todo el ecosistema: procesamiento de datos, automatización de procesos, eficiencia de los analistas y velocidad de investigación. La IA permite a las organizaciones procesar grandes volúmenes de información con mayor rapidez, identificar patrones y mejorar la calidad de las decisiones.

Al mismo tiempo, es importante distinguir entre el progreso general de la IA y el foco actual del mercado en los modelos generativos y los LLM. Hoy, los LLM se han convertido en una tendencia tecnológica central y, con frecuencia, se perciben como una solución universal para una amplia gama de casos de uso. Sin embargo, en el contexto de la gestión del riesgo, estas expectativas requieren una perspectiva más pragmática y realista.

El valor real de los LLM hoy radica principalmente en mejorar la productividad humana, automatizar tareas complejas y trabajar con datos no estructurados —no en tomar decisiones de riesgo de forma directa ni en asumir la responsabilidad de estas. Al analizar su papel en la prevención del fraude, es fundamental separar las aplicaciones prácticas de las expectativas del mercado.

También es importante reconocer que los sistemas de gestión del riesgo se construyen en torno a procesos auditables, infraestructura, datos y, de forma crítica, señales y variables de riesgo explicables. Los requisitos de interpretabilidad, control y validación estadística reproducible determinan en gran medida la arquitectura de estos sistemas.

El hype de los LLM frente a la realidad de la gestión del riesgo

Se ha generado una fuerte ola de entusiasmo tecnológico en torno a los LLM. En los últimos dos años, la IA se ha convertido en una de las narrativas dominantes de la industria tecnológica. Casi cualquier nueva solución —desde plataformas de atención al cliente hasta sistemas de seguridad— se presenta como impulsada por IA. Los modelos generativos se han convertido en un símbolo de progreso tecnológico, y las expectativas a menudo superan significativamente las capacidades reales.

La industria de la prevención del fraude no es una excepción. Con el auge de ChatGPT, Claude, DeepSeek, Grok y Gemini, crece la percepción de que estas tecnologías pueden detectar fraude automáticamente con una precisión casi perfecta mediante el análisis de grandes volúmenes de datos. Esta narrativa está activamente reforzada por el mercado.

Sin embargo, la arquitectura de los sistemas de gestión del riesgo es fundamentalmente distinta. En su núcleo se encuentran señales y variables que describen el comportamiento del usuario, las características del dispositivo y el contexto de la transacción. Estas constituyen la capa informativa sobre la que operan los modelos analíticos.

La creación de nuevas variables de alta calidad es un desafío de ingeniería especializado. Estas variables pueden capturar el comportamiento del dispositivo, la infraestructura de red, los patrones de usuarios virtuales, la presencia de malware o señales agregadas de actividad. Sin esta capa, incluso el modelo más avanzado tiene un valor práctico limitado.

Históricamente, el progreso en la prevención del fraude no ha estado impulsado solo por nuevos modelos, sino principalmente por la aparición y la calidad de nuevas variables informativas. Estas son las que permiten a los sistemas distinguir con mayor precisión entre comportamientos legítimos y fraudulentos.

Modelos generativos y el problema de la explicabilidad

Los modelos generativos, incluidos los sistemas tipo GPT, se entrenan con grandes volúmenes de datos textuales y están optimizados para trabajar con información no estructurada.

La gestión del riesgo, en cambio, se basa en variables estructuradas, relaciones estadísticas estrictas y datos de entrada de alta calidad. Los modelos generativos no producen automáticamente variables de riesgo validadas ni estadísticamente significativas, ni garantizan el nivel de calidad y fiabilidad de los datos requerido para la toma de decisiones financieras.

Las decisiones en sistemas financieros deben ser explicables —tanto por requisitos regulatorios como por necesidades operativas reales. Bancos y empresas fintech operan en entornos regulados donde es esencial comprender los factores detrás de cada decisión.

Los modelos modernos de redes neuronales (incluidos, entre otros, los LLM) generan representaciones latentes de los datos —capas y embeddings (representaciones vectoriales)— sin exponer la estructura original de la información. Estas representaciones permiten la generalización, pero suelen ser opacas y difíciles de interpretar. Cuando se utilizan como base para la toma de decisiones, explicar su lógica se vuelve extremadamente complejo, salvo en enfoques emergentes como las redes KN.

Esto conduce a una limitación fundamental: los reguladores exigen variables y metodologías que puedan ser probadas, validadas, interpretadas y auditadas. Las representaciones opacas no cumplen con estos requisitos, lo que limita significativamente su aplicabilidad en sistemas de gestión del riesgo.

Dónde los LLM aportan valor real en la gestión del riesgo

A pesar de estas limitaciones, los modelos generativos pueden aportar valor significativo dentro de la infraestructura de análisis antifraude. Su papel principal no es la toma de decisiones, sino la mejora medible de la productividad y la velocidad al trabajar con grandes volúmenes de información durante investigaciones complejas.

En los equipos modernos de fraude, analistas, ingenieros y gestores de riesgo procesan diariamente grandes volúmenes de datos: logs, transacciones, descripciones de casos, documentación técnica e inteligencia externa sobre nuevos esquemas de fraude. En este contexto, los LLM actúan como herramientas avanzadas de productividad.

Hoy en día, los casos de uso prácticos incluyen:

  • acelerar investigaciones manuales mediante la agregación automatizada de casos, logs e historiales de transacciones;
  • asistir a los analistas en la investigación de nuevos esquemas de fraude y la recuperación de información relevante basada en patrones predefinidos;
  • generar informes analíticos y documentación utilizando plantillas estructuradas;
  • procesar datos no estructurados, como comunicaciones de usuarios;
  • apoyar flujos de trabajo de ingeniería, incluyendo generación de código, pruebas y documentación.

En estos escenarios, los LLM funcionan como multiplicadores de capacidad para los equipos operativos.

Limitaciones fundamentales de los LLM en la gestión del riesgo y la prevención del fraude

A pesar del rápido avance, existen varias limitaciones estructurales que hacen que el uso de LLM en la gestión del riesgo sea mucho más complejo de lo que suele presentarse.

1. Calidad y fiabilidad de los datos

Los LLM se entrenan principalmente con datos de código abierto, que son inherentemente heterogéneos y pueden contener información incompleta, desactualizada o incorrecta. Como resultado, los modelos pueden generar respuestas plausibles pero erróneas —conocidas como alucinaciones (errores plausibles pero incorrectos).

Aunque esto puede ser aceptable en muchos casos de uso de consumo, en la gestión del riesgo representa un problema crítico, ya que las decisiones afectan directamente a las operaciones financieras y al acceso de los usuarios.

2. Alucinaciones sistémicas

Más allá de errores puntuales, las alucinaciones sistémicas pueden representar riesgos significativos. Los LLM se basan en arquitecturas de aproximación con mecanismos probabilísticos de predicción de tokens y no ofrecen control de errores al nivel requerido para sistemas críticos.

Actualmente, estos modelos no garantizan convergencia en probabilidad ni control de errores al nivel necesario para acotar riesgos y evitar fallos sistémicos. Además, trabajar con distribuciones no estándar —como aquellas con colas pesadas o eventos raros, muy comunes en sistemas antifraude— resulta especialmente complejo en arquitecturas neuronales y requiere un rediseño significativo de los enfoques tradicionales.

En consecuencia, estos riesgos deben gestionarse mediante supervisión humana o mediante métodos basados en estadística aplicada y probabilidad, lo que impacta tanto en el coste como en la velocidad de decisión.

3. Asimetría entre defensa y capacidades de fraude

El avance tecnológico fortalece tanto a los sistemas defensivos como a los atacantes. La accesibilidad de los LLM reduce significativamente las barreras para ejecutar ciberataques sofisticados.

Los grupos de fraude ya utilizan estas tecnologías para automatizar campañas de phishing, generar código malicioso, diseñar escenarios de ingeniería social y escalar operaciones. En muchos casos, la evolución de estas herramientas avanza más rápido que la capacidad de adaptación de los sistemas defensivos.

Esto crea una asimetría fundamental: los atacantes operan con velocidad y experimentación, mientras que los sistemas antifraude deben cumplir requisitos estrictos de precisión, cumplimiento y auditabilidad.

4. Responsabilidad en la toma de decisiones de riesgo

Las instituciones financieras asumen responsabilidad legal y operativa por las decisiones de sus sistemas de riesgo. Acciones como bloquear transacciones o denegar servicios deben ser justificables y explicables.

En distintas jurisdicciones, los marcos regulatorios imponen requisitos estrictos sobre las tecnologías utilizadas en prevención del fraude, incluyendo certificaciones de calidad, seguridad y gobernanza.

Los LLM aún no ofrecen el nivel de previsibilidad y reproducibilidad requerido. Incluso pequeñas tasas de error son inaceptables a gran escala.

5. Riesgos de seguridad

La integración de LLM en infraestructuras financieras introduce nuevas categorías de riesgo, incluyendo fugas de datos, ataques de prompt injection, manipulación de modelos, vulnerabilidades embebidas e influencia externa sobre los resultados.

En entornos que procesan transacciones financieras, datos de identidad y señales de fraude, estos riesgos requieren estrategias de implementación extremadamente rigurosas.

6. Limitaciones económicas

Los sistemas antifraude modernos operan bajo alta demanda, procesando millones de eventos en tiempo real. Aplicar LLM en estos entornos puede incrementar significativamente los costes.

Evaluar un solo evento puede requerir desde miles hasta más de un millón de tokens, dependiendo del volumen de datos. Esto hace que el uso de LLM para evaluación de riesgo sea económicamente ineficiente a gran escala.

Para que los LLM sean viables a nivel operativo, el coste computacional debería reducirse entre 10 y 50 veces por solicitud.

7. Rendimiento y latencia

Los entornos de alta demanda requieren procesar miles o millones de solicitudes por segundo con tiempos de respuesta inferiores a un segundo.

Los sistemas actuales basados en LLM suelen operar con latencias que van de segundos a minutos incluso bajo cargas moderadas. Alcanzar los niveles requeridos implicaría inversiones significativas en infraestructura, aumentando aún más los costes operativos.

El futuro de los LLM en la gestión del riesgo

En los próximos años, la IA generativa se convertirá en una parte integral de los sistemas de fraude y gestión del riesgo. Su papel principal será mejorar la productividad de los analistas, acelerar el procesamiento de datos y optimizar el trabajo con información no estructurada.

Dadas las limitaciones estructurales de los LLM, es probable que la demanda crezca en tres áreas clave:

  • soluciones LLM específicas, ligeras y desplegables (on-premise), con código auditable y datos de entrenamiento controlados;
  • frameworks de LLM de código abierto y personalizables (incluyendo arquitecturas RAG), que permitan una adaptación más segura a requisitos regulatorios y de control de datos;
  • uso de LLM como componentes dentro de sistemas de IA más amplios, donde automatizan procesos complejos cuyo coste supera significativamente el coste de su implementación.
Share this post

Vea cómo detectamos el fraude antes de que ocurra — Reserve su sesión con un experto

  • list marker

    Véalo en acción con un experto real

    Reciba una sesión en directo con nuestro especialista, quien le mostrará cómo su negocio puede detectar fraudes en tiempo real.

  • list marker

    Descubra información real de dispositivos

    Vea cómo las huellas únicas de los dispositivos le ayudan a vincular usuarios recurrentes y distinguir clientes reales de estafadores.

  • list marker

    Comprenda escenarios comunes de fraude

    Conozca las principales tácticas de fraude en su mercado — y vea cómo puede bloquearlas.

Nuestros contactos:

Las marcas líderes confían en JuicyScore:

robocash
id finance
tabby

Póngase en contacto con nosotros

Nuestros expertos le contactarán a la brevedad.