LLM en la prevención del fraude y la gestión del riesgo: tecnologías, expectativas y limitaciones reales


La inteligencia artificial continúa transformando el panorama tecnológico a un ritmo sin precedentes. Una de sus direcciones más influyentes —los modelos generativos y los modelos de lenguaje a gran escala (LLM)— ya está redefiniendo la búsqueda, el desarrollo de software, los medios y los servicios dirigidos al cliente. En la gestión del riesgo digital, estas tecnologías comienzan a mejorar la productividad de los analistas, acelerar las investigaciones y facilitar la comprensión de patrones complejos de fraude. Esto abre una nueva etapa en el desarrollo de la IA, con el potencial de generar avances significativos.
La IA ya está aportando valor tangible en la prevención del fraude y la gestión del riesgo. Esto va más allá de modelos individuales y abarca todo el ecosistema: procesamiento de datos, automatización de procesos, eficiencia de los analistas y velocidad de investigación. La IA permite a las organizaciones procesar grandes volúmenes de información con mayor rapidez, identificar patrones y mejorar la calidad de las decisiones.
Al mismo tiempo, es importante distinguir entre el progreso general de la IA y el foco actual del mercado en los modelos generativos y los LLM. Hoy, los LLM se han convertido en una tendencia tecnológica central y, con frecuencia, se perciben como una solución universal para una amplia gama de casos de uso. Sin embargo, en el contexto de la gestión del riesgo, estas expectativas requieren una perspectiva más pragmática y realista.
El valor real de los LLM hoy radica principalmente en mejorar la productividad humana, automatizar tareas complejas y trabajar con datos no estructurados —no en tomar decisiones de riesgo de forma directa ni en asumir la responsabilidad de estas. Al analizar su papel en la prevención del fraude, es fundamental separar las aplicaciones prácticas de las expectativas del mercado.
También es importante reconocer que los sistemas de gestión del riesgo se construyen en torno a procesos auditables, infraestructura, datos y, de forma crítica, señales y variables de riesgo explicables. Los requisitos de interpretabilidad, control y validación estadística reproducible determinan en gran medida la arquitectura de estos sistemas.
Se ha generado una fuerte ola de entusiasmo tecnológico en torno a los LLM. En los últimos dos años, la IA se ha convertido en una de las narrativas dominantes de la industria tecnológica. Casi cualquier nueva solución —desde plataformas de atención al cliente hasta sistemas de seguridad— se presenta como impulsada por IA. Los modelos generativos se han convertido en un símbolo de progreso tecnológico, y las expectativas a menudo superan significativamente las capacidades reales.
La industria de la prevención del fraude no es una excepción. Con el auge de ChatGPT, Claude, DeepSeek, Grok y Gemini, crece la percepción de que estas tecnologías pueden detectar fraude automáticamente con una precisión casi perfecta mediante el análisis de grandes volúmenes de datos. Esta narrativa está activamente reforzada por el mercado.
Sin embargo, la arquitectura de los sistemas de gestión del riesgo es fundamentalmente distinta. En su núcleo se encuentran señales y variables que describen el comportamiento del usuario, las características del dispositivo y el contexto de la transacción. Estas constituyen la capa informativa sobre la que operan los modelos analíticos.
La creación de nuevas variables de alta calidad es un desafío de ingeniería especializado. Estas variables pueden capturar el comportamiento del dispositivo, la infraestructura de red, los patrones de usuarios virtuales, la presencia de malware o señales agregadas de actividad. Sin esta capa, incluso el modelo más avanzado tiene un valor práctico limitado.
Históricamente, el progreso en la prevención del fraude no ha estado impulsado solo por nuevos modelos, sino principalmente por la aparición y la calidad de nuevas variables informativas. Estas son las que permiten a los sistemas distinguir con mayor precisión entre comportamientos legítimos y fraudulentos.
Los modelos generativos, incluidos los sistemas tipo GPT, se entrenan con grandes volúmenes de datos textuales y están optimizados para trabajar con información no estructurada.
La gestión del riesgo, en cambio, se basa en variables estructuradas, relaciones estadísticas estrictas y datos de entrada de alta calidad. Los modelos generativos no producen automáticamente variables de riesgo validadas ni estadísticamente significativas, ni garantizan el nivel de calidad y fiabilidad de los datos requerido para la toma de decisiones financieras.
Las decisiones en sistemas financieros deben ser explicables —tanto por requisitos regulatorios como por necesidades operativas reales. Bancos y empresas fintech operan en entornos regulados donde es esencial comprender los factores detrás de cada decisión.
Los modelos modernos de redes neuronales (incluidos, entre otros, los LLM) generan representaciones latentes de los datos —capas y embeddings (representaciones vectoriales)— sin exponer la estructura original de la información. Estas representaciones permiten la generalización, pero suelen ser opacas y difíciles de interpretar. Cuando se utilizan como base para la toma de decisiones, explicar su lógica se vuelve extremadamente complejo, salvo en enfoques emergentes como las redes KN.
Esto conduce a una limitación fundamental: los reguladores exigen variables y metodologías que puedan ser probadas, validadas, interpretadas y auditadas. Las representaciones opacas no cumplen con estos requisitos, lo que limita significativamente su aplicabilidad en sistemas de gestión del riesgo.
A pesar de estas limitaciones, los modelos generativos pueden aportar valor significativo dentro de la infraestructura de análisis antifraude. Su papel principal no es la toma de decisiones, sino la mejora medible de la productividad y la velocidad al trabajar con grandes volúmenes de información durante investigaciones complejas.
En los equipos modernos de fraude, analistas, ingenieros y gestores de riesgo procesan diariamente grandes volúmenes de datos: logs, transacciones, descripciones de casos, documentación técnica e inteligencia externa sobre nuevos esquemas de fraude. En este contexto, los LLM actúan como herramientas avanzadas de productividad.
Hoy en día, los casos de uso prácticos incluyen:
En estos escenarios, los LLM funcionan como multiplicadores de capacidad para los equipos operativos.
A pesar del rápido avance, existen varias limitaciones estructurales que hacen que el uso de LLM en la gestión del riesgo sea mucho más complejo de lo que suele presentarse.
1. Calidad y fiabilidad de los datos
Los LLM se entrenan principalmente con datos de código abierto, que son inherentemente heterogéneos y pueden contener información incompleta, desactualizada o incorrecta. Como resultado, los modelos pueden generar respuestas plausibles pero erróneas —conocidas como alucinaciones (errores plausibles pero incorrectos).
Aunque esto puede ser aceptable en muchos casos de uso de consumo, en la gestión del riesgo representa un problema crítico, ya que las decisiones afectan directamente a las operaciones financieras y al acceso de los usuarios.
2. Alucinaciones sistémicas
Más allá de errores puntuales, las alucinaciones sistémicas pueden representar riesgos significativos. Los LLM se basan en arquitecturas de aproximación con mecanismos probabilísticos de predicción de tokens y no ofrecen control de errores al nivel requerido para sistemas críticos.
Actualmente, estos modelos no garantizan convergencia en probabilidad ni control de errores al nivel necesario para acotar riesgos y evitar fallos sistémicos. Además, trabajar con distribuciones no estándar —como aquellas con colas pesadas o eventos raros, muy comunes en sistemas antifraude— resulta especialmente complejo en arquitecturas neuronales y requiere un rediseño significativo de los enfoques tradicionales.
En consecuencia, estos riesgos deben gestionarse mediante supervisión humana o mediante métodos basados en estadística aplicada y probabilidad, lo que impacta tanto en el coste como en la velocidad de decisión.
3. Asimetría entre defensa y capacidades de fraude
El avance tecnológico fortalece tanto a los sistemas defensivos como a los atacantes. La accesibilidad de los LLM reduce significativamente las barreras para ejecutar ciberataques sofisticados.
Los grupos de fraude ya utilizan estas tecnologías para automatizar campañas de phishing, generar código malicioso, diseñar escenarios de ingeniería social y escalar operaciones. En muchos casos, la evolución de estas herramientas avanza más rápido que la capacidad de adaptación de los sistemas defensivos.
Esto crea una asimetría fundamental: los atacantes operan con velocidad y experimentación, mientras que los sistemas antifraude deben cumplir requisitos estrictos de precisión, cumplimiento y auditabilidad.
4. Responsabilidad en la toma de decisiones de riesgo
Las instituciones financieras asumen responsabilidad legal y operativa por las decisiones de sus sistemas de riesgo. Acciones como bloquear transacciones o denegar servicios deben ser justificables y explicables.
En distintas jurisdicciones, los marcos regulatorios imponen requisitos estrictos sobre las tecnologías utilizadas en prevención del fraude, incluyendo certificaciones de calidad, seguridad y gobernanza.
Los LLM aún no ofrecen el nivel de previsibilidad y reproducibilidad requerido. Incluso pequeñas tasas de error son inaceptables a gran escala.
5. Riesgos de seguridad
La integración de LLM en infraestructuras financieras introduce nuevas categorías de riesgo, incluyendo fugas de datos, ataques de prompt injection, manipulación de modelos, vulnerabilidades embebidas e influencia externa sobre los resultados.
En entornos que procesan transacciones financieras, datos de identidad y señales de fraude, estos riesgos requieren estrategias de implementación extremadamente rigurosas.
6. Limitaciones económicas
Los sistemas antifraude modernos operan bajo alta demanda, procesando millones de eventos en tiempo real. Aplicar LLM en estos entornos puede incrementar significativamente los costes.
Evaluar un solo evento puede requerir desde miles hasta más de un millón de tokens, dependiendo del volumen de datos. Esto hace que el uso de LLM para evaluación de riesgo sea económicamente ineficiente a gran escala.
Para que los LLM sean viables a nivel operativo, el coste computacional debería reducirse entre 10 y 50 veces por solicitud.
7. Rendimiento y latencia
Los entornos de alta demanda requieren procesar miles o millones de solicitudes por segundo con tiempos de respuesta inferiores a un segundo.
Los sistemas actuales basados en LLM suelen operar con latencias que van de segundos a minutos incluso bajo cargas moderadas. Alcanzar los niveles requeridos implicaría inversiones significativas en infraestructura, aumentando aún más los costes operativos.
En los próximos años, la IA generativa se convertirá en una parte integral de los sistemas de fraude y gestión del riesgo. Su papel principal será mejorar la productividad de los analistas, acelerar el procesamiento de datos y optimizar el trabajo con información no estructurada.
Dadas las limitaciones estructurales de los LLM, es probable que la demanda crezca en tres áreas clave:

La gestión de los niveles de aprobación en el crédito en línea es una búsqueda constante de equilibrio entre hacer el crédito más accesible y preservar la calidad del portafolio, en un entorno de información limitada y volátil.

Las tecnologías modernas son cada vez más sólidas y las medidas de seguridad más sofisticadas. Sin embargo, existe una vulnerabilidad que no se puede “parchear”: la confianza humana.

Un artículo experto del Business Development Manager de JuicyScore, con aprendizajes de primera mano sobre la expansión fintech en América Latina. Descubra cómo las señales digitales y la inteligencia de dispositivos están redefiniendo la evaluación de riesgo en entornos con alta incidencia de fraude.
Reciba una sesión en directo con nuestro especialista, quien le mostrará cómo su negocio puede detectar fraudes en tiempo real.
Vea cómo las huellas únicas de los dispositivos le ayudan a vincular usuarios recurrentes y distinguir clientes reales de estafadores.
Conozca las principales tácticas de fraude en su mercado — y vea cómo puede bloquearlas.
Phone:+971 50 371 9151
Email:sales@juicyscore.ai
Nuestros expertos le contactarán a la brevedad.