Por qué fallan los modelos de atribución (y qué hay realmente detrás)

Ene 7, 2026

escrito por Antonny Santos (Solutions Architect Lead)

La atribución no es un modelo. Es un sistema.

Muchas conversaciones sobre atribución comienzan con preguntas como: “¿Conviene usar last-click, first-touch o multi-touch?”

Pero esa ya es la pregunta equivocada.

La atribución no se trata de elegir un modelo. Es un problema de diseño de sistema que opera bajo una restricción causal que rara vez se hace explícita. Y no pertenece a una sola disciplina. La atribución vive en el cruce complejo entre analítica de producto, ejecución de marketing, resolución de identidad y gobernanza de datos.

Cuando la atribución falla, rara vez es por haber elegido mal el modelo. Falla porque el sistema no está diseñado para sostener la complejidad que intenta explicar.

Cómo se llegó a este punto

La mayoría de las herramientas de atribución evolucionaron a partir de modelos simples. Modelos como first-click, last-click o lineal fueron desarrollados en un contexto donde los recorridos eran más cortos, los datos más imprecisos y los puntos de contacto, menos numerosos.

A medida que los recorridos de usuario se volvieron más complejos y multicanal, los equipos comenzaron a incorporar más datos y modelos más sofisticados, como la atribución algorítmica o basada en datos.

Sin embargo, incluso los modelos más avanzados siguen basándose en una suposición defectuosa: que lo observable puede explicar de manera directa lo que causó una acción. Los modelos ganaron complejidad, pero los problemas de base permanecieron intactos.

Y así, la atribución comenzó a fallar de formas más sutiles y costosas.

La verdadera limitación: observación vs. intervención

La mayoría de los sistemas de atribución se basan exclusivamente en datos observacionales. Se registra que una persona fue expuesta a una campaña, y luego se observa una conversión. Se construye una secuencia de eventos y se intenta inferir significado.

Pero la pregunta que realmente importa —«¿Vale la pena seguir invirtiendo aquí?»— no es observacional. Es contrafactual. En otras palabras:

¿Qué habría ocurrido si esa exposición no hubiese existido?

Eso es una pregunta de intervención. Y la distinción es crucial.

En términos formales, los modelos de atribución suelen trabajar con fórmulas como:

P(Y∣X)

Donde X representa la exposición, y Y el evento de conversión. Pero lo que se intenta responder en realidad es algo más cercano a:

P(Y∣do(X))

El operador do(·) indica una intervención: una acción que modifica deliberadamente el sistema, sin depender del comportamiento, intención o contexto del usuario.

La diferencia entre P(Y∣X) y P(Y∣do(X)) no es una cuestión de herramientas. Es una propiedad inherente a los sistemas causales. Todos los modelos de atribución —desde last-click hasta multi-touch o basados en datos— son intentos aproximados (y generalmente fallidos) de cerrar esa brecha.

La mayoría de las plataformas ni siquiera reconocen esta diferencia. Simplemente la ocultan detrás de ponderaciones.

¿De dónde proviene el concepto “do(X)”?

Surge del campo de la inferencia causal, particularmente del trabajo de Judea Pearl. En términos simples, los datos observacionales muestran lo que ocurrió. Pero las preguntas causales exigen imaginar qué habría pasado si se hubiera cambiado una sola variable.

Las herramientas de atribución intentan responder preguntas causales con datos observacionales. Sin embargo, sin experimentos controlados (donde se manipula de manera deliberada la exposición), no es posible aislar causa y efecto con certeza. Ese es el verdadero desafío. No se trata de una falla en la herramienta, sino de una limitación en el diseño del sistema.

Por qué falla la atribución en la práctica

Esta limitación causal se amplifica con tres problemas estructurales que aparecen en casi todos los contextos:

1. La resolución de identidad suele ser incompleta o implícita.

La atribución parte del supuesto de que existe una identidad de usuario estable y unificada. En la práctica, esa identidad está fragmentada.

Marketing utiliza cookies e identificadores de dispositivos. Producto trabaja con cuentas y sesiones autenticadas. CRM se basa en correos electrónicos y registros de cliente. Los medios pagos usan aún otra capa de identificadores, a veces probabilísticos.

Ante la pregunta: “¿Estas interacciones provienen de la misma persona?”, muchas veces la respuesta es incierta.

Cuando la identidad es débil, los recorridos se fragmentan, las ventanas de atribución se acortan y los análisis multicanal pierden fundamento. Esto no es una excepción: es el escenario habitual.

2. Los eventos no están gobernados.

La atribución presupone que los eventos están bien definidos y se rastrean de manera consistente. En la realidad, los eventos se renombran, reutilizan o reconfiguran. Las propiedades cambian. Marketing y producto a menudo generan versiones distintas del mismo hecho.

Sin gobernanza, la atribución no puede reproducirse. Las comparaciones históricas pierden confiabilidad. Y los modelos terminan optimizando sobre ruido. Ningún modelo puede compensar datos inconsistentes o indefinidos.

3. Marketing y producto optimizan métricas distintas.

Marketing se enfoca en alcance, clics, CPA y rendimiento de canales. Producto analiza activación, retención, LTV y uso de funcionalidades. La atribución se ubica entre ambos mundos, pero generalmente no está claramente gestionada por ninguno.

El resultado es que marketing reporta logros que producto no detecta, y producto observa caídas que marketing no puede explicar. La atribución deja de ser una herramienta de aprendizaje y se convierte en un artefacto político.

Esta desconexión organizacional es tan perjudicial como cualquier problema técnico.

El verdadero punto de falla

En resumen, la atribución no falla por elegir un modelo equivocado. Falla porque no logra responder con confianza cuatro preguntas fundamentales:

¿Quién es este usuario, en realidad?
(resolución de identidad)

¿Qué ocurrió exactamente, y en qué orden?
(calidad y secuencia de eventos)

¿Qué acciones estuvieron solo correlacionadas y cuáles pudieron causar un cambio real?
(brecha entre observación e intervención)

¿Qué resultado representa el valor real para el negocio?
(métrica de producto vs. métrica de canal)

Si cualquiera de estas capas falla, la atribución se convierte en un ejercicio de asignación de crédito sin fundamento.

Qué sigue

Este artículo se enfoca solo en el problema, de forma intencional. La atribución suele tratarse como una decisión de modelado, pero los verdaderos fallos ocurren antes: en cómo se gestiona la identidad, los datos, las estructuras organizacionales y las limitaciones propias de los datos observacionales.

En próximas entregas, se explorarán estrategias para operar dentro de estas limitaciones: cómo reducir sesgos, cómo distinguir entre comportamientos propios y pagados, y cómo usar herramientas de analítica de producto no para “resolver” la atribución, sino para razonar con mayor claridad y honestidad.

¿Tu atribución también ha fallado así?

Identidades fragmentadas. Eventos inconsistentes. Métricas celebradas que no reflejan el impacto real. Si alguno de estos escenarios resulta familiar, no es un caso aislado.

En Minders ayudamos a construir sistemas de atribución que reflejan cómo funciona realmente el crecimiento. Para repensar la estrategia o simplemente validar lo que está ocurriendo, el equipo está disponible!

Related Articles
AI Playbook: Seis predicciones para liderar en la era de la IA

AI Playbook: Seis predicciones para liderar en la era de la IA

Cómo construir un programa exitoso de automatización del engagement del cliente

Cómo construir un programa exitoso de automatización del engagement del cliente

🚀 Inicialización demorada de SDKs: mejora el rendimiento de arranque en tu app

🚀 Inicialización demorada de SDKs: mejora el rendimiento de arranque en tu app