Julius / Blog / Optimización de campañas de publicidad digital aplicando inferencia Bayesiana

Optimización de campañas de publicidad digital aplicando inferencia Bayesiana

Aprende cómo la inferencia Bayesiana transforma las decisiones de optimización de anuncios en equipos de paid media, reduciendo presupuesto desperdiciado y mejorando el rendimiento de campañas con rigor estadístico.

1. El problema

Las últimas evoluciones en los algoritmos de las plataformas de publicidad digital han dado a los anuncios una relevancia extraordinaria. Los procesos de optimización giran cada vez más alrededor de los anuncios en sí, lo que convierte la decisión sobre su desempeño en una decisión crítica.

Sin embargo, la mayoría de las operaciones de paid media toman estas decisiones con criterios arbitrarios: “dale tres días”, “espera mil impresiones”, “si no tiene buen CTR en 48 horas, mátalo”. Dejar estas decisiones completamente en manos de los algoritmos de las plataformas tampoco es solución — frecuentemente lleva a resultados subóptimos.

Estas reglas no tienen fundamento estadístico. Son heurísticas que parecen razonables pero que generan dos errores costosos: matar anuncios que podrían haber funcionado, porque no se les dio suficiente volumen de datos para evaluar su desempeño real; y mantener anuncios que no funcionan, porque el umbral arbitrario no se alcanzó y el equipo sigue esperando sin un criterio claro para decidir.

El resultado es presupuesto desperdiciado en ambas direcciones.

El problema de fondo es simple: los equipos de paid media toman decisiones sin saber cuántos datos necesitan para que esas decisiones sean confiables. No es un problema de herramientas ni de plataformas — es un problema de método.

Este artículo propone un enfoque basado en inferencia Bayesiana para responder una pregunta que todo equipo de paid media debería poder contestar: ¿cuántas impresiones necesito para saber si mi anuncio funciona?

2. El marco conceptual

Cada vez que un anuncio se muestra a un usuario, ocurre un evento binario: el usuario hace clic o no hace clic. Esto convierte cada impresión en un experimento con dos resultados posibles, lo que en estadística se modela como un ensayo de Bernoulli.

El CTR (click-through rate) que vemos en las plataformas es simplemente la proporción de clics sobre impresiones. Pero ese número no es el CTR real del anuncio — es una estimación basada en los datos que tenemos hasta el momento. Con 50 impresiones, esa estimación es muy inestable. Con 5,000, es mucho más confiable — pero si el anuncio es malo, esa confiabilidad ha resultado ser muy costosa. La pregunta es: ¿en qué punto tenemos suficientes datos para confiar en lo que estamos viendo sin haber pagado de más por la respuesta?

La estadística frecuentista tradicional respondería esta pregunta con pruebas de hipótesis y valores p. Pero ese enfoque tiene una limitación práctica importante: requiere definir tamaños de muestra fijos antes de comenzar, y no se adapta bien a la realidad de paid media, donde los datos llegan de forma continua y las decisiones no pueden esperar al final de un experimento formal.

La inferencia Bayesiana ofrece una alternativa más natural para este contexto. En lugar de preguntar “¿puedo rechazar la hipótesis nula?”, pregunta algo mucho más útil: dado lo que he observado hasta ahora, ¿cuál es la probabilidad de que el CTR real de este anuncio esté por debajo de mi benchmark?

Este enfoque tiene tres ventajas prácticas para operaciones de paid media: se actualiza con cada nueva impresión, no requiere tamaños de muestra predefinidos, y produce una probabilidad directa que es fácil de interpretar y convertir en regla de decisión.

El modelo específico que utilizamos se basa en la distribución Beta, que es la herramienta natural para modelar proporciones — como el CTR — cuando los datos son binarios. La siguiente sección explica cómo funciona.

3. El método: Inferencia Bayesiana con distribución Beta

La distribución Beta es una distribución de probabilidad definida entre 0 y 1, lo que la hace ideal para modelar proporciones como el CTR. Se define con dos parámetros: alfa (α) y beta (β), que en nuestro contexto tienen una interpretación directa:

α = número de clics + 1

β = número de no-clics + 1

Antes de mostrar el anuncio una sola vez, comenzamos con lo que se llama un prior no informativo: Beta(1,1). Esto equivale a decir “no tengo información previa sobre el CTR de este anuncio — cualquier valor entre 0% y 100% es igualmente posible”. Es una posición de ignorancia total, y es deliberada.

Con cada impresión, la distribución se actualiza automáticamente. Si el anuncio recibe 10 clics en 200 impresiones, la distribución posterior es Beta(11, 191). Esta distribución ya no es plana — se concentra alrededor del 5.5% pero con un rango de incertidumbre que refleja el volumen limitado de datos.

Lo poderoso de este enfoque es lo que podemos calcular a partir de esa distribución posterior: la probabilidad de que el CTR real del anuncio esté por debajo de cualquier umbral que definamos como benchmark.

Por ejemplo, si nuestro benchmark es un CTR de 2%, podemos preguntar: ¿cuál es la probabilidad de que el CTR real de este anuncio sea menor a 2%? Si la distribución posterior nos dice que esa probabilidad es del 95%, tenemos una base estadística sólida para descartar el anuncio. Si es del 60%, todavía no tenemos suficiente evidencia — necesitamos más impresiones.

Este es el mecanismo completo:

1. Definir un benchmark de CTR basado en el contexto de la campaña (industria, plataforma, formato, objetivo).

2. Establecer un nivel de confianza mínimo para tomar decisiones (por ejemplo, 90% o 95%).

3. Con cada nueva impresión, actualizar la distribución Beta y calcular la probabilidad de que el CTR real esté por debajo del benchmark.

4. Cuando esa probabilidad supera el nivel de confianza establecido, descartar el anuncio. Mientras no lo supere, el anuncio sigue activo.

El resultado es un criterio de decisión que no depende de reglas arbitrarias sino de la evidencia acumulada, y que se vuelve más preciso con cada dato nuevo.

4. La tabla de decisión

Para hacer este marco operativo, construimos una tabla de referencia que responde la pregunta central: dado un número de impresiones y un nivel de confianza, ¿cuál es el CTR máximo observado que justifica descartar un anuncio?

La tabla se lee así: si tu benchmark es un CTR de 2%, tu anuncio lleva 500 impresiones, y quieres tomar decisiones con un 90% de confianza, buscas la intersección de esos valores. Si el CTR observado de tu anuncio está por debajo del número en esa celda, tienes fundamento estadístico para descartarlo.

Benchmark: CTR 2%

Impresiones

Confianza 80%

Confianza 90%

Confianza 95%

100

0.00%

N/A

N/A

200

0.50%

0.50%

0.00%

500

1.20%

1.00%

0.80%

1,000

1.50%

1.30%

1.20%

2,000

1.70%

1.55%

1.45%

5,000

1.82%

1.72%

1.66%

Los valores “N/A” indican que no existe ningún CTR observado que permita descartar el anuncio con ese nivel de confianza a ese volumen de impresiones. Decidir en esos rangos no es solo impreciso — es estadísticamente imposible.

Ejemplo práctico: Un anuncio lleva 500 impresiones y tiene un CTR de 0.8%. Tu benchmark es 2% y operas con 90% de confianza. El valor en la tabla para esa intersección es 1.00%. Como 0.8% es menor que 1.00%, puedes descartar el anuncio con respaldo estadístico.

Otro escenario: el mismo anuncio tiene un CTR de 1.2% con 500 impresiones. El umbral al 90% es 1.00%. Como 1.2% está por encima, no tienes suficiente evidencia para descartarlo — el anuncio sigue activo y se reevalúa con más datos.

La tabla hace evidente algo importante: con pocas impresiones, solo puedes descartar anuncios claramente malos. Para decisiones más finas — distinguir entre un CTR de 1.5% y uno de 2% — necesitas más volumen. No hay atajos estadísticos para eso.

Esta tabla puede adaptarse a cualquier benchmark de CTR y construirse para otras métricas binarias como tasa de conversión o tasa de apertura en email. El principio es el mismo.

5. Implicaciones operativas

Este marco tiene consecuencias directas sobre cómo se planifican y ejecutan las campañas de publicidad digital.

El presupuesto mínimo no es arbitrario — es calculable

Si necesitas al menos 500 impresiones para tomar una decisión con 90% de confianza, y tu CPM promedio es de $20, entonces necesitas al menos $10 por anuncio solo para poder evaluarlo. Si estás probando 10 variantes de anuncio simultáneamente, tu presupuesto mínimo de prueba es de $100 — antes de optimizar cualquier cosa. Muchos equipos lanzan pruebas con presupuestos que no alcanzan para generar los datos que necesitan para decidir. El resultado es que toman decisiones con datos insuficientes, lo cual es peor que no tomar ninguna decisión.

Matar anuncios temprano es más caro de lo que parece

Cuando descartas un anuncio con 100 impresiones, no estás ahorrando presupuesto — estás tirando a la basura la inversión que hiciste en esas 100 impresiones sin haber obtenido información utilizable a cambio. Cada impresión que no contribuye a una decisión confiable es una impresión desperdiciada. La paradoja es que la urgencia por “no gastar de más” en un anuncio malo frecuentemente lleva a gastar de más en decisiones malas.

El número de variantes en prueba debe ser proporcional al presupuesto disponible

Este es un error común: lanzar demasiadas variantes de anuncio con un presupuesto que no da para evaluar ninguna de forma confiable. Es preferible probar 3 anuncios con suficientes impresiones para decidir, que probar 10 sin poder evaluar ninguno. El marco Bayesiano hace explícito este trade-off y permite planificarlo antes de lanzar la campaña.

La integración en el workflow es simple

El equipo define el benchmark de CTR y el nivel de confianza al inicio de la campaña. A partir de ahí, la evaluación de cada anuncio se reduce a una consulta contra la tabla: ¿el CTR observado a este volumen de impresiones está por debajo del umbral? Si sí, se descarta. Si no, sigue activo. Esto elimina las discusiones subjetivas sobre si un anuncio “se ve bien” o “necesita más tiempo” y las reemplaza con un criterio único y consistente.

6. Limitaciones y consideraciones

Este marco es una herramienta poderosa, pero no es una solución completa. Hay factores que deben considerarse al aplicarlo.

El CTR no es la única métrica que importa

Un anuncio puede tener un CTR excelente y generar clics que no convierten. Este marco se aplica a cualquier métrica binaria — tasa de conversión, tasa de apertura, tasa de engagement — pero la métrica elegida debe estar alineada con el objetivo real de la campaña. Optimizar para CTR cuando el objetivo es conversión puede llevar a decisiones técnicamente correctas pero estratégicamente equivocadas.

La fatiga de audiencia distorsiona los datos

El CTR de un anuncio no es estático — tiende a degradarse con el tiempo a medida que la audiencia se satura. Un anuncio que tiene un CTR de 2.5% en sus primeras 500 impresiones puede caer a 1.2% en las siguientes 500. El marco Bayesiano asume que el CTR subyacente es constante, lo cual es una simplificación. En la práctica, conviene evaluar en ventanas de tiempo y no solo en acumulados.

El rendimiento varía por placement y plataforma

Un mismo anuncio puede tener un CTR de 3% en el feed de Instagram y de 0.5% en Audience Network. Si los datos se agregan sin segmentar, el CTR promedio no representa ningún contexto real. El benchmark y la evaluación deben aplicarse al nivel de segmentación donde las decisiones operativas realmente ocurren.

El prior no informativo es conservador

Comenzar con Beta(1,1) significa que no incorporamos conocimiento previo sobre el desempeño esperado. En equipos con datos históricos robustos, es posible usar priors informados que aceleren las decisiones. Esto añade complejidad pero puede reducir significativamente el volumen de impresiones necesario para decidir.

Este marco no reemplaza el juicio estratégico

La estadística te dice cuándo tienes suficiente evidencia para descartar un anuncio. No te dice qué anuncio crear, qué mensaje probar, ni qué audiencia atacar. Es una herramienta de decisión operativa, no de estrategia creativa.