Foto de Annie Spratt na Unsplash
#75 Isso não é um teste!
Olha só um cenário muito comum:
A empresa sobe 20 criativos diferentes, deixa a campanha rodar.
Com 24h a 48h da campanha rodando, analisa os resultados.
Deixa somente os criativos que foram bem e desabilita os outros.
O que você acha disso?
A princípio parece ok, mas isso não é um teste. Talvez você consiga ter uma ideia de um criativo que pode ir melhor. Mas isso não é o suficiente para um teste. Desculpe.
Mas essa não é simplesmente a minha visão, é uma recomendação oficial da Meta.
"Nós não recomendamos testes informais, como ligar e desligar conjuntos de anúncios ou campanhas de forma manual. Isso pode levar a ineficiência na entrega dos anúncios e testes não confiáveis."
Documentação da Meta
Se você aprendeu a testar assim, criando vários anúncios ou campanhas, provavelmente não é sua culpa. O mercado adotou essa forma como forma padrão e esse é um conhecimento repassado de curso em curso, de vídeos no YouTube a dicas no TikTok.
Infelizmente não é a forma correta de ter uma resposta. No máximo você vai saber como o leilão respondeu aqueles anúncios naquele momento, mas é só isso. Não dá para avaliar a performance ou descartar um criativo somente com base em um teste desse tipo.
E não, não estou falando que você deve deixar um criativo que não performa bem rodando o tempo todo. Mas preciso enfatizar que isso não é um teste. Se você quer efetivamente testar, você precisa trabalhar em conjunto com a ferramenta para que ela possa alocar os recursos necessários para o seu teste.
Como o Teste A/B da Meta é diferente?
Bom, quando você utiliza a ferramenta de experimentos e cria o seu teste A/B, a Meta distribui igualmente a audiência entre as opções que você escolheu, elas se tornam estatisticamente comparáveis. Isso significa que não irá existir nenhum tipo de sobreposição de audiência, por exemplo, o que prejudicaria qualquer campanha de teste A/B.
A ferramenta te força a escolher um KPI principal para analisar e se você quer realmente extrair alguma inteligência, precisa primeiro formulário uma hipótese onde o teste A/B será a resposta.
Exemplo: esse produto converte melhor no WhatsApp ou direto na Landing Page?
Se a mesma as duas audiências receberem as duas opções, seu teste deixou de ser válido. Utilizando a ferramenta de experimentos, você tem um resultado preciso, estatisticamente válido pelo menos.
É importante notar que nem tudo precisa ser um teste. Nem sempre você quer validar uma hipótese. Às vezes você só quer diversificar os criativos sem se preocupar qual que efetivamente irá converter.
Afinal, vivemos em um cenário multicanal e ignorar isso é um erro que pode custar caro. Esse é o mesmo tipo de pensamento que leva empresas a anunciarem somente no posicionamento do feed porque "é onde performa melhor". Com isso, desconsideram totalmente as impressões baratas que vem por meio de um posicionamento no marketplace, por exemplo.
Nas próximas edições eu quero comentar um pouco mais sobre melhores práticas para Teste A/B. Sinto que é um assunto pouco comentado no mercado e acho que é uma ótima oportunidade de contribuir para evoluir a consciência sobre esse tópico tão importante.
Enquete da semana ⬇️
Qual a etapa mais difícil de um campanha?
Tanto planejamento como execução
Login or Subscribe to participate in polls.
Ainda mais novidades 🎉
Se você ainda não investe 20k/mês e quer ter acesso a aulas semanais comigo, estamos próximos de lançar um produto que irá entregar exatamente isso.
Pela enquete que fizemos recentemente eu sei que muitos de vocês buscam algo nesse modelo e estamos preparando algo com muito carinho.
Fique de olho na newsletter e no email \o