Le blog de référence pour les marketeurs

09 octobre 2017

La check-list d'A/B testing à ajouter à vos favoris

Écrit par | @

AB_test_hero.png

Lorsque les marketeurs créent des pages de destination, rédigent des e-mails ou conçoivent des call-to-action, ils peuvent être tentés d'avoir recours à leur intuition pour prévoir ce qui va augmenter le taux de clics ou de conversion des visiteurs.

Toutefois, se baser sur une intuition pour prendre des décisions marketing peut avoir un impact négatif sur les résultats. C'est la raison pour laquelle il est préférable de réaliser des tests d'optimisation des taux de conversion (CRO pour Conversion Rate Optimization).

Cette pratique est intéressante dans la mesure où le comportement de chaque audience est différent. Quelque chose qui fonctionne pour une entreprise ne fonctionne pas nécessairement pour une autre.

Les tests d'optimisation peuvent cependant être complexes et sans un minimum d'attention, il est possible de tirer des conclusions incorrectes sur ce qu'aiment les utilisateurs ou ce qui les pousse à cliquer, et de prendre des décisions susceptibles de nuire à d'autres pans de votre stratégie.

L'A/B testing constitue l'un des tests d'optimisation les plus faciles et les plus courants. Le principe est très simple : il s'agit de tester une variable d'un contenu marketing par rapport à une autre, un call-to-action vert et un rouge par exemple, pour voir laquelle des deux est la plus performante.

Cet article propose une analyse détaillée de la marche à suivre pour mettre en place un A/B test, ainsi qu'une check-list complète des étapes qu'un marketeur devrait respecter avant, pendant et après le test. Vous pouvez ajouter cette page à vos favoris pour consultation ultérieure.

Comment fonctionne l'A/B testing

Pour effectuer un A/B test, vous devez créer deux versions différentes d'un même contenu en ne modifiant qu'une seule variable. Vous montrerez ensuite ces deux versions à deux audiences de même taille et analyserez celle qui offre les meilleures performances.

Par exemple si vous souhaitez savoir si le taux de conversion de votre page d'accueil augmente lorsque vous déplacez l'un des CTA du menu latéral au sommet de la page, créez une page web alternative reflétant le nouveau placement du CTA. La version existante, ou version de contrôle, constitue la variation A, tandis que la variation B représente la version alternative.

 A-B.png

Pour tester ces deux variations, vous les présenterez ensuite à un pourcentage prédéfini de visiteurs.

Check-list pour effectuer un A/B test

Pour générer des résultats représentatifs qui peuvent informer vos décisions, il faut minutieusement planifier votre test. 

Avant l'A/B test

Dès lors que vous chercherez à optimiser vos pages web et vos e-mails, vous voudrez probablement tester un certain nombre de variables. 

1 - Choisissez une variable à tester

Pour évaluer l'efficacité d'un changement, vous devez isoler une seule variable et en mesurer la performance. Si vous en choisissez plusieurs, vous ne pourrez pas déterminer celle qui a une incidence sur les performances. Vous pouvez tester plusieurs variables d'une page ou d'un e-mail, mais vous devez faire en sorte de n'en tester qu'une seule à la fois.

Étudiez les différents éléments de vos ressources marketing et leurs alternatives possibles en matière de design, de formulation et de présentation. Les objets d'e-mails, les noms d'expéditeurs et les différentes options de personnalisation de vos e-mails peuvent également faire l'objet de tests.

Gardez à l'esprit que même les modifications les plus simples, telles qu'une image dans un e-mail ou la formulation d'un call-to-action, peuvent entraîner des améliorations conséquentes. En outre, l'impact de ce genre de modifications est souvent plus simple à mesurer que celui de changements de plus grande envergure.

Note : il est parfois plus pertinent de tester plusieurs variables plutôt qu'une seule lors d'un test multivarié. 

2 - Définissez votre objectif

Bien que vous mesuriez un certain nombre d'indicateurs pour chaque test, choisissez un indicateur principal sur lequel vous concentrer avant de réaliser le test. Faites-le avant même de configurer la seconde variante.

Si vous réfléchissez a posteriori aux indicateurs qui vous intéressent, à vos objectifs et dans quelle mesure les changements que vous proposez peuvent affecter le comportement des utilisateurs, vous risquez de ne pas configurer le test de manière optimale.

3 - Définissez une version de contrôle et une version alternative

La version non modifiée de l'élément que vous testez constitue la version de contrôle. Si vous testez une page web, il s'agit de la version en ligne de cette page telle qu'elle existe au moment du test. Pour une page de destination, il s'agit de la mise en page et du contenu que vous utilisez habituellement. 

Une fois la version de contrôle définie, vous pouvez créer une variante, ou une alternative, à savoir le site web, la page de destination ou l'e-mail que vous souhaitez comparer à votre version de contrôle. 

Par exemple, si vous souhaitez savoir si l'intégration d'un témoignage client sur une page de destination apporterait des résultats différents, configurez votre page de contrôle sans témoignage. Créez ensuite votre variante avec un témoignage.

4 - Répartissez vos audiences de manière égale et aléatoire

Les tests d'e-mails par exemple, où vous disposez d'un meilleur contrôle de l'audience, doivent être effectués auprès de deux audiences égales ou plus pour obtenir des résultats concluants.

La méthode employée dépendra de l'outil d'A/B testing utilisé. Si vous avez accès à la version Entreprise de HubSpot Marketing et que vous effectuez un A/B test sur un e-mail, par exemple, le trafic sera réparti automatiquement entre les deux variantes afin qu'elles soient diffusées auprès d'un échantillon aléatoire de visiteurs.

5 - Déterminez la taille de votre échantillon le cas échéant

La méthode que vous emploierez pour déterminer ce facteur dépendra également de votre outil d'A/B testing et du type d'A/B test réalisé.

Si vous effectuez un A/B test sur un e-mail, par exemple, il est préférable de le réaliser auprès d'une petite portion de votre liste pour obtenir des données statistiquement significatives. Vous pourrez alors choisir la variante qui génère les meilleurs résultats et l'envoyer au reste de la liste. Découvrez comment calculer la taille de l'échantillon auprès duquel effectuer l'A/B test de votre e-mail dans l'article de blog suivant.

La version Entreprise de HubSpot Marketing vous permet de déterminer la taille de votre échantillon à l'aide d'un curseur. Vous pouvez assurer la distribution de votre test auprès d'un échantillon scindé en deux audiences égales, quelle que soit sa taille, en revanche, il devra compter au moins 1 000 destinataires si vous optez pour une répartition différente.

Si vous testez un élément qui n'a pas d'audience définie, comme une page web, la durée du test a une incidence directe sur la taille de votre échantillon. Vous devrez exécuter le test suffisamment longtemps pour obtenir un nombre conséquent de vues, faute de quoi vous ne pourrez pas déterminer avec certitude la différence de résultats entre les deux variantes.

6 - Définissez le seuil que les résultats doivent atteindre

Une fois que vous avez choisi votre indicateur, définissez le seuil que les résultats doivent atteindre pour justifier le choix d'une variante plutôt qu'une autre. Le seuil statistique est une donnée extrêmement importante du processus d'A/B testing qui est souvent mal comprise.

Plus le pourcentage de votre niveau de confiance est élevé, plus vous pouvez être sûr de vos résultats. Dans la plupart des cas, un niveau de confiance de 95 % minimum, voire 98 %, est attendu, surtout si le processus de mise en place a été chronophage. Cependant, vous pouvez également utiliser un indice de confiance moins élevé si vous effectuez des tests moins précis.

Le seuil statistique est parfois comparé à un pari où il s'agit de décider de la mise que vous souhaitez placer. Avoir confiance à 80 % que la version gagnante présente le meilleur design et tout miser dessus revient à réaliser un A/B test à un seuil de 80 % et à choisir un gagnant.

Le choix d'un seuil de confiance plus élevé est souvent préférable lorsqu'une variable qui n'améliore que légèrement le taux de conversion est testée. La variante aléatoire est alors susceptible de jouer un plus grand rôle.

Il serait par exemple plus sûr de baisser le seuil de confiance dans le cas d'une expérience qui augmentera probablement le taux de conversion de 10 % ou plus, comme pour une section témoignages remaniée.

Plus le changement est radical, moins le processus doit être scientifique. Plus le changement est spécifique (couleur d'un bouton, petit extrait de texte, etc.), plus l'approche doit être scientifique, car le changement a moins de chances d'avoir un impact notable sur le taux de conversion.

7 - Exécutez un seul test à la fois sur vos campagnes

Tester plusieurs choses sur une même campagne, même si ce n'est pas sur la même ressource, peut affecter vos résultats.

Par exemple, si vous testez simultanément une campagne par e-mail qui dirige vers une page de destination et cette même page de destination, vous ne pourrez pas déterminer clairement d'où vient l'augmentation du nombre de leads. 

Pendant l'A/B test

Une fois que vos différents contenus sont prêts, il est temps de lancer votre A/B testing.

8 - Utilisez un outil d'A/B testing

Pour effectuer un A/B test sur votre site web ou dans un e-mail, vous devez utiliser un outil d'A/B testing. Pour les comptes Entreprise, le logiciel HubSpot Marketing inclut des fonctionnalités qui vous permettent de tester vos e-mails, vos call-to-action et vos pages de destination.

Dans le cas contraire, vous pouvez vous tourner vers Google Analytics, qui vous permet de tester jusqu'à 10 versions complètes d'une même page web et de comparer leur performance à l'aide d'un panel aléatoire d'utilisateurs.

9 - Testez vos deux variantes simultanément

Le timing de votre test, qu'il s'agisse de l'heure, du jour ou même du mois, joue un rôle prépondérant dans les résultats de votre campagne marketing. Si vous deviez tester la version A pendant un mois et la version B le mois suivant, vous seriez incapable de déterminer quel facteur altère les performances de la ressource testée.

Lorsque vous réalisez des A/B tests, vous devez tester les deux variantes simultanément, faute de quoi vos résultats manqueront de fiabilité.

Tester le timing lui-même, par exemple pour déterminer le meilleur horaire pour envoyer un e-mail, constitue la seule exception à cette règle. Cette variable est particulièrement intéressante, car en fonction de ce qu'offre votre entreprise et de vos abonnés, l'horaire optimal pour susciter leur engagement peut varier de manière significative d'un secteur d'activité et d'un marché cible à l'autre.

10 - Exécutez le test sur une période suffisamment longue pour obtenir des résultats concrets

Votre test doit se dérouler sur une période suffisamment longue pour vous permettre d'obtenir un échantillon assez important. Sinon, il sera difficile de déterminer s'il y a une différente significative entre les deux variantes.

Déterminer la durée d'un test peut se révéler plus complexe qu'il n'y paraît. Selon votre entreprise et le mode d'exécution de l'A/B test, quelques heures, quelques jours ou plusieurs semaines peuvent être nécessaires pour pouvoir tirer une conclusion valide.

Le volume de trafic que vous générez constitue l'un des principaux facteurs entrant en ligne de compte. Si le trafic vers le site web de votre entreprise n'est pas élevé, l'A/B test sera plus long à exécuter.

11 - Demandez le retour des utilisateurs

L'A/B testing est surtout une question de données quantitatives, mais cela ne vous aide pas nécessairement à comprendre pourquoi les utilisateurs effectuent certaines actions plutôt que d'autres. Lorsque vous effectuez un A/B test, pensez à recueillir les commentaires des audiences ciblées.

L'enquête ou le sondage représente l'un des meilleurs moyens de sonder les utilisateurs. Ajoutez une enquête sur votre site pour demander aux visiteurs pourquoi ils n'ont pas cliqué sur un certain CTA, ou sur vos pages de remerciement pour leur demander pourquoi ils ont cliqué sur un bouton ou rempli un formulaire.

Vous découvrirez alors peut-être qu'un grand nombre d'utilisateurs ont cliqué sur un call-to-action les redirigeant vers un e-book, mais qu'ils ne se sont pas convertis en raison de son prix. Ce genre d'informations vous permettra de comprendre le comportement de vos utilisateurs.

Après l'A/B test

Après avoir récolté les données nécessaires, il est temps de tirer des conclusions de votre A/B test.

12 - Concentrez-vous sur votre indicateur principal

Encore une fois, bien que vous mesuriez plusieurs indicateurs, concentrez-vous sur votre objectif initial lorsque vous analysez vos résultats.

Par exemple, si vous avez testé deux variantes d'un e-mail et choisi les leads comme indicateur principal, ne vous attardez pas sur le taux d'ouverture ou le taux de clics. Vous pourriez voir un taux de clics élevé et des taux de conversion faibles, auquel cas vous finiriez par choisir la variante qui a obtenu le taux de clics le moins élevé.

13 - Évaluez les résultats de vos tests à l'aide de notre calculateur

Maintenant que vous avez trouvé la variante la plus performante, il est temps de déterminer si vos conclusions sont ou non valides. En d'autres termes, si elles sont suffisantes pour justifier un changement.

Pour le savoir, vous devrez effectuer un test du seuil statistique, soit manuellement, soit en entrant vos résultats dans notre calculateur gratuit (disponible en anglais). 

Pour chaque variante testée, vous serez invité à entrer le nombre total d'essais, comme les e-mails envoyés ou les impressions vues. Vous entrerez ensuite le nombre d'objectifs atteints. Ce sont généralement des clics, mais il peut s'agir d'autres types de conversion.

hubspot-a-b-testing-calculateur.png

Le calculateur établira alors le niveau de confiance de la variante la plus performante à partir des données rentrées. Comparez ensuite ce nombre à la valeur à laquelle vous avez défini le seuil statistique. 

14 - Définissez une nouvelle stratégie en fonction de vos résultats

Si une variante offre une meilleure performance statistiquement, elle remporte le test. Terminez votre test en désactivant la variante perdante dans votre outil d'A/B testing.

Si aucune variante ne s'impose, vous savez que la variable testée n'a aucun impact sur les résultats. Vous devrez alors marquer le test comme non concluant. Dans ce cas, conservez la variante d'origine ou effectuez un autre test. Vous pouvez utiliser les données non concluantes pour mettre sur pied une nouvelle itération dans votre nouveau test.

Si les A/B tests vous aident à mesurer l'impact des résultats au cas par cas, vous pouvez aussi appliquer les leçons tirées de chaque test à vos futures expérimentations. Par exemple, si vous avez réalisé des A/B tests sur vos e-mails marketing et découvert à plusieurs reprises que l'utilisation de valeurs numériques dans l'objet générait un meilleur taux de clics, vous pouvez envisager d'utiliser cette stratégie dans d'autres e-mails.

15 - Préparez votre prochain test

L'A/B test que vous venez de terminer vous a peut-être aidé à découvrir un nouveau moyen d'améliorer votre contenu marketing, mais il y a toujours des choses à améliorer et d'autres tests à effectuer !

Vous pouvez même tester une autre fonctionnalité de la page web ou de l'e-mail que vous venez de tester. Si vous venez de tester le titre d'une page de destination, vous pourriez par exemple réaliser un nouveau test sur le texte de cette page, sur la palette de couleurs utilisées, ou encore sur les images sélectionnées. Ne ratez pas une occasion d'augmenter vos taux de conversion et le nombre de leads que vous générez.

Pour appliquer vos nouvelles connaissances d'A/B testing à votre stratégie e-mail marketing, téléchargez votre guide sur « comment rédiger l’e-mail parfait ».

New Call-to-action

Sujets: Email Marketing

Inscrivez-vous

Commentaires

Nous sommes désolés de vous avoir raté ! Nous fermons les liens de discussion pour les anciens articles du blog, mais nous voulons toujours entendre vos avis ! N'hésitez pas à nous tweeter ! @HubSpotFrance pour poursuivre la discussion.

Commentaires
X

Souscrivez au blog Marketing de HubSpot

Rejoignez plus de 300 000 experts en Marketing et recevez les derniers articles du blog directement dans votre boîte E-Mail. Inscrivez votre adresse ci-dessous.