Tipps für A / B-Tests bei Google Play-Experimenten

Google Play

Für Android App Entwickler Google Play-Experimente kann wertvolle Erkenntnisse liefern und die Anzahl der Installationen erhöhen. Das Ausführen eines gut konzipierten und gut geplanten A / B-Tests kann den Unterschied zwischen einem Benutzer, der Ihre App installiert, und einem Benutzer eines Mitbewerbers ausmachen. Es gibt jedoch viele Fälle, in denen Tests nicht ordnungsgemäß ausgeführt wurden. Diese Fehler können gegen eine App wirken und deren Leistung beeinträchtigen.

Hier ist eine Anleitung zur Verwendung Google Play-Experimente für A / B-Tests.

Einrichten eines Google Play-Experiments

Sie können über das App-Dashboard der Google Play Developer Console auf die Experiment-Konsole zugreifen. Gehe zu Präsenz speichern auf der linken Seite des Bildschirms und wählen Sie Auflistungsexperimente speichern. Von dort aus können Sie „Neues Experiment“ auswählen und Ihren Test einrichten.

Es gibt zwei Arten von Experimenten, die Sie durchführen können: Standard-Grafikexperiment Lokalisiertes Experiment. Das Standardgrafikexperiment führt Tests nur in Regionen mit der Sprache aus, die Sie als Standard ausgewählt haben. Das lokalisierte Experiment hingegen führt Ihren Test in jeder Region aus, in der Ihre App verfügbar ist.

Mit ersteren können Sie kreative Elemente wie Symbole und Screenshots testen, mit letzteren können Sie auch Ihre kurzen und langen Beschreibungen testen.

Beachten Sie bei der Auswahl Ihrer Testvarianten, dass es umso länger dauern kann, bis umsetzbare Ergebnisse erzielt werden, je mehr Varianten Sie testen. Zu viele Varianten können dazu führen, dass die Tests mehr Zeit und Verkehr benötigen, um ein Konfidenzintervall festzulegen, das die möglichen Auswirkungen auf die Conversion bestimmt.

Die Versuchsergebnisse verstehen

Während Sie Tests ausführen, können Sie die Ergebnisse basierend auf Erstinstallationsprogrammen oder Retained Installers (One Day) messen. Erstinstallationsprogramme sind die Gesamtkonvertierungen, die an die Variante gebunden sind, wobei Retained Installers Benutzer sind, die die App nach dem ersten Tag beibehalten haben.

Die Konsole bietet auch Informationen zu Current (Benutzer, auf denen die App installiert ist) und Scaled (wie viele Installationen hätten Sie hypothetisch erzielt, wenn die Variante während des Testzeitraums 100% des Datenverkehrs erhalten hätte).

Google Play-Experimente und A / B-Tests

Das 90% -Konfidenzintervall wird generiert, nachdem der Test lange genug ausgeführt wurde, um umsetzbare Erkenntnisse zu gewinnen. Es wird ein rot / grüner Balken angezeigt, der angibt, wie sich die Conversions theoretisch anpassen würden, wenn die Variante live bereitgestellt würde. Wenn der Balken grün ist, ist dies eine positive Verschiebung, rot, wenn er negativ ist, und / oder beide Farben bedeuten, dass er in beide Richtungen schwingen kann.

Best Practices für A / B-Tests in Google Play

Wenn Sie Ihren A / B-Test ausführen, sollten Sie warten, bis das Konfidenzintervall festgelegt ist, bevor Sie Schlussfolgerungen ziehen. Installationen pro Variante können sich während des Testprozesses verschieben. Wenn der Test also nicht lange genug ausgeführt wird, um ein gewisses Maß an Sicherheit herzustellen, können die Varianten bei Live-Anwendung eine andere Leistung erbringen.

Wenn nicht genügend Datenverkehr vorhanden ist, um ein Konfidenzintervall festzulegen, können Sie die Conversion-Trends Woche für Woche vergleichen, um festzustellen, ob Konsistenzen auftreten.

Sie möchten auch die Auswirkungen nach der Bereitstellung verfolgen. Selbst wenn das Konfidenzintervall angibt, dass eine Testvariante eine bessere Leistung erbracht hätte, kann sich die tatsächliche Leistung dennoch unterscheiden, insbesondere wenn ein rot / grünes Intervall vorhanden wäre.

Behalten Sie nach der Bereitstellung der Testvariante die Impressionen im Auge und beobachten Sie, wie sie beeinflusst werden. Die tatsächlichen Auswirkungen können anders sein als vorhergesagt.

Sobald Sie festgestellt haben, welche Varianten am besten funktionieren, möchten Sie iterieren und aktualisieren. Teil des Ziels von A / B-Tests ist es, neue Wege zur Verbesserung zu finden. Nachdem Sie gelernt haben, was funktioniert, können Sie neue Varianten erstellen, wobei Sie die Ergebnisse berücksichtigen.

Google Play-Experimente und A / B-Testergebnisse

Bei der Arbeit mit AVIS hat Gummicube beispielsweise mehrere A / B-Testrunden durchlaufen. Auf diese Weise konnten Sie ermitteln, welche kreativen Elemente und Messaging-Benutzer am besten konvertiert wurden. Dieser Ansatz führte allein aufgrund der Feature-Grafik-Tests zu einer Steigerung der Conversions um 28%.

Iteration ist wichtig für das Wachstum Ihrer App. Es hilft Ihnen dabei, das Einstellrad Ihrer Conversions kontinuierlich zu erhöhen, wenn Ihre Bemühungen zunehmen.

Fazit

A / B-Tests können eine großartige Möglichkeit sein, Ihre App und Ihre Gesamtqualität zu verbessern App Store-Optimierung. Stellen Sie beim Einrichten Ihres Tests sicher, dass Sie die Anzahl der gleichzeitig getesteten Varianten begrenzen, um die Testergebnisse zu beschleunigen.

Überwachen Sie während des Tests, wie Ihre Installationen betroffen sind und was das Konfidenzintervall anzeigt. Je mehr Benutzer Ihre App sehen, desto besser sind Ihre Chancen, einen konsistenten Trend zu etablieren, der die Ergebnisse bestätigt.

Zuletzt möchten Sie ständig iterieren. Mit jeder Iteration können Sie lernen, was Benutzer am besten konvertiert, damit Sie besser verstehen, wie Sie Ihre App optimieren und skalieren können. Durch einen methodischen Ansatz für A / B-Tests kann ein Entwickler daran arbeiten, seine App weiter auszubauen.

Was denken Sie?

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.