Daten: Teams, die systematisch A/B-Tests für Cold Email einsetzen, erzielen im Durchschnitt 2–3x höhere Antwortraten als Teams, die immer dieselben Templates verwenden.
A/B-Testing ist der Unterschied zwischen "wir denken, dass das funktioniert" und "wir wissen, dass das funktioniert". Dieser Artikel zeigt, wie du valide Tests aufbaust und was wirklich getestet werden sollte.
Was ist A/B Testing bei Cold Email?
A/B Testing (Split Testing) bedeutet: Du sendest zwei Varianten einer E-Mail an je eine zufällige Teilgruppe deiner Prospects und misst, welche Variante bessere Ergebnisse erzielt.
Das Grundprinzip: Ändere immer nur eine Variable pro Test. Alles andere bleibt identisch.
Was du testen solltest (Prioritätenliste)
Nicht alle Variablen haben denselben Einfluss. Diese Prioritätenliste hilft bei der Reihenfolge:
| Priorität | Variable | Messgröße | Typischer Einfluss |
|---|---|---|---|
| 1 | Betreffzeile | Öffnungsrate | ±15–25% |
| 2 | Opening Line | Antwortrate | ±10–20% |
| 3 | CTA-Formulierung | Antwortrate | ±5–15% |
| 4 | E-Mail-Länge | Antwortrate | ±5–10% |
| 5 | Personalisierungstiefe | Antwortrate | ±5–15% |
| 6 | Sendezeit | Öffnungsrate | ±5–10% |
| 7 | Absender-Name | Öffnungsrate | ±5–15% |
Beginne immer mit der Betreffzeile — sie hat den größten Hebel auf die Öffnungsrate, und ohne Öffnungen gibt es keine Antworten.
Statistische Validität: Die Mindest-Stichprobengröße
Das häufigste Fehler bei A/B-Tests: zu kleine Stichproben. Mit 30 Empfängern pro Variante kann man keine Aussage machen.
Faustformel:
| Erwartete Öffnungsrate | Minimale Stichprobe/Variante |
|---|---|
| 20% | 200 Empfänger |
| 35% | 150 Empfänger |
| 50% | 100 Empfänger |
Für Antwortraten (typisch 3–8%) braucht man noch größere Stichproben:
| Erwartete Antwortrate | Minimale Stichprobe/Variante |
|---|---|
| 3% | 500+ Empfänger |
| 5% | 300+ Empfänger |
| 8% | 200+ Empfänger |
Praxistipp: Bei kleinen Listen (unter 300 Kontakte gesamt) ist es oft besser, die beste Variante auf Basis inhaltlicher Überlegungen zu wählen, statt statistisch nicht aussagekräftige Tests zu machen.
Jetzt kostenlos starten — ohne Kreditkarte
1 Mailbox · 1 Kampagne · 50 Prospects. Starte in unter 5 Minuten mit anicampaign.io.
Die 5 wichtigsten A/B Tests für B2B Cold Email
Test 1: Betreffzeile (Frage vs. Statement)
Variante A: Kurze Frage zu s Outreach-Strategie
Variante B: Wie [ähnliches Unternehmen] die Antwortrate verdoppelt hat
Was du misst: Öffnungsrate
Erwartetes Ergebnis: Fragen haben oft höhere Öffnungsraten, Ergebnis-Betreff oft höhere Click-Through
Test 2: Opening Line (Recherche-basiert vs. Problem-basiert)
Variante A (Recherche-basiert): "Ich habe gesehen, dass gerade [spezifisches Detail] macht..."
Variante B (Problem-basiert): "Als [Position] bei einem [Größe]-Unternehmen haben Sie wahrscheinlich [spezifisches Problem]..."
Was du misst: Antwortrate
Test 3: CTA-Formulierung (Frage vs. Aussage)
Variante A (Frage): "Wäre ein kurzes Gespräch für Sie interessant?"
Variante B (Konkreter Terminvorschlag): "Haben Sie am Dienstag oder Mittwoch 15 Minuten?"
Was du misst: Antwortrate, Buchungsrate
Hinweis: Konkrete Terminvorschläge funktionieren bei warmeren Kontakten besser, Fragen bei kälteren.
Test 4: E-Mail-Länge (kurz vs. mittel)
Variante A (kurz, ~60 Wörter): Opening Line + ein Satz Mehrwert + CTA
Variante B (mittel, ~120 Wörter): Opening Line + zwei Sätze Kontext + Case-Study-Hinweis + CTA
Was du misst: Antwortrate, Qualität der Antworten
Test 5: Absender-Name
Variante A: Max Müller
Variante B: Max von anicampaign.io
Variante C: Max Müller, anicampaign.io
Was du misst: Öffnungsrate
Erfahrungswert: Im DACH-Markt funktioniert der vollständige Name ohne Firmenangabe für den Erstkontakt oft besser (persönlicher, weniger "Sales-y").
Wie man Tests isoliert
Die goldene Regel: Eine Variable = Ein Test
Falsches Vorgehen:
| Element | Variante A | Variante B |
|---|---|---|
| Betreff | Kurze Frage... | Wie Firma X... |
| Opening | Recherche-basiert | Problem-basiert |
| CTA | Frage | Terminvorschlag |
→ Du weißt nicht, was das Ergebnis verursacht hat.
Richtiges Vorgehen:
| Element | Variante A | Variante B |
|---|---|---|
| Betreff | Kurze Frage... | Wie Firma X... |
| Opening | Identisch | Identisch |
| CTA | Identisch | Identisch |
A/B Testing in anicampaign.io einrichten
- Kampagne öffnen: Kampagne erstellen oder öffnen
- Schritt bearbeiten: E-Mail-Schritt klicken
- Variante hinzufügen: "Variante B hinzufügen" klicken
- Variable ändern: Nur Betreff, Opening Line oder CTA ändern
- Verteilung festlegen: 50/50 für gleichwertige Tests
- Kampagne starten: anicampaign.io verteilt automatisch
- Auswerten: Nach 48h die Öffnungs- und Antwortraten vergleichen
Auswertung: Wann ist ein Ergebnis bedeutsam?
| Differenz | Bewertung | Empfehlung |
|---|---|---|
| <3 Prozentpunkte | Zufällig | Keinen Sieger küren, Test wiederholen |
| 3–5 Prozentpunkte | Tendenziell | Beobachten, bei weiteren Tests bestätigen |
| >5 Prozentpunkte | Signifikant | Gewinner für künftige Kampagnen verwenden |
| >10 Prozentpunkte | Klar | Sofort auf Gewinner umstellen |
Alles über die Optimierung deiner gesamten Kampagnen-Performance: Kaltakquise per E-Mail — Der vollständige Leitfaden.