A+ Content: CTR & Scrolltiefe richtig auswerten

Du optimierst fleißig A+ Content – aber Deine Kunden scrollen einfach vorbei. Jeder nicht gesehene Abschnitt kostet Dich Conversion und Budget.


In diesem Beitrag lernst Du, wie Du A+ Content CTR und Scrolltiefe analysieren kannst – und daraus echte Handlungsempfehlungen für Deine Module ableitest.

🟡 Zielgruppe: Fortgeschrittene – dieser Beitrag richtet sich an Performance-Marketing-Teams, Amazon-Agenturen und Markenverantwortliche, die bereits A+ Content im Einsatz haben und nun lernen wollen, wie sie dessen Wirkung im Funnel sichtbar machen. Besonders hilfreich für alle, die CTR- und Scroll-Daten bisher nur oberflächlich auswerten oder falsch interpretieren – und echtes Engagement mit konkreten KPIs belegen möchten.


Wie CTR & Scrolltiefe zusammenarbeiten – der unterschätzte Zusammenhang

Viele Marken sehen hohe CTRs – aber kaum Conversions. Andere investieren in A+ Content, doch niemand scrollt zu den entscheidenden Modulen. Wer seine Performance wirklich verstehen will, muss A+ Content CTR und Scrolltiefe analysieren – nicht isoliert, sondern gemeinsam. Denn Sichtbarkeit ohne Wirkung ist wertlos, und Klicks sagen wenig über echtes Engagement.

Genau hier liegt das Problem: Viele Seller werten CTRs oder Conversion Rates isoliert aus. Doch Sichtbarkeit allein ist keine Wirkung – und ein Klick keine Interaktion. Wer A+ Module wirklich verstehen und optimieren will, braucht differenziertere Kennzahlen: Scrolltiefe, Time-in-Viewport, Add-to-Cart Rate nach Modulkontakt. Nur so wird sichtbar, ob ein Element gelesen, verstanden und im Funnel weiterverarbeitet wurde – oder einfach überscrollt.

Die Herausforderung: Amazon liefert keine vollständige Sicht auf alle Engagement-Daten. Tools wie „Manage Your Experiments“ zeigen A/B-Varianten – aber nicht, ob die getesteten Module überhaupt im sichtbaren Bereich lagen. Genau hier setzen spezialisierte Metriken an, die auf Funnel-Stufen zugeschnitten sind: von der SERP-CTR über die Sichtbarkeit eines Icons auf Mobile bis zur Scrolltiefe in einer Vergleichstabelle.

In diesem Artikel zeigen wir Dir:

  • Warum CTR und Scrolltiefe unterschiedliche Dinge messen – und beide nötig sind
  • Wie Du Scroll- und Sichtbarkeitsdaten korrekt erhebst und interpretierst
  • Welche Tools dafür infrage kommen – und wie Du sie kombinierst
  • Wie Du auf dieser Basis A+-Module nicht nur bewertest, sondern optimierst

Denn: Sichtbarkeit ohne Wirkung ist Verschwendung – und Wirkung ohne Messung bleibt unsichtbar. Wer A+ Content ernsthaft als Conversion-Hebel nutzen will, muss tiefer scrollen – und präziser klicken.

Warum CTR allein nicht reicht – und wie Scrolltiefe Kontext schafft

Die Click-Through-Rate (CTR) ist eine der bekanntesten Kennzahlen im Amazon-Kosmos – sie misst, wie viele Nutzer auf ein Suchergebnis klicken. Doch: Auf A+ Content bezogen ist diese Metrik nahezu wirkungslos, solange sie nicht im Kontext der Scrolltiefe und Sichtbarkeit interpretiert wird.

Ein konkretes Beispiel: Eine hohe CTR auf der SERP kann durch ein starkes Hauptbild oder einen attraktiven Preis verursacht sein. Doch was geschieht im Listing selbst? Wenn Nutzer nur bis zu den Bullet Points scrollen und danach abspringen, bleibt der A+ Content wirkungslos – egal wie hochwertig er gestaltet ist.

Scrolltiefe misst, wie weit Nutzer tatsächlich im Listing navigieren. Tools wie DataHawk oder Perpetua bieten Heatmaps und Scrollanalysen, die sichtbar machen, ob bestimmte A+-Module überhaupt erreicht werden. Und hier trennt sich die Spreu vom Weizen: Viele Marken investieren in Vergleichstabellen oder visuelle Testimonials, die auf mobilen Geräten schlicht nie sichtbar werden – da sie zu weit unten platziert sind.

👉 Wichtig: CTR zeigt den Einstieg, Scrolltiefe zeigt das Engagement – nur zusammen ergeben sie ein aussagekräftiges Bild der Performance.


Sichtbarkeitsrate, Viewport-Zeit und Device-Splits

Nicht jedes Modul, das im A+-Bereich eingebunden ist, wird auch gesehen. Sichtbarkeit bedeutet nicht automatisch Wirkung – erst wenn ein Element tatsächlich im aktiven Viewport erscheint, ist es überhaupt messbar relevant. Deshalb greifen Profis auf spezifische Sichtbarkeitsmetriken zurück.

Drei Metriken sind hier entscheidend:

  • Time-in-Viewport: Wie lange befindet sich ein Modul sichtbar im Bildschirmfenster?
  • Sichtbarkeitsrate pro Modul: In wie vielen Sessions war das Modul tatsächlich sichtbar?
  • Position im Scrollverlauf: Liegt das Modul oberhalb oder unterhalb des sichtbaren Bereichs bei Seitenaufruf?

Tools wie Perpetua (für Mobile Viewport Tracking) oder DataHawk (für Scroll-Hitmaps) zeigen genau das. Besonders auf Mobilgeräten kommt es oft vor, dass Module unterhalb der sogenannten Fold-Grenze liegen – also nur durch aktives Scrollen sichtbar werden. Das Problem: Viele Nutzer scrollen gar nicht so weit.

Ein häufiger Fehler: Ein Icon oder Garantiesiegel wird getestet – aber liegt im unteren Drittel der Seite. Das Ergebnis des Tests? Neutral. Der Grund? Das Modul war nie sichtbar, daher konnte es auch keine Wirkung entfalten.

🛠 Praxis-Tipp: Nutze vor Testbeginn Emulatoren oder Browser-Tools, um exakt zu prüfen, ob Module im mobilen Viewport sichtbar sind. Nur so kannst Du die Wirkung eines A+-Tests überhaupt valide bewerten.


Engagement-Metriken: Wenn Sichtbarkeit nicht gleich Wirkung ist

Ist ein Modul sichtbar, bedeutet das noch lange nicht, dass es auch wirkt. Nutzer können scrollen, aber sofort wieder weiterscrollen. Genau hier kommen Engagement-KPIs ins Spiel: Sie messen, wie intensiv Nutzer mit den Inhalten interagieren.

Zentrale Metriken:

  • Scrolltiefe: Wie weit scrollt der Nutzer tatsächlich im A+-Abschnitt?
  • Verweildauer im Modul (Time-in-Module): Bleibt der Nutzer lange im Vergleichsmodul – oder ist es nur ein „Durchzappen“?
  • User Interactions: z. B. Hover-Verhalten, bei externen Tests auch Klicks auf interaktive Module (Brand Story, Icons)

Tools wie SplitBase UX Snapshots oder DataHawk Heatmaps liefern diese Daten – allerdings fast immer nur in Kombination mit externem Setup. Amazon MYE selbst misst keine Scrolltiefe oder Verweildauer im A+-Bereich.

👉 Besonders spannend: Ein Modul kann sehr kurz sichtbar sein – aber eine lange Verweildauer aufweisen. Das spricht für aktives Engagement. Umgekehrt kann ein Modul zwar im oberen Bereich stehen – aber sofort überscrollt werden. Ein klarer Hinweis darauf, dass Copy, Layout oder Formatierung nicht überzeugen.

🧠 Merke: Sichtbarkeit ≠ Wirkung. Nur durch Kombination von Time-in-Viewport und Time-in-Module entsteht eine valide Engagement-Analyse.


Modulbasierte Analyse: Welche A+-Abschnitte performen wirklich?

Nicht jedes A+-Modul hat denselben Einfluss auf die Nutzerentscheidung. Je nach Position im Funnel wirken Module unterschiedlich – Vergleichstabellen bauen Orientierung auf, Testimonials erzeugen Vertrauen, Brand Story transportiert Identität. Doch: Nur durch modulgenaue Scrolltiefe und KPI-Zuordnung lässt sich belegen, welches Modul tatsächlich funktioniert.

Ein praxisrelevanter Ansatz ist das KPI-Mapping nach Funnel-Stufen, das bereits in [Artikel 52.6 H] erläutert wurde. In Verbindung mit Scrolltiefe und Engagement-Daten ergibt sich folgende Wirkungsmatrix:

ModultypKPI-FokusTool-Empfehlung
VergleichstabellenScrolltiefe, Time-in-ModDataHawk, SplitBase
Trust-Siegel/IconSichtbarkeitsratePerpetua, Browser-Emulator
TestimonialsVerweildauer, Exit-IntentSplitBase, Helium 10 Audience
Brand StoryScrollverhalten gesamtDataHawk Heatmaps

Wichtig: Diese Tools müssen oft kombiniert werden. Amazon MYE reicht nicht aus, um Scrolltiefe oder Verweildauer sichtbar zu machen – es misst nur das Ergebnis (z. B. CR), nicht den Pfad dorthin.

🛠 Empfehlung: Für jeden Test ein Modul-Logbuch anlegen: Modultyp, Position, Sichtbarkeit, Scrolltiefe, Tool-Messung, ggf. Screenshot. So kannst Du A/B-Ergebnisse valide rückverfolgen.

Verwandelt Dein A+ Content Sichtbarkeit in Wirkung – oder scrollen Deine Kunden einfach vorbei?

📉 Wenn Scrolltiefe, Verweildauer und Conversion-Rate nicht zusammenpassen, liegt das Problem nicht am Design – sondern an der fehlenden Messlogik.

🚀 Mach Deine A+ Inhalte endlich sichtbar – im KPI-Dashboard und im Umsatz.

Conversion-Wirkung richtig interpretieren: Warum „keiner kauft“ nicht immer am A+ liegt

Wenn trotz durchdachtem A+ Design und positiver Scrolltiefe keine Conversions entstehen, liegt der Fehler häufig nicht im Modul selbst – sondern in der Interpretation der Daten. Der größte Trugschluss im Reporting besteht darin, Conversion-Raten isoliert zu betrachten, ohne die vorgelagerten Funnel-Stufen mit einzubeziehen.

Beispiel: Eine niedrige Conversion Rate kann fälschlich einem A+-Modul zugeordnet werden – obwohl bereits die SERP-CTR auffällig niedrig war oder die Bullet Points keine Relevanz vermitteln. In solchen Fällen ist der A+ Bereich gar nicht erst relevant geworden, weil die Nutzer gar nicht bis dorthin vordringen. Die Lösung liegt also nicht in der Modulanpassung, sondern in einer Verbesserung des Listings-Einstiegs.

Umgekehrt kann ein Modul eine hohe Scrolltiefe und Verweildauer aufweisen – aber dennoch keine Auswirkung auf die Add-to-Cart Rate haben. Der Grund: Nach dem Modul folgen möglicherweise preissensible Informationen, veraltete Coupons oder widersprüchliche Versandangaben, die den Impuls wieder neutralisieren.

💡 Merke: Eine Conversion ist das Ergebnis einer Kette von Nutzerentscheidungen – die Wirkung einzelner Module wird nur sichtbar, wenn man sie im Zusammenhang mit vorgelagerten und nachgelagerten Faktoren betrachtet.


KPI-Ketten sichtbar machen: Der Funnel als Mapping-Werkzeug

Ein wirksames KPI-Reporting betrachtet A+-Module nicht als isolierte Inseln, sondern als Teil eines Kaufprozesses. Genau hier setzt das Prinzip des KPI-Mappings an: Jede Kennzahl wird ihrer Funnel-Stufe und dem zugehörigen Modul zugeordnet. So entsteht eine logische Wirkungskette, die valide Rückschlüsse zulässt.

Beispielhafte Funnel-Zuordnung (Auszug):

Funnel-StufeTypische ModuleKPITool-Empfehlung
SERP (Search)Hauptbild, Preis, TitelClick-Through-Rate (CTR)Amazon MYE, Perpetua
Listing-EinstiegBullet Points, SterneBounce Rate, Time-on-ListingDataHawk, Session-Recorder
A+ ScrollbereichVergleichstabellen, StoryScrolltiefe, Time-in-ViewportDataHawk, SplitBase
VertrauensbildungTestimonials, SiegelVerweildauer, Exit-IntentHelium 10 Audience, UX Tools
EntscheidungVersandinfo, Prime, PreisAdd-to-Cart, CR, AbbruchquoteSeller Central, Session-Daten

Nur durch diese strukturierte KPI-Zuordnung wird sichtbar, wo genau im Prozess Optimierungspotenzial besteht. Eine hohe Verweildauer in Testimonials ohne anschließende Add-to-Cart-Rate deutet etwa auf fehlende Incentives hin. Eine schwache Scrolltiefe in der Vergleichstabelle zeigt hingegen, dass der Content zu spät oder zu langatmig eingebunden ist.

🛠 Empfehlung: Lege für jedes Produkt eine Funnel-Matrix an – Modulposition, KPI, Tool-Ergebnisse und Zielwert. So entstehen vergleichbare Reports, die für alle Teams nachvollziehbar sind – vom Content Design bis zur Performance-Optimierung.


Typische Fehlinterpretationen – und wie Du sie verhinderst

Viele A/B-Tests im A+ Bereich scheitern nicht an den Inhalten, sondern an methodischen Fehlern im Reporting. Wer Scrolltiefe, CTR und Conversion ohne Kontext deutet, riskiert Fehlinvestitionen, falsche Schlussfolgerungen und eine trügerische KPI-Landschaft. Die folgenden Fehlinterpretationen treten besonders häufig auf:

Fehler 1: Sichtbarkeit wird mit Engagement verwechselt

Nur weil ein Modul im oberen Drittel liegt, heißt das nicht, dass es gelesen wird. Eine kurze Time-in-Viewport-Zeit deutet auf Überscrollen hin. Empfehlung: Kombiniere Sichtbarkeitsmetriken mit Verweildauer und Interaktionsdaten.

Fehler 2: Conversion wird direkt einem A+ Modul zugeschrieben

Eine gestiegene Conversion nach Modulwechsel ist kein Beweis für dessen Wirkung – sie kann auch durch zeitgleiche Preisaktionen oder externe Faktoren beeinflusst sein. Empfehlung: Kontrolliere die Funnel-Stufen davor (CTR, Bounce) und danach (Abbruchquote nach Warenkorb).

Fehler 3: Mobile wird nicht separat betrachtet

Viele Tests basieren auf Desktop-Ansicht – doch die Mehrheit der Amazon-User agiert mobil. Wenn ein Modul dort unter der Sichtbarkeitsgrenze liegt, ist der Test nicht valide. Empfehlung: Nutze Device-Splits und Viewport-Checks vor jedem Teststart.

🔍 Fazit aus Reporting-Sicht: Nur wer sauber trennt zwischen Sichtbarkeit, Engagement und Wirkung, kann die Leistung seiner A+-Module realistisch einschätzen und datenbasiert optimieren.

Fazit: A+ Content CTR und Scrolltiefe richtig analysieren

A+ Content entfaltet seine volle Wirkung erst dann, wenn er entlang des Funnels präzise gemessen und ausgewertet wird. CTR, Scrolltiefe und Sichtbarkeitsmetriken sind keine isolierten Datenpunkte, sondern Bestandteile eines kohärenten Analyse-Frameworks. Nur wer weiß, welches Modul wann und wo gesehen, gelesen und verarbeitet wird, kann seine Listings gezielt optimieren. Die gute Nachricht: Die nötigen Tools existieren längst – was fehlt, ist der strategische Blick für das Zusammenspiel von Datenpunkten. Wer diesen beherrscht, verwandelt A+ Content von einem schönen Zusatzmodul in einen messbaren Conversion-Hebel.

📥 Persönliche Beratung für Deine KPI-Strategie


Siehe auch …

Welche A+-Content-Formate Amazon bevorzugt – und warum
Wähle das passende Modul-Layout für maximale Sichtbarkeit und mobile Performance.

Design-Best Practices für A+ Content – Bild- und Text-Optimierung
So kombinierst Du Layout, Bildsprache und Copywriting für starke Conversion-Module.

A/B-Tests für A+ Content: So messen Sie Klicks, Verweildauer und Konversion
Lerne, wie Du A+ Module datenbasiert testest – statt im Blindflug zu optimieren.

Funnel-Strategie: Wie A/B Tests den gesamten Kaufprozess optimieren
Warum es nicht reicht, nur die letzte Conversion-Stufe zu messen – und wie Du jede Funnel-Phase abdeckst.


📚 Weiterführende Ressourcen & Umsetzungshilfen

Dimitri Weinstein
Dimitri Weinstein
Artikel: 124