26Labor-Analysen
Warum Labor-Analysen?
Eine geübte Analystin erkennt in einer Trend-Kurve vieles auf einen Blick — einen Peak, einen Rückgang, eine Kopplung an eine andere Kurve. Aber es gibt Fragestellungen, bei denen die Intuition an Grenzen stößt:
- Sind zwei Peaks in verschiedenen Zeitreihen zufällig gleichzeitig oder gibt es einen signifikanten Zusammenhang?
- Hat sich das Niveau einer Zeitreihe an einem bestimmten Punkt nachhaltig verändert?
- Gibt es wiederkehrende Muster in einer Kurve, die dem Auge entgehen?
- Läuft eine Zeitreihe der anderen tatsächlich zeitlich voraus — oder wirkt das nur so?
Für solche Fragen braucht es Werkzeuge, die über das visuelle Lesen hinausgehen. Genau die stellen die Labor-Analysen bereit.
Die sieben Analysemethoden
Das GT Studio bietet sieben spezialisierte Methoden:
- Spike-Koinzidenz — Sind gleichzeitige Ausschläge signifikant?
- Change-Point-Detection — Wo verändert sich das Niveau nachhaltig?
- Rolling Correlation — Wie verändert sich die Korrelation über die Zeit?
- Periodizitäts-Filter (FFT) — Welche wiederkehrenden Zyklen stecken in der Kurve?
- Granger-Kausalität — Läuft eine Zeitreihe der anderen voraus?
- Forecasting — Was ist die plausible Fortsetzung einer Kurve?
- RQ Cluster-Analyse — Welche Gruppen verwandter Suchbegriffe gibt es?
Wir gehen sie einzeln durch.
Spike-Koinzidenz
Was sie prüft: Wenn zwei Zeitreihen gleichzeitig Peaks zeigen — ist das Zufall oder nicht?
Die Methode identifiziert in beiden Zeitreihen signifikante Spitzen (Werte, die deutlich über dem normalen Niveau liegen) und prüft, wie oft diese Spitzen zeitlich zusammenfallen. Dann vergleicht sie diese Koinzidenz-Rate mit der Zufallswahrscheinlichkeit.
Das Ergebnis ist ein p-Wert: die Wahrscheinlichkeit, dass die beobachtete Übereinstimmung rein zufällig ist. Ein p-Wert unter 0,05 gilt als signifikant — unter 0,01 als hoch signifikant.
Wofür forensisch wichtig: Der klassische Fall ist die Frage: „Suchvolumen für Firma X steigt immer genau dann, wenn auch im Telegram-Kanal Y Aktivität auftritt. Ist das koordiniert oder Zufall?" Die Spike-Koinzidenz liefert die quantitative Antwort. Bei p < 0,01 und genügend Datenpunkten ist der Zusammenhang statistisch hart.
Change-Point-Detection
Was sie prüft: An welchen Punkten verändert sich das Niveau einer Zeitreihe nachhaltig?
Manche Veränderungen sind keine Spikes, sondern Regime-Wechsel: Das Suchvolumen für ein Thema liegt bis zu einem bestimmten Zeitpunkt bei 10 — danach bei 40. Kein Peak, sondern eine bleibende Verschiebung.
Die Change-Point-Detection findet automatisch solche Bruchstellen. Sie gibt aus: An welchem Datum liegt der Übergang? Wie groß ist die Veränderung? Wie sicher ist der Befund?
Wofür forensisch wichtig: Ermittlungen drehen sich oft um die Frage: „Ab wann?" Wann begann ein Interesse? Wann änderte sich ein Muster? Wann trat ein neuer Akteur auf? Change-Points sind die quantitative Antwort auf solche Fragen. Sie markieren Wendepunkte, die zeitlich mit anderen Ereignissen korreliert werden können.
Eine typische Folgerung: Der Change-Point im Suchvolumen fällt auf den 13. Januar. Am 15. Januar erschien die erste Presseveröffentlichung. Zwischen diesen beiden Punkten muss etwas passiert sein, was die Suche auslöste — ohne dass es öffentlich berichtet wurde.
Rolling Correlation
Was sie prüft: Wie stark sind zwei Zeitreihen zu verschiedenen Zeitpunkten korreliert?
Eine einfache Korrelationszahl über den gesamten Zeitraum kann täuschen. Zwei Zeitreihen können zeitweise perfekt gekoppelt sein und zeitweise völlig unabhängig. Die Rolling Correlation zeigt den Korrelationskoeffizienten als eigene Kurve — berechnet innerhalb eines gleitenden Zeitfensters.
Das Ergebnis ist eine Linie zwischen -1 und +1, die sich über die Zeit bewegt. Kopplungs-Phasen erkennen Sie als Abschnitte mit hohem Wert, Entkopplungs-Phasen als Abschnitte nahe 0.
Wofür forensisch wichtig: Kopplungs-Phasen markieren oft Ereignisfenster: Zeitraume, in denen ein gemeinsamer externer Impuls zwei Zeitreihen gleichzeitig zieht. Vor und nach diesen Fenstern sind die Zeitreihen unabhängig.
Wenn Sie einen solchen Kopplungs-Zeitraum identifizieren, können Sie gezielt nachschauen: „Was ist in dieser Periode passiert, was beide Quellen gleichzeitig beeinflusst hat?"
Periodizitäts-Filter (FFT)
Was sie prüft: Welche wiederkehrenden Zyklen stecken in einer Zeitreihe?
Die Fourier-Transformation (FFT) zerlegt eine Zeitreihe in ihre Frequenzbestandteile. Statt zu sehen, was zu welchem Zeitpunkt passiert, sehen Sie, welche Rhythmen in den Daten stecken: wöchentlich? monatlich? jährlich? alle 11 Tage?
Das Ergebnis ist ein Frequenzspektrum — eine Grafik, in der Peaks auf dominante Zyklen hinweisen.
Wofür forensisch wichtig: Wiederkehrende Muster sind oft Hinweise auf systematisches Verhalten. Drei Beispiele:
- Ein Suchvolumen mit starkem Wochenrhythmus deutet auf normales Nutzerverhalten (Wochenende vs. Werktag)
- Ein Muster mit genau 14-Tage-Zyklus ist ungewöhnlich — so verhalten sich keine organischen Nutzer, aber es könnte einen Abrechnungszyklus, eine Kampagnenstruktur oder eine Bot-Taktung anzeigen
- Das Fehlen eines erwarteten Rhythmus (etwa kein Wochenend-Rhythmus bei einem Konsumthema) ist ebenfalls ein Signal
Die FFT macht solche Muster quantitativ sichtbar — statt dass Sie sie visuell erraten müssen.
Granger-Kausalität
Was sie prüft: Läuft eine Zeitreihe der anderen zeitlich voraus? Und wenn ja, signifikant?
Das ist die statistisch solideste Annäherung an die Frage nach Ursache und Wirkung — wohlgemerkt als Annäherung. Die Granger-Kausalität prüft, ob vergangene Werte von Zeitreihe A die zukünftigen Werte von Zeitreihe B besser vorhersagen als B allein. Wenn ja, heißt man: A Granger-verursacht B.
Das ist keine echte Kausalität im philosophischen Sinn — aber eine operative Annäherung, die für viele forensische Fragen ausreicht.
Das Ergebnis ist wieder ein p-Wert sowie die Angabe des optimalen Lag (wie viele Zeiteinheiten liegt A voraus?).
Wofür forensisch wichtig: Die beste Frage für Granger-Kausalität ist: „Welche Datenquelle läuft dem öffentlichen Ereignis zeitlich voraus?" Wenn das Suchvolumen die Nachrichten-Frequenz Granger-verursacht, wussten Leute, wonach sie suchten, bevor es in den Nachrichten war. Wenn die Nachrichten das Suchvolumen Granger-verursachen, war die Berichterstattung Auslöser.
Wichtig: Granger-Kausalität ist richtungsabhängig. Sie prüfen also beide Richtungen — manchmal zeigen sich bidirektionale Kopplungen (beide laufen einander voraus, je nach Phase), manchmal klare Einbahnstraßen.
Forecasting
Was sie prüft: Was ist die plausible Fortsetzung einer Zeitreihe?
Das Forecasting extrapoliert eine Zeitreihe in die Zukunft — auf Basis von historischem Verhalten, saisonalen Mustern und Trends. Das Ergebnis ist eine Prognose mit Konfidenzintervall: Wahrscheinlicher Verlauf, zusammen mit dem Band, innerhalb dessen die tatsächlichen Werte liegen sollten.
Das ist im GT Studio kein Werkzeug zum Zukunftsvorhersagen im klassischen Sinn. Forensisch wichtig ist die Methode als Plausibilitätsprüfung:
Wofür forensisch wichtig: Wenn Sie eine Hypothese prüfen wollen, ob eine beobachtete Bewegung ungewöhnlich war, hilft das Forecasting. Die Frage lautet: „Was wäre der erwartete Verlauf gewesen — basierend auf allem, was vor dem fraglichen Zeitraum passiert ist?"
Wenn der tatsächliche Verlauf weit außerhalb des Prognose-Konfidenzintervalls liegt, ist die Bewegung statistisch unerwartet. Das ist ein quantitatives Maß für Auffälligkeit, das sich mit anderen Signalen kombinieren lässt.
RQ Cluster-Analyse
Was sie prüft: Welche Gruppen verwandter Suchbegriffe gibt es in einem Themenfeld?
Google Trends liefert zu jedem Keyword Related Queries — also Suchbegriffe, die häufig im Zusammenhang mit dem ursprünglichen Begriff verwendet werden. Die RQ Cluster-Analyse nimmt diese verwandten Queries, analysiert ihre Zeitverläufe und gruppiert sie in Cluster — Begriffe, die sich ähnlich verhalten.
Das Ergebnis ist eine Clusterstruktur: In Cluster A befinden sich Begriffe, die alle zur selben Zeit auffällig werden. In Cluster B andere. Jeder Cluster repräsentiert meist eine thematische Facette der Gesamtrecherche.
Wofür forensisch wichtig: Die Methode zeigt, welche Teilthemen in einem Komplex wann aktiv waren. Nehmen wir die Recherche zu einem Unternehmen: RQ-Cluster können zeigen, dass in einer Phase vor allem nach Produkten gesucht wurde, in einer anderen nach Führungspersonen, in einer dritten nach rechtlichen Fragen.
Das ist wertvolle Erkenntnis über die öffentliche Aufmerksamkeits-Struktur — und Verschiebungen darin markieren oft Wendepunkte im Narrativ um ein Thema.
Wie diese Methoden zusammen wirken
Die sieben Labor-Analysen sind keine Konkurrenz, sondern ergänzen sich:
- Change-Points zeigen, wann sich etwas ändert.
- Spike-Koinzidenz prüft, ob zwei Zeitreihen gemeinsam reagieren.
- Granger-Kausalität zeigt, welche zuerst kam.
- Rolling Correlation zeigt, in welchen Phasen die Kopplung besteht.
- FFT zeigt, ob es wiederkehrende Rhythmen gibt.
- Forecasting zeigt, ob eine Beobachtung erwartet war.
- RQ Cluster zeigt, welche Themen-Facetten aktiv sind.
In der Praxis kombinieren Sie je nach Fragestellung. Für eine typische Ermittlung zu einer verdächtigen Kursbewegung:
- Change-Point-Detection auf der Kurs-Zeitreihe — wo ändert sich das Niveau?
- Spike-Koinzidenz zwischen Kurs und Suchvolumen — fallen die Peaks signifikant zusammen?
- Granger-Kausalität zwischen beiden — läuft das Suchvolumen voraus?
- Rolling Correlation — in welcher Phase war die Kopplung am stärksten?
- FFT auf dem Suchvolumen — ist das Muster organisch oder zyklisch-künstlich?
Fünf Methoden, fünf Perspektiven, ein Gesamtbild.
KI-Analyse der Labor-Ergebnisse
Jede Labor-Analyse lässt sich von der integrierten KI-Analyse kommentieren. Die KI beschreibt, was die Ergebnisse zeigen — in verständlicher Sprache, mit Kontext zur forensischen Bedeutung. Das beschleunigt die Interpretation erheblich, besonders bei Methoden, die statistisches Vorwissen voraussetzen.
Im Follow-up-Chat können Sie Rückfragen stellen:
- „Wie robust ist das Ergebnis gegenüber Ausreißern?"
- „Gibt es alternative Erklärungen für das beobachtete Muster?"
- „Welche Methode würde die Granger-Kausalität zusätzlich stützen?"
Die KI hat Zugriff auf die Rohwerte der Analysen — sie halluziniert weniger als bei allgemeinen Fragen.
Grenzen der Labor-Analysen
Jede dieser Methoden hat Voraussetzungen und Grenzen. Die wichtigsten:
- Datenlänge — Die meisten Methoden brauchen genügend Datenpunkte für robuste Aussagen. Bei sehr kurzen Zeitreihen werden die Ergebnisse instabil.
- Datenqualität — Manipulierte, stark verrauschte oder lückenhafte Daten liefern bei allen Methoden unzuverlässige Ergebnisse.
- Stationarität — Manche Methoden (insbesondere Granger) setzen voraus, dass sich die statistischen Eigenschaften der Zeitreihe nicht grundlegend ändern. Bei nicht-stationären Zeitreihen kann Vorverarbeitung nötig sein.
- Multiple Testing — Wer viele Paare auf Signifikanz prüft, findet durch Zufall manche scheinbar signifikante Beziehung. Bei umfangreicher Batch-Analyse sollten p-Werte entsprechend korrigiert werden.
Diese Grenzen sind kein Argument gegen die Methoden — sondern ein Argument für sorgfältige Interpretation. Die Werkzeuge liefern Zahlen. Was diese Zahlen bedeuten, bleibt forensische Arbeit.
Was Sie jetzt können
- Die sieben Labor-Analysen und ihren jeweiligen Anwendungsbereich benennen
- Spike-Koinzidenz zur Prüfung gleichzeitiger Ausschläge einsetzen
- Change-Points als Niveau-Brüche erkennen und zeitlich einordnen
- Rolling Correlation zur Identifikation von Kopplungs-Phasen nutzen
- FFT-Periodizitäten lesen und ungewöhnliche Zyklen erkennen
- Granger-Kausalität als operative Annäherung an Ursache-Wirkungs-Fragen einsetzen
- Forecasting zur Plausibilitäts-Prüfung nutzen
- RQ Cluster-Analysen zur Strukturierung thematischer Facetten einsetzen
- Methoden sinnvoll kombinieren
- Die Grenzen und Voraussetzungen der Methoden realistisch einschätzen