Methoden
Methoden
Auf dieser Seite finden Sie eine Übersicht über diejenigen Methoden, Erhebungs- und Auswertungsverfahren, in welchen ich über umfangreiche Expertise verfüge.
Bitte beachten Sie, dass einige Verfahren in unterschiedlichen Fachdisziplinen unterschiedlich benannt werden, während andere Verfahren eher als Oberbegriff einer ganzen Verfahrensfamilie zu verstehen sind.
Sollte das von Ihnen gewünschte Verfahren nicht aufgelistet sein, so ist es demnach gut möglich, dass auf dieser Seite lediglich ein anderer Begriff verwendet wird. Kontaktieren Sie mich entsprechend dennoch gerne.
Übersicht Auswertungsverfahren
Methoden zur Analyse von Verteilungen, Zusammenhängen und Trends
- Uni- und bivariate Analysen: Dies umfasst die Analyse der zentralen Tendenz (z. B. arithmetisches Mittel/“Mittelwert“ und Median) und der Streuung (z. B. Varianz, Standardabweichung, Schiefe und Kurtosis) einzelner Variablen sowie der Stärke des Zusammenhangs zwischen zwei Variablen, auch als „Korrelation“ bezeichnet (z. B. Pearsons r, Spearmans Rho, Chi² Test, t-Test und ANOVA).
- Explorative und konfirmatorische Faktoranalysen (EFA & CFA): Bei der Faktoranalyse handelt es sich (neben anderen Anwendungsmöglichkeiten) im Allgemeinen um ein Verfahren, mit welchem die Güte und Qualität eines Test- oder Erhebungsinstrumentes überprüft werden kann. Wollen Sie z. B. ein nicht direkt beobachtbares, „latentes“ Phänomen messen (z. B. „Gesundheitsbewusstsein“) und benutzen hierfür mehrere einzelne Fragen in einem Fragebogen (z. B. „Haben Sie im vergangenen Jahr ärztliche Vorsorgeuntersuchungen wahrgenommen?“), so lässt sich mit der Faktoranalyse analysieren, in wie fern jede einzelne Frage zur Messung des latenten Phänomens beiträgt. Hierdurch lassen sich Gewichtungs-Koeffizienten ermitteln sowie die gesamte Datenqualität evaluieren.
- Clusteranalysen: Hierbei handelt es sich um eine Verfahrensfamilie, mit deren Hilfe sich Gruppen von Personen hinsichtlich gemeinsamer Merkmale identifizieren lassen. Dies kann beispielsweise verwendet werden, um Kundensegmente zu bilden und voneinander abzugrenzen.
- Residuendiagnostik und Ausreißer-Identifikation: Mithilfe der Residuendiagnostik lässt sich die Güte einer Regressionsanalyse evaluieren. Teil hiervon ist die Ausreißer-Identifikation, mit deren Hilfe sich z. B. Individuen innerhalb eines Datensatzes identifizieren lassen, welche sich „sehr ungewöhnlich“ verhalten. Dies bildet beispielsweise die Grundlage von Betrugs-Erkennungsverfahren, wie sie etwa von Banken zur Erkennung von Kreditkartenbetrug verwendet werden.
- Trendanalysen: Insbesondere für Zeitreihendaten (z. B. Kursverläufe von Wertpapieren oder Temperatur im Zeitverlauf) ist es häufig nötig zu identifizieren, ob Werte aktuell eher zunehmen, abnehmen oder sich seitlich bewegen. Dies ermöglicht Prognosen zukünftiger Verläufe.
Klassische Methoden zur Entwicklung von Kausal- und Vorhersagemodellen
- Regressionsanalysen: Dies umfasst alle regressiven Verfahren wie die lineare Regression (OLS-Regression), die logistische Regression, die nicht-lineare Regression, die generalisierte lineare Regression (GLM), die nicht-parametrische Regression oder die bayessche Regression. Eines der Ziele von Regressionsanalysen ist es, Vorhersagemodelle zu entwickeln.
- Fixed- und Random-Effects Analysen: Fixed- und Random-Effects Analysen werden als Alternativen zu klassischen Regressionsanalysen verwendet, wenn Paneldaten (Daten, die zu mehreren Zeitpunkten erhoben wurden) vorliegen. Ziel ist es, zeitlich unveränderliche Faktoren zu identifizieren und somit die Güte der Schätzung gegenüber klassischen Regressionsanalysen zu erhöhen.
- Mehrebenenanalysen: Hierbei handelt es sich um spezielle Verfahren innerhalb der Familie der Regressionsanalysen, welche verwendet werden, wenn sogenannte hierarchische Daten vorhanden sind (z. B. Analyse von Schülern, wobei sowohl Merkmale der einzelnen Schüler, als auch Merkmale der Klasse/Schule analysiert werden). Liegen hierarchische Daten vor, so erhöhen Mehrebenenanalysen die Güte der Schätzung gegenüber klassischen Regressionsanalysen.
- Analyse von Paradaten: Die Analyse von Paradaten (z. B. Reaktionszeiten, Nutzerverhalten in einer App oder auf einer Webseite) ermöglicht die Analyse bestimmter Phänomene, welche sich ansonsten bei direkter Beobachtung anders ausprägen würden. Teilnehmende von Studien verhalten sich anders (weniger natürlich), wenn ihnen bewusst ist, dass sie beobachtet werden. Die Analyse von Paradaten umgeht dieses Phänomen.
Komplexe Methoden zur Entwicklung von Kausal- und Vorhersagemodellen
- Strukturgleichungsmodellierung (SEM): SEM gilt als Kombination aus Regressionsanalyse und CFA und stellt ein äußerst flexibles Framework für die Modellierung und Schätzung verschiedenster Kausalmodelle dar. So lassen sich beispielsweise auch Fixed- und Random-Effects Modelle sowie Mehrebenenmodelle mithilfe von SEM schätzen. Unterschiedliche Schätzalgorithmen (z. B. ML, WLSMV, GLS) ermöglichen dabei sowohl parametrische, als auch nicht-parametrische Schätzungen, so dass Variablen mit unterschiedlichster Skalierung (z. B. binäre, geordnet-kategoriale oder kontinuierliche Variablen) innerhalb des Modells verwendet werden können.
- Moderator- und Mediatoranalysen, nicht-lineare Modelle: Mithilfe von Regression/SEM ist es möglich, komplexe Pfadabhängigkeiten, welche sich z. B. aus dem Vorhandensein von Moderatoren und Mediatoren ergeben, zu analysieren. Dies ermöglicht eine verbesserte Annäherung an die Wirklichkeit gegenüber klassischen, linearen Verfahren.
- Machine Learning Verfahren (z.B. Random Forest Analysen): Solche Verfahren ermöglichen grundsätzlich eine Vielzahl von Anwendungsmöglichkeiten, werden aber wohl am häufigsten für die Entwicklung von Vorhersagemodellen verwendet. So lassen sich Beispielsweise aus einer Vielzahl von Faktoren diejenigen identifizieren, welche bei Auftreten zu einem bestimmten Ereignis führen (z. B. welche Kombinationen von vorhandenen Faktoren führen dazu, dass ein Kunde einen Kauf tätigt).
- (Latente) Wachstumskurvenmodelle: Wachstumskurvenmodelle ermöglichen die Analyse von Faktoren welche darauf einwirken, ob ein gewisser Trend gerade zunimmt, abnimmt oder sich seitlich bewegt.
- (Latente) Autoregressive und Cross-Lagged Modelle: Diese Modelle ermöglichen Rückschlüsse auf die kausale Reihenfolge von Phänomenen. Z. B.: Werden depressive Menschen häufiger Arbeitslos, macht Arbeitslosigkeit depressiv oder ist der Zusammenhang interdependent?
Übersicht Erhebungsverfahren
Fragebogenerhebungen
- Fragebogenentwicklung: Eines der Standard-Instrumente zur Erhebung von Daten ist der Fragebogen. Bei der Entwicklung von und der Erhebung von Daten mit Fragebögen können jedoch eine Reihe von „Fehlern“ auftreten, welche die Güte der erhobenen Daten verringern. Dies wird als „Total Survey Error“ bezeichnet. Entsprechend unterstütze ich Sie bei der Entwicklung Ihres Fragebogens, um diese Fehler zu vermeiden.
- Planung, Programmierung und Durchführung von Onlineerhebungen: Wohl mit die schnellste Möglichkeit, um Daten zu erheben, ist durch das Durchführen von Online-Erhebungen gegeben. Gerne unterstütze ich Sie dabei, Ihren Fragebogen zu digitalisieren und Online zugänglich zu machen.
- Planung von CATI- und CASI-Erhebungen: Computergestützte Telefon-Interviews (CATI) und computergestützte Selbst-Interviews (CASI) gelten mittlerweile gegenüber Onlineerhebungen als klassische Verfahren, haben aber nach wie vor einen hohen Stellenwert. Möchten Sie eine solche Befragung durchführen, unterstütze ich sie bei der Konzeption und Durchführung.
- Faktorielle Surveys: Als faktorielle Surveys werden Fragebogenerhebungen bezeichnet, bei denen die Fragebögen (die präsentierten Stimuli) für die einzelnen Befragten verschieden sind. Dies ermöglicht die Analyse dessen, wie Teilnehmende auf unterschiedliche Stimuli reagieren, was unter anderem Rückschlüsse auf mögliche Optimierungspotenziale zulässt.
Weitere Erhebungsverfahren
- Experimentelle Designs: Experimente gelten häufig als „Goldstandard“, wenn die kausale Wirkung (z. B. die Wirksamkeit von Medikamenten, Trainings oder Interventionen) eindeutig analysiert werden soll. Entsprechend unterstütze ich sie bei der Konzeption, Planung und Durchführung Ihres Experimentes.
- Durchführung und Auswertung von Interviews: Daten können nicht nur mithilfe von standardisierten Fragebögen, sondern ebenfalls mithilfe von teil- oder unstandardisierten Interviews erhoben und ausgewertet werden. Dies ermöglicht gegenüber standardisierten Fragebögen vertiefende Einblicke in bestimmte Phänomene, schlicht, da InterviewerInnen an relevanten Stellen nachfragen können. Solche Interviews werden z. B. häufig bei Usability-Evaluationen durchgeführt. Diesbezüglich kann ich Sie dabei unterstützen, ein solches Interview zu planen, InterviewerInnen zu rekrutieren oder zu trainieren oder selbst die Interviews durchzuführen und auswerten.
- Export und Analyse von Daten aus Datenbanken: Daten müssen nicht zwangsläufig für jede Analyse neu erhoben werden und können stattdessen bereits in bestimmten Datenbanken vorliegen (z. B. eCommerce Daten aus einem Onlineshop-System). Solche Daten kann Ich für Sie exportieren und aufbereiten, so dass sich damit sinnvolle Analysen durchführen lassen.
- Mixed Mode Erhebungen: Als Mixed Mode Erhebungen werden solche Datenerhebungen bezeichnet, innerhalb welcher Daten aus verschiedenen Erhebungen miteinander verknüpft werden (z. B. Nutzerdaten aus einer App mit Fragebogendaten aus einer Onlineerhebung). Das besondere Augenmerk hierbei liegt auf der datenschutzkonformen Umsetzung dieser Verknüpfung, welche häufig ein erhebliches Problem darstellt. Gerne berate und unterstütze ich Sie hierbei.