Politikwissenschaft: Autoritärer Charakter

Die Autoritäre Persönlichkeit, die Adorno, Levinson, Sanford und Frenkel-Brunswick im Jahre 1950 veröffentlicht haben, ist zu einem klassiker der empirischen Sozialforschung geworden, auf den immer gerne Bezug genommen und aus dem immer gerne zitiert wird, in der Regel mit Bezug auf die F-Skala, die zur Messung von Faschismus entwickelt wurde. Dass die F-Skala sich aus einer Reihe von Teilskalen zusammensetzt, weiß kaum mehr jemand. Dass eine dieser Teilskalen „Konventionalismus“ misst, noch viel weniger.

Anfälligkeit für den Faschismus ist nach einer bekannten Hypothese charakteristisch für den Mittelstand und ‚liegt in der Kultur‘; die am stärksten Angepassten hegen demzufolge die meisten Vorurteile. Um Material für diese Hypothese zu sammeln, wurden Skalensätze aufgenommen, welche sich auf die Bindung an konventionelle Normen bezogen. Die ersten Ergebnisse machten jedoch deutlich, dass dies nicht so einfach war. Die Korrelation zwischen konventionellen Wertvorstellungen und dem Vorurteil schien positiv, aber nicht sehr hoch; während unkonventionelle Personen gewöhnlich unvoreingenommen waren, gab es unter den Konventionellen Voreingenommene und Unvoreingenommene. Den Unterschied in der Gruppe der Konventionellen schien der Ursprung des Konventionalismus oder vielmehr die Charakterstruktur im ganzen auszumachen, in der er eine funktionale Rolle spielte. Wenn die Unterwerfung unter konventionelle Werte Ausdruck eines voll ausgebildeten Gewissens war, musste nicht zwangsläufig eine Verbindung zwischen diesen Wertvorstellungen und antidemokratischem Potential bestehen. Die gleichen Verhaltensnormen, die das Individuum leicht empören, weil es in ihnen die niedrige Moral nichtassimilierter Minderheiten oder der ‚unteren Klassen‘ sieht, würden – wären sie hinreichend internalisiert – seinen Widerspruch gegen Gewalt und Verbrechen hervorrufen, die den Faschismus im fortgeschrittenen Stadium kennzeichnen. Wo andererseits gesellschaftlicher Druck an konventionellen Normen festhalten lässt, wo der Konventionalismus auf dem Beharren des Individuums an den Normen der Kollektivmacht beruht, mit der es sich im Augenblick identifiziert, ist auf antidemokratische Empfänglichkeit zu schließen. Nur im letzteren Fall sprechen wir von Konventionalismus und unterscheiden ihn von der bloßen Anerkennung herkömmlicher Werte. Das konventionalistische Individuum vermag guten Gewissens dem Diktat äußerer Mächte zu folgen, wo immer sie es hinführen, und wäre – wie der Konvertit, der vom offiziellen Kommunismus zum Katholizismus überwechselt – auch fähig, seinen moralischen Kodex gegen einen ganz anderen auszutauschen“ (Sanford et al., Studien zum autoritären Charakter, S.47-48)

Qualitative Inhaltsanalyse: Strukturierung

Man sammelt Daten, macht Interviews, stellt Dokumente zusammen, und am Ende hat man viel Text. Sehr viel Text. Und was macht man mit dem Text? Wie wertet man ihn aus? Wie rückt man ihm zuleibe?

Generell ist es das Ziel aller qualitativen Verfahren, Information einerseits zu reduzieren und andererseits zu verdichten. Gemeinhin soll der Kern, das Wesentliche, das sich als Datum in Datenmaterial befindet (oder befinden soll) und für die Beantwortung einer Forschungsfrage notwendig ist, herausgearbeitet werden.

Also braucht man zunächst eine Forschungsfrage.

Das macht Sinn und gibt der Forschung eine Richtung. Wer sich für die Mechanismen der Beilegung von Streit in Beziehungen interessiert, der muss keine Befragung in einem Unternehmen durchführen.

Die Forschungsfrage strukturiert das Datenmaterial in gewisser Weise, aber nur oberflächlich. Sie dient im Rahmenwerk von Mayring der Bestimmung der Analyseeinheit. Dieser Bestimmung folgt die eigentliche Strukturierung des Materials, die Mayring in vier Typen unterscheidet:

  • „Eine formale Strukturierung will die innere Struktur des Materials nach bestimmten formalen Strukturierungsgesichtspunkten herausfiltern.
  • Eine inhaltliche Strukturierung will Material zu bestimmten Themen, zu bestimmten Inhaltsbereichen extrahieren und zusammenfassen.
  • Eine typisierende Strukturierung will auf einer Typologisierungsdimension einzelne markante Ausprägungen im Material finden und diese genauer beschreiben.
  • Eine skalierende Strukturierung will zu einzelnen Dimensionen Ausprägungen in Form von Skalenpunkten definieren und das Material daraufhin einschätzen.“

In jedem Fall dient eine Strukturierung dazu, ein Kriterium oder mehrere Kriterien an das Material heranzutragen und Letzteres auf diese Weise zu „strukturieren“. Im Falle der formalen Strukturierung erfolgt dies z.B. mit Hilfe der folgenden Kriterien:

  • „Ein syntaktisches Kriterium: Die Struktur der sprachlichen Formulierungen im Material soll untersucht werden, Besonderheiten im Satzbau, Abweichungen, Brüche o.ä. sollen herausgefunden werden.
  • Ein thematisches Kriterium: Die inhaltliche Struktur, die Abfolge thematischer Blöcke, die inhaltliche Gliederung des Materials soll herausgearbeitet werden.
  • Ein semantisches Kriterium: Die Beziehung von einzelnen Bedeutungseinheiten untereinander soll rekonstruiert werden.
  • Ein dialogisches Kriterium: Die Abfolge einzelner Gesprächsbeiträge und Gesprächsschritte soll analysiert werden.“

(Mayring, Qualitative Inhaltsanalyse, S.85).

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

 

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

Statistik: Die Kaplan-Meier Erfolgsstory

Der am häufigsten zitierte Fachzeitschriftenaufsatz aus dem Bereich der Statistik: Kaplans und Meiers „Nonparametric Estimation from Incomplete Observations” Nach einer Analyse von Thomas P. Ryan und William H. Woodall (2005) war der Aufsatz mit dem Titel „Nonparametric Estimation from Incomplete Observations“, das von Edward L. Kaplan und Paul Meier im Jahr 1958 im Journal of the American Statistical Association veröffentlicht wurde, zum damaligen Zeitpunkt, also 2005, mit 25.869 Zitierungen seit dem Erscheinungsjahr der am häufigsten zitierte statistische Fachzeitschriftenaufsatz. Darüber hinaus war er unter den fünf am häufigsten zitierten wissenschaftlichen Fachartikeln. Seitdem hat es u.W. zwar keine neuere Analyse der am häufigsten zitierten statistischen Aufsätze gegeben, aber es erscheint plausibel zu vermuten, dass Kaplans und Meiers Aufsatz nach wie vor der am häufigsten zitierte statistische Aufsatz ist, schlagen die Autoren doch ein statistisches Schätzverfahren vor, mit Hilfe dessen der Anteil von Merkmalen oder Ereignissen bzw. deren Eintrittswahrscheinlichkeiten in einer Population geschätzt werden kann, wenn zensierte Daten vorliegen, d.h. wenn das interessierende Merkmal oder das interessierende Ereignis auch noch nach dem Ende des Beobachtungszeitraums, für den Daten vorliegen, eintreten kann. Dies ist häufig der Fall, wenn es um medizinische Fragestellungen geht, aber auch für viele sozialwissenschaftliche Fragestellungen ist das Verfahren von Kaplan und Meier relevant. Beispielsweise dann, wenn man auf der Basis von Daten, die man, für Einbrecher und ihre Einbrüche in einem bestimmten Beobachtungszeitraum, z.B. zwischen 1998 und 2010, vorliegen hat, eine Schätzung darüber vornehmen will, wie hoch die Rückfallquote unter (diesen) Einbrechern ist. Weil die Einbrecher, für die Daten vorliegen, ja auch nach 2010 noch Einbrüche begangen haben können oder begehen können, ist ein statistisches Schätzverfahren notwendig, das diesem Umstand Rechnung trägt. Der sogenannten Kaplan-Meier- Schätzer tut dies. Ein weiterer Vorteil des Verfahrens nach Kaplan und Meier ist, dass keine Annahmen über die Form Verteilung der Überlebensfunktion gemacht werden muss, in unserem Beispiel also darüber, ob die Anteile der Einbrecher, die rückfällig werden, im Zeitverlauf einer Linie oder (irgendeiner Art von) Kurve folgen. Es ist also nicht überraschend, dass der Kaplan-Meier-Schätzer häufig verwendet wird und dementsprechend häufig zitiert wird. Vielleicht hat zur Qualität des Aufsatzes auch der Umstand beigetragen, dass Kaplan und Meier zunächst getrennte Manuskripte über das von ihnen entwickelte Schätzverfahren eingereicht hatten, und die Herausgeber aufgrund der – wenig verwunderlichen – Ähnlichkeit der Manuskripte anregten, die beiden Texte zu einem einzigen Text zusammenzufassen, woraufhin die Autoren darangingen, ihre Differenzen mit Bezug auf die Details des Schätzverfahrens auszuräumen, wozu sie vier Jahre brauchten! Was lange währte, wurde endlich gut, und zwar so gut, dass das statistische Verfahren, das Kaplan und Meier schließlich im oben genannten Text im Jahr 1958 vorstellten, heute zu einem nicht wegzudenkenden Instrument im methodischen Baukasten der statistischen Analyse geworden ist. Literatur: Kaplan, Edward L. & Meier, Paul (1958): Nonparametric Estimation from Incomplete Observations. Journal of the American Statistical Association 53(282): 457-481. Ryan, Thomas P. & Woodall, William H. (2005): The Most-Cited Statistical Papers. Journal of Applied Statistics 32(5): 461-474.]]>