Statistik: Faktorenanalyse

Aus viel mach wenig: Eine Kurzeinführung in die Faktorenanalyse
Der Ausgangspunkt der Analyse, die mit SPSS durchgeführt wurde, ist die Frage nach den Gründen, die jemanden dazu bewegen können, bei schönem Wetter durch den Wald zu rennen, d.h. sich als Jogger zu betätigen. Um diese Frage zu beantworten, wurde diversen Personen eine Liste vorgelegt, die Motive zusammenstellt, die als Begründung für das durch-den-Wald-Rennen dienen können. Jeder „Befragte“ konnte auf einer Likert-Skala, das heißt auf einer Skala, die fünf Antwortmöglichkeiten vorsieht und von der Bewertung „sehr wichtig“ über „weniger wichtig“ bis zu „völlig unwichtig“ reicht, seine Bewertung vornehmen.

Ergebnis vorweggenommen

Die Faktorenanalyse wurde zur Datenreduktion entwickelt. Da man sich gewöhnlich ziemlich hilflos fühlt, wenn man sich einem Datenberg gegenüber sieht, der aus mehr als drei Variablen oder items besteht, ist die Faktorenanalyse zum beliebten Mittel avanciert, um den Berg in nette kleine Hügel zu zerlegen, wobei jeder Hügel mehrere der ursprünglichen Items umfasst, von denen angenommen wird, dass sie eine gemeinsame Dimension besitzen. Und so wie die Variablen, Diäten, Sektempfang, Rede, Parteitag, Berlin und private Krankenversicherung geeignet sind, die gemeinsame Dimension Mitglied des Bundestages zu konstituieren, so wird von den Items, die in einer Faktorenanalyse auf demselben Faktor laden, angenommen, dass sie eine gemeinsame Dimension, eine sogenannte latente Variable verbindet. Das war „die Theorie“ und nun folgt die Praxis.

Mit dem rechts dargestellten Befehl wird eine explorative Faktorenanalyse angefordert. Grundlage der Analyse sind alle Motive, die ein Jogger für das durch-den-Wald-Rennen angeben konnte. Explorativ ist die Faktorenanalyse deswegen, weil die Anzahl der Faktoren, die am Ende der Analyse steht, dem Programm überlassen bleibt und nicht vorgegeben wird, was durchaus möglich ist; dann spricht man von einer konfirmatorischen Faktorenanalyse. Mit einer Faktorenanalyse wird – wie gesagt – untersucht, ob sich in den Daten gemeinsame Dimensionen (Faktoren) finden lassen, d.h. ob sich hinter mehreren beobachteten Variablen eine unbeobachtete latente Variable verbirgt. Zudem zeigt sich im vorliegenden Fall die wichtige Funktion der Datenreduktion, die die Faktorenanalyse erfüllt: Wer kann schon 25 Motive aufeinander beziehen und interpretieren! Die im Folgenden dargestellte Faktorenanalyse ist die gebräuchlichste Form, die Hauptkomponentenanalyse.

Die erste Frage, die interessiert, lautet: Ist das Ergebnis der Faktorenanalyse überhaupt brauchbar? Um diese Frage zu beantworten, gibt es einige Tests. Die zwei gebräuchlichsten sind im Folgenden dargestellt.

KMO- und Bartlett-Test    
Maß der Stichprobenneigung nach Kaiser-Meyer-Olkin   .666
Bartlett-Test auf Sphärizität ungefähres chi-Quadrat 1537,948
  Freiheitsgrade 300
  Signifikanz nach Bartlett ,000

Technisch betrachtet untersucht das Kaiser-Meyer-Olkin Maß (KMO), ob die Summe der quadrierten partiellen Korrelationskoeffizienten auf den unterschiedlichen Dimensionen (oder Faktoren) im Vergleich zur Summe der quadrierten Korrelationskoeffizienten, die nicht auf den Faktoren abgebildet werden, klein ist. Die Summe sollte klein sein, denn sie gibt den nicht erklärten Teil der Varianz an. KMO-Werte können von 0 bis 1 variieren. Dabei hat sich folgende Daumenregel durchgesetzt: Werte von unter 0,5 gelten als inakzeptabel, Werte von 0,5 bis unter 0,6 als schlecht, Werte von 0,6 bis unter 0,7 als mäßig, Werte von 0,7 bis unter 0,8 als mittelprächtig, Werte von 0,8 bis unter 0,9 als recht gut und über 0,9 gelten sie gemeinhin als fabelhaft.

Beim Bartlett-Test auf Sphärizität wird geprüft ob die Korrelationskoeffizienten der Korrelationsmatrix signifikant voneinander abweichen. Da eine Faktorenanalyse auf der Grundlage von Korrelationskoeffizienten errechnet wird, ist es natürlich nicht sinnvoll, eine solche durchzuführen, wenn die Korrelationen nicht signifikant sind. Dass die Korrelationen zwischen den Motiven signifikant sind, kann man auch dadurch überprüfen, dass man sich eine Korrelationsmatrix ausgeben lässt. Der Unterbefehl „/print“ wäre entsprechend durch das Schlüsselwort „correlation“ zu ergänzen.

Ergebnis: Die gute Nachricht: Der Bartlett-Test auf Sphärizität ergibt die Zurückweisung der Nullhypothese, wonach zwischen den Variablen in der Analyse keine Korrelationen bestehen. D.h. das Rechnen einer Faktorenanalyse ist sinnvoll. Der KMO-Wert zeigt jedoch, dass mit einem mäßigen Ergebnis zu rechnen ist, da das Residuum also der Anteil der Varianz, der durch die partiellen Korrelationen nicht erklärt werden kann, relativ hoch ist. KMO-Wertung daher: mäßig.

Kommunalitäten    
Motive für das Durch-den-Wald-Rennen Anfänglich Extraktion
körperliche Fitness 1.000 .662
gesundh. Vorbeugen 1.000 .588
Gesunheit verbessern 1.000 .758
wohlfühlen 1.000 .490
Stress abbauen 1.000 .900
seelischer Ausgleich 1.000 .893
sportliche Figur 1.000 .681
Gewicht regulieren 1.000 .710
Körper erfahren 1.000 .615
messen u. vergleichen 1.000 .512
sich verbessern 1.000 .627
sich anstrengen 1.000 .701
Erfahrungen machen 1.000 .711
pers. Herausforderung 1.000 .577
spannende Situation erleben 1.000 .689
Natur erleben 1.000 .629
Wald spüren 1.000 .468
Stille spüren 1.000 .639
zeigen, wie attraktiv Sport ist 1.000 .623
zeigen, was ich bin 1.000 .695
mit Leuten zusammen sein 1.000 .689
Kontakte knüpfen 1.000 .749
Kontakte pflegen 1.000 .730
sich als Jogger fühlen 1.000 .762
von anderen unterscheiden 1.000 .775

Kommunalitäten, das hat schon Amitai Etzoni gewusst, sind Gemeinsamkeiten. Nimmt man jedes der Motive und packt es gleichwertig in die Faktorenanalyse (mit dem Wert 1,000), extrahiert und dimensioniert, dann kommen einige gemeinsame Faktoren heraus, an denen die einzelnen Motive mehr oder weniger stark beteiligt sind. Die Kommunalitäten nach der Extraktion kann man daher als Prozentwerte interpretieren. So ist die Variable „Wald spüren“ zu 46,8% an der Faktorenlösung beteiligt, die gleich präsentiert wird. D.h. jedoch auch, dass der nicht erklärte Teil der Varianz der Variable „Wald spüren“ nach der Faktorenanalyse 53,2% beträgt.

Das Ergebnis der Faktorenanalyse kann wie folgt beschrieben werden:

25 Motive sind in die Analyse eingegangen. Jede der Variablen hat eine anfängliche Kommunalität von 1,000 mitgebracht. Gibt es keine gemeinsame Dimension zwischen den Motiven, dann sind 25 Faktoren als Ergebnis zu erwarten. Im vorliegenden Fall sind 7 Dimensionen extrahiert worden. Sieben Dimensionen deshalb, weil man sich geeinigt hat, die Kappungsgrenze bei einem Eigenwert von 1,000 zu ziehen. Das macht auch Sinn, weil Faktoren, die einen Eigenwert von weniger als 1,000 haben, weniger erklären als die ursprünglich ins Modell gepackten Variablen (Kommunalitäten waren alle 1,000!). Im vorliegenden Modell werden 67,498% der Gesamtvarianz durch die sieben Faktoren erklärt und 32,502% nicht!

Nun möchte man gerne wissen, welche Variablen welchen gemeinsamen Faktor bilden und wie stark die einzelnen Variablen am gemeinsamen Faktor beteiligt sind Darüber gibt die Komponentenmatrix Auskunft.

Die Komponentenmatrixgibt die Korrelation eines Motivs mit der zugrundeliegenden Dimension oder dem entsprechenden Faktor an. Anders formuliert: Der „factorscore“ zeigt an, wie stark das entsprechende Motiv/die entsprechende Variable an einem gemeinsamen Faktor beteiligt ist. Der „factorscore“ hat einen Wertbereich von -1 bis +1, je höher der „factorscore“, desto stärker der Zusammenhang zwischen Motiv und gemeinsamem Faktor. Dargestellt sind nur Wert die größer als .5 sind. Werte, die geringer sind, sollte man nicht interpretieren. Daher kann man sagen, dass „Gewicht regulieren“, „Gesundheit verbessern“, „sportliche Figur“, „körperliche Fitness“ und „gesundheitliches Vorbeugen“ einen gemeinsamen Faktor bilden, an dem „Gewicht regulieren“ (.832) und „Gesundheit verbessern“ (.827) am stärksten beteiligt sind. Zum Interpretieren dieses Ergebnisses muss man die Häufigkeitsverteilung auf den einzelnen Variablen in Erinnerung behalten und vor allem, die Kodierung: „völlig unwichtig“ war mit dem Wert 1 codiert, „sehr wichtig“ mit dem Wert 5. Bei Gewicht regulieren haben 79,5% der Befragten gesagt, dieses Motiv sei „völlig unwichtig“, bei „Gesundheit verbessern“ 55,7%. D.h. die gemeinsame Dimension ist eine der Ablehnung der entsprechenden Motive. In Worten: Wer durch den Wald rennt, der hat keine Gewichtsprobleme und muss seine Gesundheit nicht verbessern.

Die Komponentenmatrix ist zunächst in unrotierter Form, d.h. geometrisch gesprochen befinden sich die Faktoren in keinem 90 Grad Winkel zueinander. Um dies zu erreichen und die Faktoren statistisch unabhängig voneinander zu machen, rotiert man Faktorenanalysen mit der VARIMAX-Rotation. (VARIationMAXimation = Größtmögliche Distanz zwischen den Faktoren)

Das Ergebnis der Faktorenanalyse muss nunmehr interpretiert werden, d.h. die Faktoren, die von den einzelnen Items konstituiert werden, müssen zunächst einmal sinnvoll benannt werden. So könnte man den Faktor, der durch die Items „Körper erfahren“ und „zeigen, was ich bin“ konstituiert wird, als „expressives Verhalten“ ansehen und entsprechend benennen. Wie die anderen Faktoren benannt werden können, kann sich nunmehr jeder selbst überlegen, und wer mag, kann das Ergebnis seiner Überlegung an Ghostwriter-24 schicken.

Empirische Sozialforschung: Quantitative Befragung

Man glaubt es kaum, aber es gibt eine Methodologie der Befragung. Schon 1975 hat Kurt Holm eine Publikation mit dem Titel „Die Befragung“ herausgegeben. Darin wird u.a. analysiert und argumentiert, wie man im Rahmen einer quantitativen Befragung korrekt Fragen formuliert, ohne den Befragten die Antwort in den Mund zu legen und ohne die Menge der Antwortalternativen so zu bestimmen, dass auch herauskommt, was vielleicht herauskommen soll.

Nicht nur die Form der Frage und die Menge der Antwortalternativen auch die Frage des Skalenniveaus von Fragen, ob nominal, ordinal oder metrisch, sie wurde schon vor Jahren diskutiert. Die Likert-Skala, die ordinale Daten erhebt und dennoch und meistens metrisch interpretiert wird, sie ist ein Ergebnis dieser Diskussionen.

Und heute hat man den Eindruck, die Diskussionen, sie sind Schnee von gestern, komplett und vollständig vergessen, denn: Jeder denkt, er kann eine Befragung durchführen, Fragen stellen und aussagekräftige Antworten erhalten. Deshalb finden sich Mengen von Befragungen, die Items enthalten, in denen mehrere Stimuli erfragt werden, so dass man letztlich nicht weiß, auf was die Befragten nun geantwortet haben, und es ist deshalb, dass viele Befrager Ergebnisse durch die Art der Fragen, bewusst oder unbewusst determinieren.

Lassen Sie es in ihrer Arbeit nicht so weit kommen.

Wir sind Profis in allen Fragen der quantitativen Befragung. Wir konzipieren ihre Befragung, formulieren die Fragen so, dass sie aussagekräftige und vor allem valide Ergebnisse produzieren. Wir erstellen z.B. Online-Befragungen, so dass Sie sich um kaum etwas selbst kümmern müssen und, wenn Sie wollen, dann werten wir die Befragungen auch für sie aus, mit allen Mittel der statistischen Datenanalyse, wie sie z.B. SPSS bereitstellt.

Kontaktieren Sie uns!

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

 

Heute vor 49 Jahren verstorben: Der amerikanische Soziologe und Kulturanthropologe William Lloyd Warner

Am 23. Mai vor 49 Jahren, also im Jahr 1970, starb der amerikanische Soziologe und Kulturanthropologe Wiliam Lloyd Warner. Er ist bekannt für seine Studien über die soziale Struktur der zeitgenössischen Vereinigten Staaten. Das klingt zunächst nicht besonders bemerkenswert. Seine Untersuchungen der sozialen Struktur der Vereinigten Staaten waren aber tatsächlich in mehrerer Hinsicht bemerkenswert.

Erstens war er der erste, der die soziale Struktur des Landes und damit auch die Ungleichheitsstruktur mit Bezug auf die weiße Mehrheitsbevölkerung auf umfassende Weise aus der Perspektive des Funktionalismus beschrieben hat. Er wollte beschreiben, wie das Zusammenspiel zwischen verschiedenen sozioökonmischen Klassen funktioniert, und dabei möglichst wertfrei, d.h. ohne seine Beschreibung vorab von irgendwelchen politischen Theorien leiten oder einschränken zu lassen, beschreiben. Warner hat damit eine regelrechte Flut von Folgeforschungen über die Sozialstruktur der USA augelöst, wie jeder prüfen kann, der sich die Inhaltsverzeichnisse soziologischer Zeitschriften aus den 1940er- und 1950er-Jahren betrachtet.

Zweitens ist Warners Arbeit bemerkenswert, weil er seine Untersuchungen der Sozialstruktur nicht aus makrosoziologischer Perspektive betrieben hat, sondern aus mikrosoziologischer Perspektive, d.h. bei seinen Untersuchungen ist er nicht „top down“ von abstrakten Konzepten und Aggregaten ausgegangen, sondern von der Interaktion zwischen Menschen. Sozialstruktur war für Warner dementsprechend die Gesamtheit der sozialen Beziehungen zwischen den Menschen in einer Gesellschaft. Dementsprechend hat die Erforschung der Sozialstruktur bei Warner die Form einer Reihe von Gemeindestudien angenommen, von denen die berühmteste und umfassendste als „Yankee City“-Studie bekannt ist; sie ist in fünf Bänden publiziert worden. Die Beschreibung der Sozialstruktur in einer Gemeinde nahm Warner vor, indem er verschiedene Arten sozialer Beziehungen betrachtete, wie sie in der Familie, in der Schule, in religiösen Vereinigungen, in Zusammenschlüssen mit wirtschaftlichen Interessen etc. auftreten. Dabei sammelte Warner sowohl qualitative als auch quantitative Methoden, bediente sich also dessen, was man heute einen „Methoden-Mix“ nennen würde.

Die „Yankee City“-Studie wurde in den Jahren 1930 bis 1935 in der ethnographischen Tradition durchgeführt, womit Warner – drittens – einer der Ersten, wenn nicht der Erste, war, der die ethnographische Methode, die im Zusammenhang mit der Forschung über außereuropäische, „primtive“ Gesellschaften entwickelt wurde, auf die eigene – westliche –  Gesellschaft angewendet hat. Tatsächlich waren Warners frühere Forschungen in den Jahren 1926 bis 1929 Untersuchungen unter der Leitung von Alfred R. Radcliffe-Brown über die Sozialstruktur der Aborigines in Arnhem-Land im Norden Australiens. Ethnologen kennen und schätzen Lloyd Warner vor allem aufgrund dieser Forschungen und insbesondere seiner Beschreibung des Verwandtschaftssystems und der Heiratsregeln der Murngin, heute gewöhnlich gemäß ihrer Selbstbezeichnung Yolngu genannt. Er hat also ethnologische Feldforschung betrieben und das in ihr verwendete Instrumentarium auf seine spätere Forschung in der eigenen Gesellschaft übertragen.

Sowohl für die Ethnologie als auch für die Soziologie waren Lloyd Warners Arbeiten wichtig und richtungsweisend, und bis  heute sind seine Untersuchungen relevant. Beispielsweise sind seine Gemeindestudien z.B. sind im Zusammenhang mit Konzepten wie „soziales Kapital“ und „sozialer Partizipation“ sowie in der Forschung über Institution später wiederentdeckt worden (s. z.B. Baba 2009; Flora 1998).


Bei den im Text angesprochenen bzw. zitierten Werken handelt es sich um:

Baba, M L., 2009: W. Lloyd Warner and the Anthropology of Institutions: An Approach to the Study of Work in Late Capitalism. Anthropology of Work Review 30(2): 29-86.

Flora, Jan L., 1998: Social Capital and Communities of Place. Rural Sociology 63(4): 481-506.

Warner, W. Lloyd, 1959: The Living and the Dead: A Study of the Symbolic Life of Americans. (Yankee City Series, volume 5). New Haven: Yale University Press.

Warner, W. Lloyd, 1949: Democracy in Jonesville: A Study in Quality and Inequality. New York: Harper & Row.

Warner, W. Lloyd, 1937: A Black Civilization: A Social Study of an Australian Tribe. Peter Smith.

Warner, W. Lloyd, & Low, J. O., 1947: The Social System of the Modern Factory. (Yankee City Series, volume 4). New Haven: Yale University Press.

Warner, W. Lloyd, & Lunt, Paul S., 1942: The Status System of a Modern Community (Yankee City Series, volume 2). New Haven: Yale University Press.

Warner, W. Lloyd, & Lunt, Paul S., 1941: The Social Life of a Modern Community (Yankee City Series, volume 1). New Haven: Yale University Press.

Warner, W. Lloyd, & Srole, Leo, 1945: The Social Systems of American Ethnic Groups (Yankee City Series, volume 3). New Haven: Yale University Press.

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

Schauspielen am Arbeitsplatz [Wirtschaftspsychologie]

Free Trait Acting, so nennen Brian Little und Sanna Balsari-Palsude es, wenn Personen, die eigentlich introvertiert sind, sich extrovertiert verhalten bzw. wenn Extrovertierte sich introvertiert verhalten, wenn Menschen sich in einer Weise verhalten, wie beide sagen, die ihrem Charakter nicht entspricht, wenn sie jemanden spielen, der sie nicht sind.

Goffman TheaterDie Prämissen der entsprechenden Forschung sind offenkundig: Wir haben Charaktermerkmale, die uns ausmachen, die uns eigen sind, die wir nicht verändern können, die uns, wenn man so will, festschreiben. Entsprechend denken Little und Balsari-Palsude, dass man feststellen kann, wann jemand sich anders verhält als er eigentlich ist, wann er schauspielt, schlecht schauspielt möchte man ergänzen.

Besonders Balsari-Palsude sagt von sich, “I loved the idea that acting is not something restricted to the stage, that we are so often faced with the need to perform in daily life”. Diese Idee ist nun alles andere als neu. Erving Goffman hatte sich schon vor Jahrzehnten (1959) und unter dem Titel “The Presentation of Self in Everyday Life” (“Wir alle spielen Theater” in der deutschen Übersetzung) veröffentlicht.

Die Idee damals wie heute: Situationen, denen man sich im täglichen Leben gegenübersieht, können eine Anpassung verlangen. So ist es eher wenig förderlich, wenn der neue Mitarbeiter, weil er extrovertiert ist, sich über vorhandene Hierarchien hinweg setzt, um seine Meinung durchzusetzen, ein Ergebnis, das Balsari-Palsude in ihrer Forschung und wenig überraschend findet. Ebenso wird ein introvertierter Chef, seine charakterliche Disposition der Zurückhaltung hinter sich lassen müssen und den extrovertierten und Anweisungen gebenden Führer spielen, wenn es die Situation erfordert.

Dass dem so ist, stellt die biologische Disposition, die Little und Balsari-Palsude annehmen, in Frage, denn: Wenn ein vermeintlich Introvertierter sich extrovertiert verhalten kann, ist es dann nicht sinnvoller anzunehmen, dass das Verhalten sozial und nicht biologisch induziert ist?

Statistik: Die Kaplan-Meier Erfolgsstory

Der am häufigsten zitierte Fachzeitschriftenaufsatz aus dem Bereich der Statistik: Kaplans und Meiers „Nonparametric Estimation from Incomplete Observations” Nach einer Analyse von Thomas P. Ryan und William H. Woodall (2005) war der Aufsatz mit dem Titel „Nonparametric Estimation from Incomplete Observations“, das von Edward L. Kaplan und Paul Meier im Jahr 1958 im Journal of the American Statistical Association veröffentlicht wurde, zum damaligen Zeitpunkt, also 2005, mit 25.869 Zitierungen seit dem Erscheinungsjahr der am häufigsten zitierte statistische Fachzeitschriftenaufsatz. Darüber hinaus war er unter den fünf am häufigsten zitierten wissenschaftlichen Fachartikeln. Seitdem hat es u.W. zwar keine neuere Analyse der am häufigsten zitierten statistischen Aufsätze gegeben, aber es erscheint plausibel zu vermuten, dass Kaplans und Meiers Aufsatz nach wie vor der am häufigsten zitierte statistische Aufsatz ist, schlagen die Autoren doch ein statistisches Schätzverfahren vor, mit Hilfe dessen der Anteil von Merkmalen oder Ereignissen bzw. deren Eintrittswahrscheinlichkeiten in einer Population geschätzt werden kann, wenn zensierte Daten vorliegen, d.h. wenn das interessierende Merkmal oder das interessierende Ereignis auch noch nach dem Ende des Beobachtungszeitraums, für den Daten vorliegen, eintreten kann. Dies ist häufig der Fall, wenn es um medizinische Fragestellungen geht, aber auch für viele sozialwissenschaftliche Fragestellungen ist das Verfahren von Kaplan und Meier relevant. Beispielsweise dann, wenn man auf der Basis von Daten, die man, für Einbrecher und ihre Einbrüche in einem bestimmten Beobachtungszeitraum, z.B. zwischen 1998 und 2010, vorliegen hat, eine Schätzung darüber vornehmen will, wie hoch die Rückfallquote unter (diesen) Einbrechern ist. Weil die Einbrecher, für die Daten vorliegen, ja auch nach 2010 noch Einbrüche begangen haben können oder begehen können, ist ein statistisches Schätzverfahren notwendig, das diesem Umstand Rechnung trägt. Der sogenannten Kaplan-Meier- Schätzer tut dies. Ein weiterer Vorteil des Verfahrens nach Kaplan und Meier ist, dass keine Annahmen über die Form Verteilung der Überlebensfunktion gemacht werden muss, in unserem Beispiel also darüber, ob die Anteile der Einbrecher, die rückfällig werden, im Zeitverlauf einer Linie oder (irgendeiner Art von) Kurve folgen. Es ist also nicht überraschend, dass der Kaplan-Meier-Schätzer häufig verwendet wird und dementsprechend häufig zitiert wird. Vielleicht hat zur Qualität des Aufsatzes auch der Umstand beigetragen, dass Kaplan und Meier zunächst getrennte Manuskripte über das von ihnen entwickelte Schätzverfahren eingereicht hatten, und die Herausgeber aufgrund der – wenig verwunderlichen – Ähnlichkeit der Manuskripte anregten, die beiden Texte zu einem einzigen Text zusammenzufassen, woraufhin die Autoren darangingen, ihre Differenzen mit Bezug auf die Details des Schätzverfahrens auszuräumen, wozu sie vier Jahre brauchten! Was lange währte, wurde endlich gut, und zwar so gut, dass das statistische Verfahren, das Kaplan und Meier schließlich im oben genannten Text im Jahr 1958 vorstellten, heute zu einem nicht wegzudenkenden Instrument im methodischen Baukasten der statistischen Analyse geworden ist. Literatur: Kaplan, Edward L. & Meier, Paul (1958): Nonparametric Estimation from Incomplete Observations. Journal of the American Statistical Association 53(282): 457-481. Ryan, Thomas P. & Woodall, William H. (2005): The Most-Cited Statistical Papers. Journal of Applied Statistics 32(5): 461-474.]]>

Zeitgeschichte: Gesetzgebung 1917

„Von entscheidender Bedeutung für die staatliche Machtfülle – die Souveränität – ist überall die Gesetzgebung und ihre Form. Für das Deutsche Reich besteht diese Form darin, dass der übereinstimmende Wille zweier voneinander unabhängiger Körperschaften – des Bundesrats und des Reichstags – erforderlich und ausreichend ist, um ein Gesetz zu schaffen, und dass es durch seine Verkündung rechtskräftig wird; die Verkündung geschieht durch den Deutschen Kaiser, der diesen monarchischen Namen trägt als König von Preußen, weil mit der Krone Preußens das erbliche Präsidium des Bundesstaates „Deutsches Reich“ verbunden ist. Gesetzgebender Faktor ist der Kaiser im Reiche nicht, denn seine Zustimmung wird nicht erfordert. Nur mittelbar besitzt er Macht über die Reichsgesetzgebung, indem ihm 1. als Kaiser die Berufung und Schließung des Bundesrats und des Reichstags zusteht und für die Auflösung des Reichstags seine Zustimmung erforderlich ist; indem er 2. als König von Preußen das Haupt der preußischen Regierung ist, di egleich jeder anderen Einzelstaatsregierung ihre Vertreter, und zwar von sämtlichen 61 Vertretern 17, in den Bundesrat entsendet und deren Abstimmung anweist [instruiert], wobei ferner die preußischen Stimmen in einige (militärischen und finanziellen) Angelegenheiten entscheidend wirken, wenn sie für Erhaltung der bestehenden Einrichtungen sich geltend machen. In England – wir nennen im folgenden immer, wie üblich, das Vereinigte Königreich mit diesem Namen, es sei denn, dass von England im Unterschiede von den anderen Teilen die Rede sei – ist der zu Recht bestehenden Form nach noch immer der König Träger der Souveränität, selber der Sovereign, aber nur indem er zusammensteht und zusammenwirkt mit beiden Häusern des Parlaments – the King in Parliament -, also mit dem Hause der Lords und dem Hause der Gemeinen, kann er gesetzgebend auftreten. Noch heute, wie ehedem, wird ein Gesetzentwurf – eine Bill – in der Regel dadurch Gesetz – eine Akte -, dass er, vom Unterhause durch drei Lesungen beschlossen, vom Oberhaus ebenso angenommen, die köngliche Einwilligung erhällt (the royal assent): dann wird das Gesetz ins Gesetzbucg  – the Statute Book – eingetragen. Indessen ist es eine allgemein bekannte Tatsache, dass der König seine Zustimmung zu verweigern niemals in der Lage ist, daß ihm nur noch zum Schein diese Freiheit beiwognt, denn erkann nicht politisch handeln ohne den ‚Rat‘ seiner Minister, deren Wahl wiederum nur scheinbar in seiner Hand liegt; und der Rat ist für ihn so gut als Befehl. Im Hause der Gemeinen ist der Sitz der Macht. Nur das ‚andere Haus‘ kommt neben ihm in Frage. Es kann den Willen des Hauses der Gemeinen hemmen, dessen Ausführung verzögern, aber auch das nur, wenn es sich um Gesetzentwürfe handelt, mit denen keine Geldbewilligung verbunden ist; wenn dies der Fall – ist es eine money bill – so ist das Oberhaus rechtlich nicht mehr imstande, dem Beschluss des Unterhauses entgegenzuwirken. Die Bill bedarf nur der königlichen Einwilligung – die als selbstverständlich erfolgend gilt -, um Gesetz zu werden. Andere Gesetzentwürfe sind ebenso der Zustimmung des Oberhauses überhoben, wenn diese in drei aufeinanderfolgenden Sessionen (ob desselben Parlaments oder nicht) verweigert worden ist, nachdem das Unterhaus sie ebensooft beschlossen hatte: vorausgesetzt, dass zwei Jahre verflossen sind zwischen der zweiten lesung in der ersten und der dritten Lesung in der dritten Session, und dass der Entwurf wenigstens einen Monat vor dem Schlusse der Session dem Oberhaus vorgelegt worden war“. (Tönnies 1917: 3-4) Die Veränderungen, die der Gang der Gesetzgebung in Deutschland erfahren hat, sind, wie die Darstellung zeigt, umfangreicher als die, die im Vereinigten Königreich gegeben sind.