Politikwissenschaft: Autoritärer Charakter

Die Autoritäre Persönlichkeit, die Adorno, Levinson, Sanford und Frenkel-Brunswick im Jahre 1950 veröffentlicht haben, ist zu einem klassiker der empirischen Sozialforschung geworden, auf den immer gerne Bezug genommen und aus dem immer gerne zitiert wird, in der Regel mit Bezug auf die F-Skala, die zur Messung von Faschismus entwickelt wurde. Dass die F-Skala sich aus einer Reihe von Teilskalen zusammensetzt, weiß kaum mehr jemand. Dass eine dieser Teilskalen „Konventionalismus“ misst, noch viel weniger.

Anfälligkeit für den Faschismus ist nach einer bekannten Hypothese charakteristisch für den Mittelstand und ‚liegt in der Kultur‘; die am stärksten Angepassten hegen demzufolge die meisten Vorurteile. Um Material für diese Hypothese zu sammeln, wurden Skalensätze aufgenommen, welche sich auf die Bindung an konventionelle Normen bezogen. Die ersten Ergebnisse machten jedoch deutlich, dass dies nicht so einfach war. Die Korrelation zwischen konventionellen Wertvorstellungen und dem Vorurteil schien positiv, aber nicht sehr hoch; während unkonventionelle Personen gewöhnlich unvoreingenommen waren, gab es unter den Konventionellen Voreingenommene und Unvoreingenommene. Den Unterschied in der Gruppe der Konventionellen schien der Ursprung des Konventionalismus oder vielmehr die Charakterstruktur im ganzen auszumachen, in der er eine funktionale Rolle spielte. Wenn die Unterwerfung unter konventionelle Werte Ausdruck eines voll ausgebildeten Gewissens war, musste nicht zwangsläufig eine Verbindung zwischen diesen Wertvorstellungen und antidemokratischem Potential bestehen. Die gleichen Verhaltensnormen, die das Individuum leicht empören, weil es in ihnen die niedrige Moral nichtassimilierter Minderheiten oder der ‚unteren Klassen‘ sieht, würden – wären sie hinreichend internalisiert – seinen Widerspruch gegen Gewalt und Verbrechen hervorrufen, die den Faschismus im fortgeschrittenen Stadium kennzeichnen. Wo andererseits gesellschaftlicher Druck an konventionellen Normen festhalten lässt, wo der Konventionalismus auf dem Beharren des Individuums an den Normen der Kollektivmacht beruht, mit der es sich im Augenblick identifiziert, ist auf antidemokratische Empfänglichkeit zu schließen. Nur im letzteren Fall sprechen wir von Konventionalismus und unterscheiden ihn von der bloßen Anerkennung herkömmlicher Werte. Das konventionalistische Individuum vermag guten Gewissens dem Diktat äußerer Mächte zu folgen, wo immer sie es hinführen, und wäre – wie der Konvertit, der vom offiziellen Kommunismus zum Katholizismus überwechselt – auch fähig, seinen moralischen Kodex gegen einen ganz anderen auszutauschen“ (Sanford et al., Studien zum autoritären Charakter, S.47-48)

Schule als Autoritätsstruktur

Aus alten Arbeiten zur Soziologie, im vorliegenden Fall zur Bildungssoziologie, kann man in der Regel nicht nur erfahren, welche Themen und Herangehensweisen von Wissenschaftlern vergangener Tage verwendet wurden, oftmals sind die Arbeiten aufgrund ihrer theoretischen, methodischen und inhaltlichen Tiefe sehr interessant und ein Vorbild für heutige Arbeiten.

Die Arbeiten, die Howard Becker zu Bildungsthemen erstellt hat, sind solche Arbeiten. Sie breiten nicht nur Methoden qualitativer Sozialforschung als Zugang zu einem Forschungsfeld aus und zeigen deren gekonnte Anwendung, sie zeigen auch, wie man empirisches und theoretisches Arbeiten miteinander so verbindet, dass nicht beides nebeneinander besteht, wie monolithische Blöcke, zwischen denen es keine Verbindung gibt, wie dies heute häufig der Fall ist.

Eine Darstellung der Einbindung schulischer Lehrer, die für Lerner der qualitativen Sozialforschung eine perfekte Anwendung der dokumentarischen Methode zur Auswertung narrativer Interviews darstellt, schließt Becker mit dem folgenden Fazit ab:

„I have presented the teacher as a person who is concerned (among other things) with maintaining what she considers to be her legitimate authority over pupils and parents, with avoiding and defending against challenges from these sources. In her view, the principal and other teachers should help her in building a system of defense against such challenges. Through feelings of colleagueship and the use of various kinds of sanctions, a system of defense and secrecy (oriented toward preventing the intrusion of parents and children into the authority system) is organized.

This picture discloses certain points of general relevance for the study of institutional authority systems. In the first place, an institution like the school can be seen as a small, self-contained system of social control. Its functionaries (principal and teachers) are able to control one another, each has some power to influence the other’s conduct. This creates a stable and predictable work setting in which the limits of behavior for every individual are known, and in which one can build a satisfactory authority position of which he can be sure, knowing that he has certain methods of controlling those – who ignore his authority.

In contrast the activities of those who are outside the professional group are not involved in such a network of mutual understanding and control. Parents do not necessarily share the values by which the teacher legitimates her authority. And while parents can apply sanctions to the teacher, the teacher has no means of control which she can use in return, in direct retaliation.

To the teacher, then, the parents appear as an unpredictable and uncontrollable element, as a force which endangers and may even destroy the existing authority system over which she has some measure of control. For this reason, teachers (and principals who abide by their expectations) carry on an essentially secretive relationship vis-a-vis parents and the community, trying to prevent any event which will give these groups a permanent place of authority in the school situation. The emphasis on never admitting mistakes of school personnel to parents is an attempt to prevent these outsiders (who would not be subject to teacher control) from getting any excuse which might justify their intrusion into and possible destruction of the existing authority system.

This suggests the general proposition that the relations of institutional functionaries to one another are relations of mutual influence and control, and that outsiders are systematically prevented from exerting any authority over the institution’s operations because they are not involved in this web of control and would literally be uncontrollable, and destructive of the institutional organisation, as the functionaries desire it to be preserved, if they were allowed such authority“

(Becker, Howard Becker on Education, pp.56-58).

Kriminologie: Sozio-Biologie

In der Kriminologie gilt es als weitgehender Konsens, dass Kriminalität ein soziales Phänomen darstellt, das in Subkulturen erlernt wird oder durch mangelhafte Erziehung oder durch rationales Kalkül hervorgebracht wird. Gegen diesen Konsens wenden sich in letzter Zeit eine Reihe von Autoren, die auf Ergebnisse der Neurologie verweisen, die zeigen sollen, dass delinquentes Verhalten zumindest auch eine genetische Komponente hat.

Dass Ansätze, die eine biologische Basis von Kriminalität behaupten oder in den Raum stellen, in Verruf geraten sind, hat zum einen mit dem Dritten Reich und der dort praktizierten Euthanasie zu tun, zum anderen mit Cesare Lombroso, der die biologische Basis der Kriminalität im 19. Jahrhundert durch das Vermessen von Schädeln und die Beschreibung von Gesichtszügen schaffen wollte.

So zitiert Lamnek Lombroso mit den folgenden Worten:

„Diebe haben im allgemeinen sehr bewegliche Gesichtszüge und Hände; ihre Augen sind klein, unruhig, oft schielend; die Brauen gefältet und stoßen zusammen; die Nase ist krumm oder stumpf, der Bart spärlich, das Haar seltener dicht, die Stirn fast immer klein und fliehend, das Ohr oft henkelförmig abstehend. Die Mörder haben einen glasigen, eisigen, starren Blick, ihr Auge ist bisweilen blutunterlaufen. Die Nase ist groß, oft eine Adler- oder vielmehr eine Habichtnase; die Kiefer starkknochig, die Ohren lang, die Wangen breit, die Haare gekräuselt, voll und dunkel, der Bart oft spärlich, die Lippen dünn, die Zähne groß. Im allgemeinen sind bei Verbrechern von Geburt die Ohren henkelförmig, das Haupthaar voll, der Bart spärlich, die Stirnhöhlen gewölbt, die Kinnlade enorm, das Kinn viereckig oder hervorragend, die Backenknochen breit – kurz ein mongolischer und bisweilen negerähnlicher Typuse“ (Lamnek, 1993: 68).

Es ist kein Wunder, dass Lombroso nach dieser Beschreibung von manchen zum Rassisten erklärt wurde.

Qualitative Inhaltsanalyse: Strukturierung

Man sammelt Daten, macht Interviews, stellt Dokumente zusammen, und am Ende hat man viel Text. Sehr viel Text. Und was macht man mit dem Text? Wie wertet man ihn aus? Wie rückt man ihm zuleibe?

Generell ist es das Ziel aller qualitativen Verfahren, Information einerseits zu reduzieren und andererseits zu verdichten. Gemeinhin soll der Kern, das Wesentliche, das sich als Datum in Datenmaterial befindet (oder befinden soll) und für die Beantwortung einer Forschungsfrage notwendig ist, herausgearbeitet werden.

Also braucht man zunächst eine Forschungsfrage.

Das macht Sinn und gibt der Forschung eine Richtung. Wer sich für die Mechanismen der Beilegung von Streit in Beziehungen interessiert, der muss keine Befragung in einem Unternehmen durchführen.

Die Forschungsfrage strukturiert das Datenmaterial in gewisser Weise, aber nur oberflächlich. Sie dient im Rahmenwerk von Mayring der Bestimmung der Analyseeinheit. Dieser Bestimmung folgt die eigentliche Strukturierung des Materials, die Mayring in vier Typen unterscheidet:

  • „Eine formale Strukturierung will die innere Struktur des Materials nach bestimmten formalen Strukturierungsgesichtspunkten herausfiltern.
  • Eine inhaltliche Strukturierung will Material zu bestimmten Themen, zu bestimmten Inhaltsbereichen extrahieren und zusammenfassen.
  • Eine typisierende Strukturierung will auf einer Typologisierungsdimension einzelne markante Ausprägungen im Material finden und diese genauer beschreiben.
  • Eine skalierende Strukturierung will zu einzelnen Dimensionen Ausprägungen in Form von Skalenpunkten definieren und das Material daraufhin einschätzen.“

In jedem Fall dient eine Strukturierung dazu, ein Kriterium oder mehrere Kriterien an das Material heranzutragen und Letzteres auf diese Weise zu „strukturieren“. Im Falle der formalen Strukturierung erfolgt dies z.B. mit Hilfe der folgenden Kriterien:

  • „Ein syntaktisches Kriterium: Die Struktur der sprachlichen Formulierungen im Material soll untersucht werden, Besonderheiten im Satzbau, Abweichungen, Brüche o.ä. sollen herausgefunden werden.
  • Ein thematisches Kriterium: Die inhaltliche Struktur, die Abfolge thematischer Blöcke, die inhaltliche Gliederung des Materials soll herausgearbeitet werden.
  • Ein semantisches Kriterium: Die Beziehung von einzelnen Bedeutungseinheiten untereinander soll rekonstruiert werden.
  • Ein dialogisches Kriterium: Die Abfolge einzelner Gesprächsbeiträge und Gesprächsschritte soll analysiert werden.“

(Mayring, Qualitative Inhaltsanalyse, S.85).

Theoriebildung in den Sozialwissenschaften

Die Fragen danach, was eine Theorie darstellt, welche Belege notwendig sind, um die eigene Theorie zu stützen, ob überhaupt Belege notwendig sind, spalten die Sozialwissenschaften in den letzten Jahren immer stärker. Während die einen argumentieren, dass man kaum eine Allgemeingültigkeit für etwas reklamieren könne, was einer empirischen Prüfung und somit einem Nachvollzug durch die wissenschaftliche Gemeinschaft nicht zugänglich sei, verteidigen die anderen ihre Ansicht, dass man durch lange Beschäftigung mit Text und Thema, tiefere Einsichten gewinnen kann, die wiederum nur dem nachvollziehbar sind, der sich ebenso lange und tief mit einem Text / einem Thema auseinandersetzt.

In einem alten Buch zur Methodik der Politikwissenschaft bemühen sich Ulrich von Alemann und Erhard Frondran darum, die Landschaft der Theorienbildung zu fassen. Wir haben den sehr nützlichen Versuch hier zusammengefasst:

Die drei Schulen der sozialwissenschaftlichen Theoriebildung:

  • (I) Normativ-ontologische Theorieansätze
  • (II) Analytische Theorieansätze
  • (III) Dialektische Theorieansätze

Erkenntnisziel:

  • (I) ‚wesentliche Aussagen‘, praktischer Rat
  • (II) Gesetze
  • (III) Historische Gesetze, Gesellschaftskritik

Erkenntnisinteresse:

  • (I) praktisch-philosophisch
  • (II) empirisch
  • (III) emanzipatorisch

Erkenntnisgegenstand

  • (I) Sinn und Wesen von Staat und Gesellschaft
  • (II) Soziale Handlungen
  • (III) Gesellschaftliche Totalität

Logischer Status

  • (I) argumentativ / phänomenologische Begründung
  • (II) Aussagenlogik
  • (III) jede Art logischer Begründung

Normativer Status

  • (I) Einschluss von ontologisch begründeten Werten
  • (II) Ausschluss von Werten
  • (III) Einschluss von historisch begründeten Werten

Tätigkeit des Wissenschaftlers

  • (I) Wissenschaftliches Nach- und Vordenken
  • (II) Beschreiben, erklären, prognostizieren
  • (III) Kritisch konfrontieren und politisch wirken

Analysearten

  • (I) Historisch-genetische, institutionelle und ideengeschichtliche Analyse
  • (II) Strukturell-funktionale und empirische Analyse
  • (III) Historisch-genetische und empirische Analyse

Verarbeitungsmuster

  • (I) Hermeneutik, Phänomenologie, Topik
  • (II) Logischer Empirismus
  • (III) Hermeneutik, Dialektik

Verfahrenstechniken

  • Historisch-philosophische Argumentation, Quellen- und Textkritik
  • Methoden der empirischen Sozialforschung
  • Historisch-ökonomische und ideologiekritische Analyse

Alemann, Ulrich von & Forndran, Erhard (1985). Methodik der Politikwissenschaft. Eine Einführung in Arbeitstechnik und Forschungspraxis. Stuttgart: Kohlhammer.

Statistik: Pareto Diagramme

Interessanter Weise findet man die kürzesten und einfachsten Erklärungen, wenngleich nicht immer eine vollständige Erklärung statistischer Konzepte in Büchern zum Lean Sex Sigma, z.B. dem von George et al. (2005) verfassten Pocket Toolbook. Darin findet sich eine sehr schlanke Erklärung für Pareto-Diagramme, bei denen die Anzahl für bestimmte Ausprägungen bereits in eine Reihenfolge nach Größe gebracht worden sind.

Ob es einen Pareto-Effekt gibt, kann den Diagrammen durch einfachen Blick entnommen werden. Gibt es eine Ab-/Zunahme von links nach rechts, dann gibt es auch einen Pareto-Effekt, wenn nicht, dann nicht. Was es mit einem Pareto-Diagramm auf sich hat, kann man der Beschreibung seiner Erstellung leicht entnehmen.

  1. Collect data on different types or categories of problems.
  2. Tabulate the scores. Determine the total number of problems observed and/or the total impact. Also determine the counts or impact for each category.
    • If there are a lot of small or infrequent problems, consider adding them together into an ‚other‘ category.
  3. Sort the problem by frequency or by level of impact.
  4. Draw a vertical axis and divide into increments equal to the total number you observed.
    • In the sample here, the total number of problems was 43, so the vertical axis on the left goes to 42.
    • People often mistakenly make the vertical axis only as tall as the tallest bar, which can overemphasize the importance of the tall bars and lead to false conclusions.
  5. Draw bars for each category, starting with the largest and working down.
    • The ‚other‘ category always goes last even if it is not the shortest bar.
  6. OPTIONAL: Add in the cumulative percentage line. (Convert the raw counts to percentages of the total, then draw a vertical axis on the right that represents percentage. Plot a point above the first bar at the percentage represented by that bar, then another above the second bar representing the combined percentage, and so on. Connect the points.) (George, Michael L., Rowlands, David, Price, Mark & Maxey, John (2005). Lean Six Sigma Pocket Toolbook, p.143).

Statistik: Faktorenanalyse

Aus viel mach wenig: Eine Kurzeinführung in die Faktorenanalyse
Der Ausgangspunkt der Analyse, die mit SPSS durchgeführt wurde, ist die Frage nach den Gründen, die jemanden dazu bewegen können, bei schönem Wetter durch den Wald zu rennen, d.h. sich als Jogger zu betätigen. Um diese Frage zu beantworten, wurde diversen Personen eine Liste vorgelegt, die Motive zusammenstellt, die als Begründung für das durch-den-Wald-Rennen dienen können. Jeder „Befragte“ konnte auf einer Likert-Skala, das heißt auf einer Skala, die fünf Antwortmöglichkeiten vorsieht und von der Bewertung „sehr wichtig“ über „weniger wichtig“ bis zu „völlig unwichtig“ reicht, seine Bewertung vornehmen.

Ergebnis vorweggenommen

Die Faktorenanalyse wurde zur Datenreduktion entwickelt. Da man sich gewöhnlich ziemlich hilflos fühlt, wenn man sich einem Datenberg gegenüber sieht, der aus mehr als drei Variablen oder items besteht, ist die Faktorenanalyse zum beliebten Mittel avanciert, um den Berg in nette kleine Hügel zu zerlegen, wobei jeder Hügel mehrere der ursprünglichen Items umfasst, von denen angenommen wird, dass sie eine gemeinsame Dimension besitzen. Und so wie die Variablen, Diäten, Sektempfang, Rede, Parteitag, Berlin und private Krankenversicherung geeignet sind, die gemeinsame Dimension Mitglied des Bundestages zu konstituieren, so wird von den Items, die in einer Faktorenanalyse auf demselben Faktor laden, angenommen, dass sie eine gemeinsame Dimension, eine sogenannte latente Variable verbindet. Das war „die Theorie“ und nun folgt die Praxis.

Mit dem rechts dargestellten Befehl wird eine explorative Faktorenanalyse angefordert. Grundlage der Analyse sind alle Motive, die ein Jogger für das durch-den-Wald-Rennen angeben konnte. Explorativ ist die Faktorenanalyse deswegen, weil die Anzahl der Faktoren, die am Ende der Analyse steht, dem Programm überlassen bleibt und nicht vorgegeben wird, was durchaus möglich ist; dann spricht man von einer konfirmatorischen Faktorenanalyse. Mit einer Faktorenanalyse wird – wie gesagt – untersucht, ob sich in den Daten gemeinsame Dimensionen (Faktoren) finden lassen, d.h. ob sich hinter mehreren beobachteten Variablen eine unbeobachtete latente Variable verbirgt. Zudem zeigt sich im vorliegenden Fall die wichtige Funktion der Datenreduktion, die die Faktorenanalyse erfüllt: Wer kann schon 25 Motive aufeinander beziehen und interpretieren! Die im Folgenden dargestellte Faktorenanalyse ist die gebräuchlichste Form, die Hauptkomponentenanalyse.

Die erste Frage, die interessiert, lautet: Ist das Ergebnis der Faktorenanalyse überhaupt brauchbar? Um diese Frage zu beantworten, gibt es einige Tests. Die zwei gebräuchlichsten sind im Folgenden dargestellt.

KMO- und Bartlett-Test    
Maß der Stichprobenneigung nach Kaiser-Meyer-Olkin   .666
Bartlett-Test auf Sphärizität ungefähres chi-Quadrat 1537,948
  Freiheitsgrade 300
  Signifikanz nach Bartlett ,000

Technisch betrachtet untersucht das Kaiser-Meyer-Olkin Maß (KMO), ob die Summe der quadrierten partiellen Korrelationskoeffizienten auf den unterschiedlichen Dimensionen (oder Faktoren) im Vergleich zur Summe der quadrierten Korrelationskoeffizienten, die nicht auf den Faktoren abgebildet werden, klein ist. Die Summe sollte klein sein, denn sie gibt den nicht erklärten Teil der Varianz an. KMO-Werte können von 0 bis 1 variieren. Dabei hat sich folgende Daumenregel durchgesetzt: Werte von unter 0,5 gelten als inakzeptabel, Werte von 0,5 bis unter 0,6 als schlecht, Werte von 0,6 bis unter 0,7 als mäßig, Werte von 0,7 bis unter 0,8 als mittelprächtig, Werte von 0,8 bis unter 0,9 als recht gut und über 0,9 gelten sie gemeinhin als fabelhaft.

Beim Bartlett-Test auf Sphärizität wird geprüft ob die Korrelationskoeffizienten der Korrelationsmatrix signifikant voneinander abweichen. Da eine Faktorenanalyse auf der Grundlage von Korrelationskoeffizienten errechnet wird, ist es natürlich nicht sinnvoll, eine solche durchzuführen, wenn die Korrelationen nicht signifikant sind. Dass die Korrelationen zwischen den Motiven signifikant sind, kann man auch dadurch überprüfen, dass man sich eine Korrelationsmatrix ausgeben lässt. Der Unterbefehl „/print“ wäre entsprechend durch das Schlüsselwort „correlation“ zu ergänzen.

Ergebnis: Die gute Nachricht: Der Bartlett-Test auf Sphärizität ergibt die Zurückweisung der Nullhypothese, wonach zwischen den Variablen in der Analyse keine Korrelationen bestehen. D.h. das Rechnen einer Faktorenanalyse ist sinnvoll. Der KMO-Wert zeigt jedoch, dass mit einem mäßigen Ergebnis zu rechnen ist, da das Residuum also der Anteil der Varianz, der durch die partiellen Korrelationen nicht erklärt werden kann, relativ hoch ist. KMO-Wertung daher: mäßig.

Kommunalitäten    
Motive für das Durch-den-Wald-Rennen Anfänglich Extraktion
körperliche Fitness 1.000 .662
gesundh. Vorbeugen 1.000 .588
Gesunheit verbessern 1.000 .758
wohlfühlen 1.000 .490
Stress abbauen 1.000 .900
seelischer Ausgleich 1.000 .893
sportliche Figur 1.000 .681
Gewicht regulieren 1.000 .710
Körper erfahren 1.000 .615
messen u. vergleichen 1.000 .512
sich verbessern 1.000 .627
sich anstrengen 1.000 .701
Erfahrungen machen 1.000 .711
pers. Herausforderung 1.000 .577
spannende Situation erleben 1.000 .689
Natur erleben 1.000 .629
Wald spüren 1.000 .468
Stille spüren 1.000 .639
zeigen, wie attraktiv Sport ist 1.000 .623
zeigen, was ich bin 1.000 .695
mit Leuten zusammen sein 1.000 .689
Kontakte knüpfen 1.000 .749
Kontakte pflegen 1.000 .730
sich als Jogger fühlen 1.000 .762
von anderen unterscheiden 1.000 .775

Kommunalitäten, das hat schon Amitai Etzoni gewusst, sind Gemeinsamkeiten. Nimmt man jedes der Motive und packt es gleichwertig in die Faktorenanalyse (mit dem Wert 1,000), extrahiert und dimensioniert, dann kommen einige gemeinsame Faktoren heraus, an denen die einzelnen Motive mehr oder weniger stark beteiligt sind. Die Kommunalitäten nach der Extraktion kann man daher als Prozentwerte interpretieren. So ist die Variable „Wald spüren“ zu 46,8% an der Faktorenlösung beteiligt, die gleich präsentiert wird. D.h. jedoch auch, dass der nicht erklärte Teil der Varianz der Variable „Wald spüren“ nach der Faktorenanalyse 53,2% beträgt.

Das Ergebnis der Faktorenanalyse kann wie folgt beschrieben werden:

25 Motive sind in die Analyse eingegangen. Jede der Variablen hat eine anfängliche Kommunalität von 1,000 mitgebracht. Gibt es keine gemeinsame Dimension zwischen den Motiven, dann sind 25 Faktoren als Ergebnis zu erwarten. Im vorliegenden Fall sind 7 Dimensionen extrahiert worden. Sieben Dimensionen deshalb, weil man sich geeinigt hat, die Kappungsgrenze bei einem Eigenwert von 1,000 zu ziehen. Das macht auch Sinn, weil Faktoren, die einen Eigenwert von weniger als 1,000 haben, weniger erklären als die ursprünglich ins Modell gepackten Variablen (Kommunalitäten waren alle 1,000!). Im vorliegenden Modell werden 67,498% der Gesamtvarianz durch die sieben Faktoren erklärt und 32,502% nicht!

Nun möchte man gerne wissen, welche Variablen welchen gemeinsamen Faktor bilden und wie stark die einzelnen Variablen am gemeinsamen Faktor beteiligt sind Darüber gibt die Komponentenmatrix Auskunft.

Die Komponentenmatrixgibt die Korrelation eines Motivs mit der zugrundeliegenden Dimension oder dem entsprechenden Faktor an. Anders formuliert: Der „factorscore“ zeigt an, wie stark das entsprechende Motiv/die entsprechende Variable an einem gemeinsamen Faktor beteiligt ist. Der „factorscore“ hat einen Wertbereich von -1 bis +1, je höher der „factorscore“, desto stärker der Zusammenhang zwischen Motiv und gemeinsamem Faktor. Dargestellt sind nur Wert die größer als .5 sind. Werte, die geringer sind, sollte man nicht interpretieren. Daher kann man sagen, dass „Gewicht regulieren“, „Gesundheit verbessern“, „sportliche Figur“, „körperliche Fitness“ und „gesundheitliches Vorbeugen“ einen gemeinsamen Faktor bilden, an dem „Gewicht regulieren“ (.832) und „Gesundheit verbessern“ (.827) am stärksten beteiligt sind. Zum Interpretieren dieses Ergebnisses muss man die Häufigkeitsverteilung auf den einzelnen Variablen in Erinnerung behalten und vor allem, die Kodierung: „völlig unwichtig“ war mit dem Wert 1 codiert, „sehr wichtig“ mit dem Wert 5. Bei Gewicht regulieren haben 79,5% der Befragten gesagt, dieses Motiv sei „völlig unwichtig“, bei „Gesundheit verbessern“ 55,7%. D.h. die gemeinsame Dimension ist eine der Ablehnung der entsprechenden Motive. In Worten: Wer durch den Wald rennt, der hat keine Gewichtsprobleme und muss seine Gesundheit nicht verbessern.

Die Komponentenmatrix ist zunächst in unrotierter Form, d.h. geometrisch gesprochen befinden sich die Faktoren in keinem 90 Grad Winkel zueinander. Um dies zu erreichen und die Faktoren statistisch unabhängig voneinander zu machen, rotiert man Faktorenanalysen mit der VARIMAX-Rotation. (VARIationMAXimation = Größtmögliche Distanz zwischen den Faktoren)

Das Ergebnis der Faktorenanalyse muss nunmehr interpretiert werden, d.h. die Faktoren, die von den einzelnen Items konstituiert werden, müssen zunächst einmal sinnvoll benannt werden. So könnte man den Faktor, der durch die Items „Körper erfahren“ und „zeigen, was ich bin“ konstituiert wird, als „expressives Verhalten“ ansehen und entsprechend benennen. Wie die anderen Faktoren benannt werden können, kann sich nunmehr jeder selbst überlegen, und wer mag, kann das Ergebnis seiner Überlegung an Ghostwriter-24 schicken.

Empirische Sozialforschung: Quantitative Befragung

Man glaubt es kaum, aber es gibt eine Methodologie der Befragung. Schon 1975 hat Kurt Holm eine Publikation mit dem Titel „Die Befragung“ herausgegeben. Darin wird u.a. analysiert und argumentiert, wie man im Rahmen einer quantitativen Befragung korrekt Fragen formuliert, ohne den Befragten die Antwort in den Mund zu legen und ohne die Menge der Antwortalternativen so zu bestimmen, dass auch herauskommt, was vielleicht herauskommen soll.

Nicht nur die Form der Frage und die Menge der Antwortalternativen auch die Frage des Skalenniveaus von Fragen, ob nominal, ordinal oder metrisch, sie wurde schon vor Jahren diskutiert. Die Likert-Skala, die ordinale Daten erhebt und dennoch und meistens metrisch interpretiert wird, sie ist ein Ergebnis dieser Diskussionen.

Und heute hat man den Eindruck, die Diskussionen, sie sind Schnee von gestern, komplett und vollständig vergessen, denn: Jeder denkt, er kann eine Befragung durchführen, Fragen stellen und aussagekräftige Antworten erhalten. Deshalb finden sich Mengen von Befragungen, die Items enthalten, in denen mehrere Stimuli erfragt werden, so dass man letztlich nicht weiß, auf was die Befragten nun geantwortet haben, und es ist deshalb, dass viele Befrager Ergebnisse durch die Art der Fragen, bewusst oder unbewusst determinieren.

Lassen Sie es in ihrer Arbeit nicht so weit kommen.

Wir sind Profis in allen Fragen der quantitativen Befragung. Wir konzipieren ihre Befragung, formulieren die Fragen so, dass sie aussagekräftige und vor allem valide Ergebnisse produzieren. Wir erstellen z.B. Online-Befragungen, so dass Sie sich um kaum etwas selbst kümmern müssen und, wenn Sie wollen, dann werten wir die Befragungen auch für sie aus, mit allen Mittel der statistischen Datenanalyse, wie sie z.B. SPSS bereitstellt.

Kontaktieren Sie uns!

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

 

Heute vor 49 Jahren verstorben: Der amerikanische Soziologe und Kulturanthropologe William Lloyd Warner

Am 23. Mai vor 49 Jahren, also im Jahr 1970, starb der amerikanische Soziologe und Kulturanthropologe Wiliam Lloyd Warner. Er ist bekannt für seine Studien über die soziale Struktur der zeitgenössischen Vereinigten Staaten. Das klingt zunächst nicht besonders bemerkenswert. Seine Untersuchungen der sozialen Struktur der Vereinigten Staaten waren aber tatsächlich in mehrerer Hinsicht bemerkenswert.

Erstens war er der erste, der die soziale Struktur des Landes und damit auch die Ungleichheitsstruktur mit Bezug auf die weiße Mehrheitsbevölkerung auf umfassende Weise aus der Perspektive des Funktionalismus beschrieben hat. Er wollte beschreiben, wie das Zusammenspiel zwischen verschiedenen sozioökonmischen Klassen funktioniert, und dabei möglichst wertfrei, d.h. ohne seine Beschreibung vorab von irgendwelchen politischen Theorien leiten oder einschränken zu lassen, beschreiben. Warner hat damit eine regelrechte Flut von Folgeforschungen über die Sozialstruktur der USA augelöst, wie jeder prüfen kann, der sich die Inhaltsverzeichnisse soziologischer Zeitschriften aus den 1940er- und 1950er-Jahren betrachtet.

Zweitens ist Warners Arbeit bemerkenswert, weil er seine Untersuchungen der Sozialstruktur nicht aus makrosoziologischer Perspektive betrieben hat, sondern aus mikrosoziologischer Perspektive, d.h. bei seinen Untersuchungen ist er nicht „top down“ von abstrakten Konzepten und Aggregaten ausgegangen, sondern von der Interaktion zwischen Menschen. Sozialstruktur war für Warner dementsprechend die Gesamtheit der sozialen Beziehungen zwischen den Menschen in einer Gesellschaft. Dementsprechend hat die Erforschung der Sozialstruktur bei Warner die Form einer Reihe von Gemeindestudien angenommen, von denen die berühmteste und umfassendste als „Yankee City“-Studie bekannt ist; sie ist in fünf Bänden publiziert worden. Die Beschreibung der Sozialstruktur in einer Gemeinde nahm Warner vor, indem er verschiedene Arten sozialer Beziehungen betrachtete, wie sie in der Familie, in der Schule, in religiösen Vereinigungen, in Zusammenschlüssen mit wirtschaftlichen Interessen etc. auftreten. Dabei sammelte Warner sowohl qualitative als auch quantitative Methoden, bediente sich also dessen, was man heute einen „Methoden-Mix“ nennen würde.

Die „Yankee City“-Studie wurde in den Jahren 1930 bis 1935 in der ethnographischen Tradition durchgeführt, womit Warner – drittens – einer der Ersten, wenn nicht der Erste, war, der die ethnographische Methode, die im Zusammenhang mit der Forschung über außereuropäische, „primtive“ Gesellschaften entwickelt wurde, auf die eigene – westliche –  Gesellschaft angewendet hat. Tatsächlich waren Warners frühere Forschungen in den Jahren 1926 bis 1929 Untersuchungen unter der Leitung von Alfred R. Radcliffe-Brown über die Sozialstruktur der Aborigines in Arnhem-Land im Norden Australiens. Ethnologen kennen und schätzen Lloyd Warner vor allem aufgrund dieser Forschungen und insbesondere seiner Beschreibung des Verwandtschaftssystems und der Heiratsregeln der Murngin, heute gewöhnlich gemäß ihrer Selbstbezeichnung Yolngu genannt. Er hat also ethnologische Feldforschung betrieben und das in ihr verwendete Instrumentarium auf seine spätere Forschung in der eigenen Gesellschaft übertragen.

Sowohl für die Ethnologie als auch für die Soziologie waren Lloyd Warners Arbeiten wichtig und richtungsweisend, und bis  heute sind seine Untersuchungen relevant. Beispielsweise sind seine Gemeindestudien z.B. sind im Zusammenhang mit Konzepten wie „soziales Kapital“ und „sozialer Partizipation“ sowie in der Forschung über Institution später wiederentdeckt worden (s. z.B. Baba 2009; Flora 1998).


Bei den im Text angesprochenen bzw. zitierten Werken handelt es sich um:

Baba, M L., 2009: W. Lloyd Warner and the Anthropology of Institutions: An Approach to the Study of Work in Late Capitalism. Anthropology of Work Review 30(2): 29-86.

Flora, Jan L., 1998: Social Capital and Communities of Place. Rural Sociology 63(4): 481-506.

Warner, W. Lloyd, 1959: The Living and the Dead: A Study of the Symbolic Life of Americans. (Yankee City Series, volume 5). New Haven: Yale University Press.

Warner, W. Lloyd, 1949: Democracy in Jonesville: A Study in Quality and Inequality. New York: Harper & Row.

Warner, W. Lloyd, 1937: A Black Civilization: A Social Study of an Australian Tribe. Peter Smith.

Warner, W. Lloyd, & Low, J. O., 1947: The Social System of the Modern Factory. (Yankee City Series, volume 4). New Haven: Yale University Press.

Warner, W. Lloyd, & Lunt, Paul S., 1942: The Status System of a Modern Community (Yankee City Series, volume 2). New Haven: Yale University Press.

Warner, W. Lloyd, & Lunt, Paul S., 1941: The Social Life of a Modern Community (Yankee City Series, volume 1). New Haven: Yale University Press.

Warner, W. Lloyd, & Srole, Leo, 1945: The Social Systems of American Ethnic Groups (Yankee City Series, volume 3). New Haven: Yale University Press.