Politikwissenschaft: Autoritärer Charakter

Die Autoritäre Persönlichkeit, die Adorno, Levinson, Sanford und Frenkel-Brunswick im Jahre 1950 veröffentlicht haben, ist zu einem klassiker der empirischen Sozialforschung geworden, auf den immer gerne Bezug genommen und aus dem immer gerne zitiert wird, in der Regel mit Bezug auf die F-Skala, die zur Messung von Faschismus entwickelt wurde. Dass die F-Skala sich aus einer Reihe von Teilskalen zusammensetzt, weiß kaum mehr jemand. Dass eine dieser Teilskalen „Konventionalismus“ misst, noch viel weniger.

Anfälligkeit für den Faschismus ist nach einer bekannten Hypothese charakteristisch für den Mittelstand und ‚liegt in der Kultur‘; die am stärksten Angepassten hegen demzufolge die meisten Vorurteile. Um Material für diese Hypothese zu sammeln, wurden Skalensätze aufgenommen, welche sich auf die Bindung an konventionelle Normen bezogen. Die ersten Ergebnisse machten jedoch deutlich, dass dies nicht so einfach war. Die Korrelation zwischen konventionellen Wertvorstellungen und dem Vorurteil schien positiv, aber nicht sehr hoch; während unkonventionelle Personen gewöhnlich unvoreingenommen waren, gab es unter den Konventionellen Voreingenommene und Unvoreingenommene. Den Unterschied in der Gruppe der Konventionellen schien der Ursprung des Konventionalismus oder vielmehr die Charakterstruktur im ganzen auszumachen, in der er eine funktionale Rolle spielte. Wenn die Unterwerfung unter konventionelle Werte Ausdruck eines voll ausgebildeten Gewissens war, musste nicht zwangsläufig eine Verbindung zwischen diesen Wertvorstellungen und antidemokratischem Potential bestehen. Die gleichen Verhaltensnormen, die das Individuum leicht empören, weil es in ihnen die niedrige Moral nichtassimilierter Minderheiten oder der ‚unteren Klassen‘ sieht, würden – wären sie hinreichend internalisiert – seinen Widerspruch gegen Gewalt und Verbrechen hervorrufen, die den Faschismus im fortgeschrittenen Stadium kennzeichnen. Wo andererseits gesellschaftlicher Druck an konventionellen Normen festhalten lässt, wo der Konventionalismus auf dem Beharren des Individuums an den Normen der Kollektivmacht beruht, mit der es sich im Augenblick identifiziert, ist auf antidemokratische Empfänglichkeit zu schließen. Nur im letzteren Fall sprechen wir von Konventionalismus und unterscheiden ihn von der bloßen Anerkennung herkömmlicher Werte. Das konventionalistische Individuum vermag guten Gewissens dem Diktat äußerer Mächte zu folgen, wo immer sie es hinführen, und wäre – wie der Konvertit, der vom offiziellen Kommunismus zum Katholizismus überwechselt – auch fähig, seinen moralischen Kodex gegen einen ganz anderen auszutauschen“ (Sanford et al., Studien zum autoritären Charakter, S.47-48)

Statistik: Faktorenanalyse

Aus viel mach wenig: Eine Kurzeinführung in die Faktorenanalyse
Der Ausgangspunkt der Analyse, die mit SPSS durchgeführt wurde, ist die Frage nach den Gründen, die jemanden dazu bewegen können, bei schönem Wetter durch den Wald zu rennen, d.h. sich als Jogger zu betätigen. Um diese Frage zu beantworten, wurde diversen Personen eine Liste vorgelegt, die Motive zusammenstellt, die als Begründung für das durch-den-Wald-Rennen dienen können. Jeder „Befragte“ konnte auf einer Likert-Skala, das heißt auf einer Skala, die fünf Antwortmöglichkeiten vorsieht und von der Bewertung „sehr wichtig“ über „weniger wichtig“ bis zu „völlig unwichtig“ reicht, seine Bewertung vornehmen.

Ergebnis vorweggenommen

Die Faktorenanalyse wurde zur Datenreduktion entwickelt. Da man sich gewöhnlich ziemlich hilflos fühlt, wenn man sich einem Datenberg gegenüber sieht, der aus mehr als drei Variablen oder items besteht, ist die Faktorenanalyse zum beliebten Mittel avanciert, um den Berg in nette kleine Hügel zu zerlegen, wobei jeder Hügel mehrere der ursprünglichen Items umfasst, von denen angenommen wird, dass sie eine gemeinsame Dimension besitzen. Und so wie die Variablen, Diäten, Sektempfang, Rede, Parteitag, Berlin und private Krankenversicherung geeignet sind, die gemeinsame Dimension Mitglied des Bundestages zu konstituieren, so wird von den Items, die in einer Faktorenanalyse auf demselben Faktor laden, angenommen, dass sie eine gemeinsame Dimension, eine sogenannte latente Variable verbindet. Das war „die Theorie“ und nun folgt die Praxis.

Mit dem rechts dargestellten Befehl wird eine explorative Faktorenanalyse angefordert. Grundlage der Analyse sind alle Motive, die ein Jogger für das durch-den-Wald-Rennen angeben konnte. Explorativ ist die Faktorenanalyse deswegen, weil die Anzahl der Faktoren, die am Ende der Analyse steht, dem Programm überlassen bleibt und nicht vorgegeben wird, was durchaus möglich ist; dann spricht man von einer konfirmatorischen Faktorenanalyse. Mit einer Faktorenanalyse wird – wie gesagt – untersucht, ob sich in den Daten gemeinsame Dimensionen (Faktoren) finden lassen, d.h. ob sich hinter mehreren beobachteten Variablen eine unbeobachtete latente Variable verbirgt. Zudem zeigt sich im vorliegenden Fall die wichtige Funktion der Datenreduktion, die die Faktorenanalyse erfüllt: Wer kann schon 25 Motive aufeinander beziehen und interpretieren! Die im Folgenden dargestellte Faktorenanalyse ist die gebräuchlichste Form, die Hauptkomponentenanalyse.

Die erste Frage, die interessiert, lautet: Ist das Ergebnis der Faktorenanalyse überhaupt brauchbar? Um diese Frage zu beantworten, gibt es einige Tests. Die zwei gebräuchlichsten sind im Folgenden dargestellt.

KMO- und Bartlett-Test    
Maß der Stichprobenneigung nach Kaiser-Meyer-Olkin   .666
Bartlett-Test auf Sphärizität ungefähres chi-Quadrat 1537,948
  Freiheitsgrade 300
  Signifikanz nach Bartlett ,000

Technisch betrachtet untersucht das Kaiser-Meyer-Olkin Maß (KMO), ob die Summe der quadrierten partiellen Korrelationskoeffizienten auf den unterschiedlichen Dimensionen (oder Faktoren) im Vergleich zur Summe der quadrierten Korrelationskoeffizienten, die nicht auf den Faktoren abgebildet werden, klein ist. Die Summe sollte klein sein, denn sie gibt den nicht erklärten Teil der Varianz an. KMO-Werte können von 0 bis 1 variieren. Dabei hat sich folgende Daumenregel durchgesetzt: Werte von unter 0,5 gelten als inakzeptabel, Werte von 0,5 bis unter 0,6 als schlecht, Werte von 0,6 bis unter 0,7 als mäßig, Werte von 0,7 bis unter 0,8 als mittelprächtig, Werte von 0,8 bis unter 0,9 als recht gut und über 0,9 gelten sie gemeinhin als fabelhaft.

Beim Bartlett-Test auf Sphärizität wird geprüft ob die Korrelationskoeffizienten der Korrelationsmatrix signifikant voneinander abweichen. Da eine Faktorenanalyse auf der Grundlage von Korrelationskoeffizienten errechnet wird, ist es natürlich nicht sinnvoll, eine solche durchzuführen, wenn die Korrelationen nicht signifikant sind. Dass die Korrelationen zwischen den Motiven signifikant sind, kann man auch dadurch überprüfen, dass man sich eine Korrelationsmatrix ausgeben lässt. Der Unterbefehl „/print“ wäre entsprechend durch das Schlüsselwort „correlation“ zu ergänzen.

Ergebnis: Die gute Nachricht: Der Bartlett-Test auf Sphärizität ergibt die Zurückweisung der Nullhypothese, wonach zwischen den Variablen in der Analyse keine Korrelationen bestehen. D.h. das Rechnen einer Faktorenanalyse ist sinnvoll. Der KMO-Wert zeigt jedoch, dass mit einem mäßigen Ergebnis zu rechnen ist, da das Residuum also der Anteil der Varianz, der durch die partiellen Korrelationen nicht erklärt werden kann, relativ hoch ist. KMO-Wertung daher: mäßig.

Kommunalitäten    
Motive für das Durch-den-Wald-Rennen Anfänglich Extraktion
körperliche Fitness 1.000 .662
gesundh. Vorbeugen 1.000 .588
Gesunheit verbessern 1.000 .758
wohlfühlen 1.000 .490
Stress abbauen 1.000 .900
seelischer Ausgleich 1.000 .893
sportliche Figur 1.000 .681
Gewicht regulieren 1.000 .710
Körper erfahren 1.000 .615
messen u. vergleichen 1.000 .512
sich verbessern 1.000 .627
sich anstrengen 1.000 .701
Erfahrungen machen 1.000 .711
pers. Herausforderung 1.000 .577
spannende Situation erleben 1.000 .689
Natur erleben 1.000 .629
Wald spüren 1.000 .468
Stille spüren 1.000 .639
zeigen, wie attraktiv Sport ist 1.000 .623
zeigen, was ich bin 1.000 .695
mit Leuten zusammen sein 1.000 .689
Kontakte knüpfen 1.000 .749
Kontakte pflegen 1.000 .730
sich als Jogger fühlen 1.000 .762
von anderen unterscheiden 1.000 .775

Kommunalitäten, das hat schon Amitai Etzoni gewusst, sind Gemeinsamkeiten. Nimmt man jedes der Motive und packt es gleichwertig in die Faktorenanalyse (mit dem Wert 1,000), extrahiert und dimensioniert, dann kommen einige gemeinsame Faktoren heraus, an denen die einzelnen Motive mehr oder weniger stark beteiligt sind. Die Kommunalitäten nach der Extraktion kann man daher als Prozentwerte interpretieren. So ist die Variable „Wald spüren“ zu 46,8% an der Faktorenlösung beteiligt, die gleich präsentiert wird. D.h. jedoch auch, dass der nicht erklärte Teil der Varianz der Variable „Wald spüren“ nach der Faktorenanalyse 53,2% beträgt.

Das Ergebnis der Faktorenanalyse kann wie folgt beschrieben werden:

25 Motive sind in die Analyse eingegangen. Jede der Variablen hat eine anfängliche Kommunalität von 1,000 mitgebracht. Gibt es keine gemeinsame Dimension zwischen den Motiven, dann sind 25 Faktoren als Ergebnis zu erwarten. Im vorliegenden Fall sind 7 Dimensionen extrahiert worden. Sieben Dimensionen deshalb, weil man sich geeinigt hat, die Kappungsgrenze bei einem Eigenwert von 1,000 zu ziehen. Das macht auch Sinn, weil Faktoren, die einen Eigenwert von weniger als 1,000 haben, weniger erklären als die ursprünglich ins Modell gepackten Variablen (Kommunalitäten waren alle 1,000!). Im vorliegenden Modell werden 67,498% der Gesamtvarianz durch die sieben Faktoren erklärt und 32,502% nicht!

Nun möchte man gerne wissen, welche Variablen welchen gemeinsamen Faktor bilden und wie stark die einzelnen Variablen am gemeinsamen Faktor beteiligt sind Darüber gibt die Komponentenmatrix Auskunft.

Die Komponentenmatrixgibt die Korrelation eines Motivs mit der zugrundeliegenden Dimension oder dem entsprechenden Faktor an. Anders formuliert: Der „factorscore“ zeigt an, wie stark das entsprechende Motiv/die entsprechende Variable an einem gemeinsamen Faktor beteiligt ist. Der „factorscore“ hat einen Wertbereich von -1 bis +1, je höher der „factorscore“, desto stärker der Zusammenhang zwischen Motiv und gemeinsamem Faktor. Dargestellt sind nur Wert die größer als .5 sind. Werte, die geringer sind, sollte man nicht interpretieren. Daher kann man sagen, dass „Gewicht regulieren“, „Gesundheit verbessern“, „sportliche Figur“, „körperliche Fitness“ und „gesundheitliches Vorbeugen“ einen gemeinsamen Faktor bilden, an dem „Gewicht regulieren“ (.832) und „Gesundheit verbessern“ (.827) am stärksten beteiligt sind. Zum Interpretieren dieses Ergebnisses muss man die Häufigkeitsverteilung auf den einzelnen Variablen in Erinnerung behalten und vor allem, die Kodierung: „völlig unwichtig“ war mit dem Wert 1 codiert, „sehr wichtig“ mit dem Wert 5. Bei Gewicht regulieren haben 79,5% der Befragten gesagt, dieses Motiv sei „völlig unwichtig“, bei „Gesundheit verbessern“ 55,7%. D.h. die gemeinsame Dimension ist eine der Ablehnung der entsprechenden Motive. In Worten: Wer durch den Wald rennt, der hat keine Gewichtsprobleme und muss seine Gesundheit nicht verbessern.

Die Komponentenmatrix ist zunächst in unrotierter Form, d.h. geometrisch gesprochen befinden sich die Faktoren in keinem 90 Grad Winkel zueinander. Um dies zu erreichen und die Faktoren statistisch unabhängig voneinander zu machen, rotiert man Faktorenanalysen mit der VARIMAX-Rotation. (VARIationMAXimation = Größtmögliche Distanz zwischen den Faktoren)

Das Ergebnis der Faktorenanalyse muss nunmehr interpretiert werden, d.h. die Faktoren, die von den einzelnen Items konstituiert werden, müssen zunächst einmal sinnvoll benannt werden. So könnte man den Faktor, der durch die Items „Körper erfahren“ und „zeigen, was ich bin“ konstituiert wird, als „expressives Verhalten“ ansehen und entsprechend benennen. Wie die anderen Faktoren benannt werden können, kann sich nunmehr jeder selbst überlegen, und wer mag, kann das Ergebnis seiner Überlegung an Ghostwriter-24 schicken.

Empirische Sozialforschung: Quantitative Befragung

Man glaubt es kaum, aber es gibt eine Methodologie der Befragung. Schon 1975 hat Kurt Holm eine Publikation mit dem Titel „Die Befragung“ herausgegeben. Darin wird u.a. analysiert und argumentiert, wie man im Rahmen einer quantitativen Befragung korrekt Fragen formuliert, ohne den Befragten die Antwort in den Mund zu legen und ohne die Menge der Antwortalternativen so zu bestimmen, dass auch herauskommt, was vielleicht herauskommen soll.

Nicht nur die Form der Frage und die Menge der Antwortalternativen auch die Frage des Skalenniveaus von Fragen, ob nominal, ordinal oder metrisch, sie wurde schon vor Jahren diskutiert. Die Likert-Skala, die ordinale Daten erhebt und dennoch und meistens metrisch interpretiert wird, sie ist ein Ergebnis dieser Diskussionen.

Und heute hat man den Eindruck, die Diskussionen, sie sind Schnee von gestern, komplett und vollständig vergessen, denn: Jeder denkt, er kann eine Befragung durchführen, Fragen stellen und aussagekräftige Antworten erhalten. Deshalb finden sich Mengen von Befragungen, die Items enthalten, in denen mehrere Stimuli erfragt werden, so dass man letztlich nicht weiß, auf was die Befragten nun geantwortet haben, und es ist deshalb, dass viele Befrager Ergebnisse durch die Art der Fragen, bewusst oder unbewusst determinieren.

Lassen Sie es in ihrer Arbeit nicht so weit kommen.

Wir sind Profis in allen Fragen der quantitativen Befragung. Wir konzipieren ihre Befragung, formulieren die Fragen so, dass sie aussagekräftige und vor allem valide Ergebnisse produzieren. Wir erstellen z.B. Online-Befragungen, so dass Sie sich um kaum etwas selbst kümmern müssen und, wenn Sie wollen, dann werten wir die Befragungen auch für sie aus, mit allen Mittel der statistischen Datenanalyse, wie sie z.B. SPSS bereitstellt.

Kontaktieren Sie uns!

Zeitgeschichte: Gesetzgebung 1917

„Von entscheidender Bedeutung für die staatliche Machtfülle – die Souveränität – ist überall die Gesetzgebung und ihre Form. Für das Deutsche Reich besteht diese Form darin, dass der übereinstimmende Wille zweier voneinander unabhängiger Körperschaften – des Bundesrats und des Reichstags – erforderlich und ausreichend ist, um ein Gesetz zu schaffen, und dass es durch seine Verkündung rechtskräftig wird; die Verkündung geschieht durch den Deutschen Kaiser, der diesen monarchischen Namen trägt als König von Preußen, weil mit der Krone Preußens das erbliche Präsidium des Bundesstaates „Deutsches Reich“ verbunden ist. Gesetzgebender Faktor ist der Kaiser im Reiche nicht, denn seine Zustimmung wird nicht erfordert. Nur mittelbar besitzt er Macht über die Reichsgesetzgebung, indem ihm 1. als Kaiser die Berufung und Schließung des Bundesrats und des Reichstags zusteht und für die Auflösung des Reichstags seine Zustimmung erforderlich ist; indem er 2. als König von Preußen das Haupt der preußischen Regierung ist, di egleich jeder anderen Einzelstaatsregierung ihre Vertreter, und zwar von sämtlichen 61 Vertretern 17, in den Bundesrat entsendet und deren Abstimmung anweist [instruiert], wobei ferner die preußischen Stimmen in einige (militärischen und finanziellen) Angelegenheiten entscheidend wirken, wenn sie für Erhaltung der bestehenden Einrichtungen sich geltend machen. In England – wir nennen im folgenden immer, wie üblich, das Vereinigte Königreich mit diesem Namen, es sei denn, dass von England im Unterschiede von den anderen Teilen die Rede sei – ist der zu Recht bestehenden Form nach noch immer der König Träger der Souveränität, selber der Sovereign, aber nur indem er zusammensteht und zusammenwirkt mit beiden Häusern des Parlaments – the King in Parliament -, also mit dem Hause der Lords und dem Hause der Gemeinen, kann er gesetzgebend auftreten. Noch heute, wie ehedem, wird ein Gesetzentwurf – eine Bill – in der Regel dadurch Gesetz – eine Akte -, dass er, vom Unterhause durch drei Lesungen beschlossen, vom Oberhaus ebenso angenommen, die köngliche Einwilligung erhällt (the royal assent): dann wird das Gesetz ins Gesetzbucg  – the Statute Book – eingetragen. Indessen ist es eine allgemein bekannte Tatsache, dass der König seine Zustimmung zu verweigern niemals in der Lage ist, daß ihm nur noch zum Schein diese Freiheit beiwognt, denn erkann nicht politisch handeln ohne den ‚Rat‘ seiner Minister, deren Wahl wiederum nur scheinbar in seiner Hand liegt; und der Rat ist für ihn so gut als Befehl. Im Hause der Gemeinen ist der Sitz der Macht. Nur das ‚andere Haus‘ kommt neben ihm in Frage. Es kann den Willen des Hauses der Gemeinen hemmen, dessen Ausführung verzögern, aber auch das nur, wenn es sich um Gesetzentwürfe handelt, mit denen keine Geldbewilligung verbunden ist; wenn dies der Fall – ist es eine money bill – so ist das Oberhaus rechtlich nicht mehr imstande, dem Beschluss des Unterhauses entgegenzuwirken. Die Bill bedarf nur der königlichen Einwilligung – die als selbstverständlich erfolgend gilt -, um Gesetz zu werden. Andere Gesetzentwürfe sind ebenso der Zustimmung des Oberhauses überhoben, wenn diese in drei aufeinanderfolgenden Sessionen (ob desselben Parlaments oder nicht) verweigert worden ist, nachdem das Unterhaus sie ebensooft beschlossen hatte: vorausgesetzt, dass zwei Jahre verflossen sind zwischen der zweiten lesung in der ersten und der dritten Lesung in der dritten Session, und dass der Entwurf wenigstens einen Monat vor dem Schlusse der Session dem Oberhaus vorgelegt worden war“. (Tönnies 1917: 3-4) Die Veränderungen, die der Gang der Gesetzgebung in Deutschland erfahren hat, sind, wie die Darstellung zeigt, umfangreicher als die, die im Vereinigten Königreich gegeben sind.