Schule als Autoritätsstruktur

Aus alten Arbeiten zur Soziologie, im vorliegenden Fall zur Bildungssoziologie, kann man in der Regel nicht nur erfahren, welche Themen und Herangehensweisen von Wissenschaftlern vergangener Tage verwendet wurden, oftmals sind die Arbeiten aufgrund ihrer theoretischen, methodischen und inhaltlichen Tiefe sehr interessant und ein Vorbild für heutige Arbeiten.

Die Arbeiten, die Howard Becker zu Bildungsthemen erstellt hat, sind solche Arbeiten. Sie breiten nicht nur Methoden qualitativer Sozialforschung als Zugang zu einem Forschungsfeld aus und zeigen deren gekonnte Anwendung, sie zeigen auch, wie man empirisches und theoretisches Arbeiten miteinander so verbindet, dass nicht beides nebeneinander besteht, wie monolithische Blöcke, zwischen denen es keine Verbindung gibt, wie dies heute häufig der Fall ist.

Eine Darstellung der Einbindung schulischer Lehrer, die für Lerner der qualitativen Sozialforschung eine perfekte Anwendung der dokumentarischen Methode zur Auswertung narrativer Interviews darstellt, schließt Becker mit dem folgenden Fazit ab:

„I have presented the teacher as a person who is concerned (among other things) with maintaining what she considers to be her legitimate authority over pupils and parents, with avoiding and defending against challenges from these sources. In her view, the principal and other teachers should help her in building a system of defense against such challenges. Through feelings of colleagueship and the use of various kinds of sanctions, a system of defense and secrecy (oriented toward preventing the intrusion of parents and children into the authority system) is organized.

This picture discloses certain points of general relevance for the study of institutional authority systems. In the first place, an institution like the school can be seen as a small, self-contained system of social control. Its functionaries (principal and teachers) are able to control one another, each has some power to influence the other’s conduct. This creates a stable and predictable work setting in which the limits of behavior for every individual are known, and in which one can build a satisfactory authority position of which he can be sure, knowing that he has certain methods of controlling those – who ignore his authority.

In contrast the activities of those who are outside the professional group are not involved in such a network of mutual understanding and control. Parents do not necessarily share the values by which the teacher legitimates her authority. And while parents can apply sanctions to the teacher, the teacher has no means of control which she can use in return, in direct retaliation.

To the teacher, then, the parents appear as an unpredictable and uncontrollable element, as a force which endangers and may even destroy the existing authority system over which she has some measure of control. For this reason, teachers (and principals who abide by their expectations) carry on an essentially secretive relationship vis-a-vis parents and the community, trying to prevent any event which will give these groups a permanent place of authority in the school situation. The emphasis on never admitting mistakes of school personnel to parents is an attempt to prevent these outsiders (who would not be subject to teacher control) from getting any excuse which might justify their intrusion into and possible destruction of the existing authority system.

This suggests the general proposition that the relations of institutional functionaries to one another are relations of mutual influence and control, and that outsiders are systematically prevented from exerting any authority over the institution’s operations because they are not involved in this web of control and would literally be uncontrollable, and destructive of the institutional organisation, as the functionaries desire it to be preserved, if they were allowed such authority“

(Becker, Howard Becker on Education, pp.56-58).

Statistik: Pareto Diagramme

Interessanter Weise findet man die kürzesten und einfachsten Erklärungen, wenngleich nicht immer eine vollständige Erklärung statistischer Konzepte in Büchern zum Lean Sex Sigma, z.B. dem von George et al. (2005) verfassten Pocket Toolbook. Darin findet sich eine sehr schlanke Erklärung für Pareto-Diagramme, bei denen die Anzahl für bestimmte Ausprägungen bereits in eine Reihenfolge nach Größe gebracht worden sind.

Ob es einen Pareto-Effekt gibt, kann den Diagrammen durch einfachen Blick entnommen werden. Gibt es eine Ab-/Zunahme von links nach rechts, dann gibt es auch einen Pareto-Effekt, wenn nicht, dann nicht. Was es mit einem Pareto-Diagramm auf sich hat, kann man der Beschreibung seiner Erstellung leicht entnehmen.

  1. Collect data on different types or categories of problems.
  2. Tabulate the scores. Determine the total number of problems observed and/or the total impact. Also determine the counts or impact for each category.
    • If there are a lot of small or infrequent problems, consider adding them together into an ‚other‘ category.
  3. Sort the problem by frequency or by level of impact.
  4. Draw a vertical axis and divide into increments equal to the total number you observed.
    • In the sample here, the total number of problems was 43, so the vertical axis on the left goes to 42.
    • People often mistakenly make the vertical axis only as tall as the tallest bar, which can overemphasize the importance of the tall bars and lead to false conclusions.
  5. Draw bars for each category, starting with the largest and working down.
    • The ‚other‘ category always goes last even if it is not the shortest bar.
  6. OPTIONAL: Add in the cumulative percentage line. (Convert the raw counts to percentages of the total, then draw a vertical axis on the right that represents percentage. Plot a point above the first bar at the percentage represented by that bar, then another above the second bar representing the combined percentage, and so on. Connect the points.) (George, Michael L., Rowlands, David, Price, Mark & Maxey, John (2005). Lean Six Sigma Pocket Toolbook, p.143).

Statistik: Faktorenanalyse

Aus viel mach wenig: Eine Kurzeinführung in die Faktorenanalyse
Der Ausgangspunkt der Analyse, die mit SPSS durchgeführt wurde, ist die Frage nach den Gründen, die jemanden dazu bewegen können, bei schönem Wetter durch den Wald zu rennen, d.h. sich als Jogger zu betätigen. Um diese Frage zu beantworten, wurde diversen Personen eine Liste vorgelegt, die Motive zusammenstellt, die als Begründung für das durch-den-Wald-Rennen dienen können. Jeder „Befragte“ konnte auf einer Likert-Skala, das heißt auf einer Skala, die fünf Antwortmöglichkeiten vorsieht und von der Bewertung „sehr wichtig“ über „weniger wichtig“ bis zu „völlig unwichtig“ reicht, seine Bewertung vornehmen.

Ergebnis vorweggenommen

Die Faktorenanalyse wurde zur Datenreduktion entwickelt. Da man sich gewöhnlich ziemlich hilflos fühlt, wenn man sich einem Datenberg gegenüber sieht, der aus mehr als drei Variablen oder items besteht, ist die Faktorenanalyse zum beliebten Mittel avanciert, um den Berg in nette kleine Hügel zu zerlegen, wobei jeder Hügel mehrere der ursprünglichen Items umfasst, von denen angenommen wird, dass sie eine gemeinsame Dimension besitzen. Und so wie die Variablen, Diäten, Sektempfang, Rede, Parteitag, Berlin und private Krankenversicherung geeignet sind, die gemeinsame Dimension Mitglied des Bundestages zu konstituieren, so wird von den Items, die in einer Faktorenanalyse auf demselben Faktor laden, angenommen, dass sie eine gemeinsame Dimension, eine sogenannte latente Variable verbindet. Das war „die Theorie“ und nun folgt die Praxis.

Mit dem rechts dargestellten Befehl wird eine explorative Faktorenanalyse angefordert. Grundlage der Analyse sind alle Motive, die ein Jogger für das durch-den-Wald-Rennen angeben konnte. Explorativ ist die Faktorenanalyse deswegen, weil die Anzahl der Faktoren, die am Ende der Analyse steht, dem Programm überlassen bleibt und nicht vorgegeben wird, was durchaus möglich ist; dann spricht man von einer konfirmatorischen Faktorenanalyse. Mit einer Faktorenanalyse wird – wie gesagt – untersucht, ob sich in den Daten gemeinsame Dimensionen (Faktoren) finden lassen, d.h. ob sich hinter mehreren beobachteten Variablen eine unbeobachtete latente Variable verbirgt. Zudem zeigt sich im vorliegenden Fall die wichtige Funktion der Datenreduktion, die die Faktorenanalyse erfüllt: Wer kann schon 25 Motive aufeinander beziehen und interpretieren! Die im Folgenden dargestellte Faktorenanalyse ist die gebräuchlichste Form, die Hauptkomponentenanalyse.

Die erste Frage, die interessiert, lautet: Ist das Ergebnis der Faktorenanalyse überhaupt brauchbar? Um diese Frage zu beantworten, gibt es einige Tests. Die zwei gebräuchlichsten sind im Folgenden dargestellt.

KMO- und Bartlett-Test    
Maß der Stichprobenneigung nach Kaiser-Meyer-Olkin   .666
Bartlett-Test auf Sphärizität ungefähres chi-Quadrat 1537,948
  Freiheitsgrade 300
  Signifikanz nach Bartlett ,000

Technisch betrachtet untersucht das Kaiser-Meyer-Olkin Maß (KMO), ob die Summe der quadrierten partiellen Korrelationskoeffizienten auf den unterschiedlichen Dimensionen (oder Faktoren) im Vergleich zur Summe der quadrierten Korrelationskoeffizienten, die nicht auf den Faktoren abgebildet werden, klein ist. Die Summe sollte klein sein, denn sie gibt den nicht erklärten Teil der Varianz an. KMO-Werte können von 0 bis 1 variieren. Dabei hat sich folgende Daumenregel durchgesetzt: Werte von unter 0,5 gelten als inakzeptabel, Werte von 0,5 bis unter 0,6 als schlecht, Werte von 0,6 bis unter 0,7 als mäßig, Werte von 0,7 bis unter 0,8 als mittelprächtig, Werte von 0,8 bis unter 0,9 als recht gut und über 0,9 gelten sie gemeinhin als fabelhaft.

Beim Bartlett-Test auf Sphärizität wird geprüft ob die Korrelationskoeffizienten der Korrelationsmatrix signifikant voneinander abweichen. Da eine Faktorenanalyse auf der Grundlage von Korrelationskoeffizienten errechnet wird, ist es natürlich nicht sinnvoll, eine solche durchzuführen, wenn die Korrelationen nicht signifikant sind. Dass die Korrelationen zwischen den Motiven signifikant sind, kann man auch dadurch überprüfen, dass man sich eine Korrelationsmatrix ausgeben lässt. Der Unterbefehl „/print“ wäre entsprechend durch das Schlüsselwort „correlation“ zu ergänzen.

Ergebnis: Die gute Nachricht: Der Bartlett-Test auf Sphärizität ergibt die Zurückweisung der Nullhypothese, wonach zwischen den Variablen in der Analyse keine Korrelationen bestehen. D.h. das Rechnen einer Faktorenanalyse ist sinnvoll. Der KMO-Wert zeigt jedoch, dass mit einem mäßigen Ergebnis zu rechnen ist, da das Residuum also der Anteil der Varianz, der durch die partiellen Korrelationen nicht erklärt werden kann, relativ hoch ist. KMO-Wertung daher: mäßig.

Kommunalitäten    
Motive für das Durch-den-Wald-Rennen Anfänglich Extraktion
körperliche Fitness 1.000 .662
gesundh. Vorbeugen 1.000 .588
Gesunheit verbessern 1.000 .758
wohlfühlen 1.000 .490
Stress abbauen 1.000 .900
seelischer Ausgleich 1.000 .893
sportliche Figur 1.000 .681
Gewicht regulieren 1.000 .710
Körper erfahren 1.000 .615
messen u. vergleichen 1.000 .512
sich verbessern 1.000 .627
sich anstrengen 1.000 .701
Erfahrungen machen 1.000 .711
pers. Herausforderung 1.000 .577
spannende Situation erleben 1.000 .689
Natur erleben 1.000 .629
Wald spüren 1.000 .468
Stille spüren 1.000 .639
zeigen, wie attraktiv Sport ist 1.000 .623
zeigen, was ich bin 1.000 .695
mit Leuten zusammen sein 1.000 .689
Kontakte knüpfen 1.000 .749
Kontakte pflegen 1.000 .730
sich als Jogger fühlen 1.000 .762
von anderen unterscheiden 1.000 .775

Kommunalitäten, das hat schon Amitai Etzoni gewusst, sind Gemeinsamkeiten. Nimmt man jedes der Motive und packt es gleichwertig in die Faktorenanalyse (mit dem Wert 1,000), extrahiert und dimensioniert, dann kommen einige gemeinsame Faktoren heraus, an denen die einzelnen Motive mehr oder weniger stark beteiligt sind. Die Kommunalitäten nach der Extraktion kann man daher als Prozentwerte interpretieren. So ist die Variable „Wald spüren“ zu 46,8% an der Faktorenlösung beteiligt, die gleich präsentiert wird. D.h. jedoch auch, dass der nicht erklärte Teil der Varianz der Variable „Wald spüren“ nach der Faktorenanalyse 53,2% beträgt.

Das Ergebnis der Faktorenanalyse kann wie folgt beschrieben werden:

25 Motive sind in die Analyse eingegangen. Jede der Variablen hat eine anfängliche Kommunalität von 1,000 mitgebracht. Gibt es keine gemeinsame Dimension zwischen den Motiven, dann sind 25 Faktoren als Ergebnis zu erwarten. Im vorliegenden Fall sind 7 Dimensionen extrahiert worden. Sieben Dimensionen deshalb, weil man sich geeinigt hat, die Kappungsgrenze bei einem Eigenwert von 1,000 zu ziehen. Das macht auch Sinn, weil Faktoren, die einen Eigenwert von weniger als 1,000 haben, weniger erklären als die ursprünglich ins Modell gepackten Variablen (Kommunalitäten waren alle 1,000!). Im vorliegenden Modell werden 67,498% der Gesamtvarianz durch die sieben Faktoren erklärt und 32,502% nicht!

Nun möchte man gerne wissen, welche Variablen welchen gemeinsamen Faktor bilden und wie stark die einzelnen Variablen am gemeinsamen Faktor beteiligt sind Darüber gibt die Komponentenmatrix Auskunft.

Die Komponentenmatrixgibt die Korrelation eines Motivs mit der zugrundeliegenden Dimension oder dem entsprechenden Faktor an. Anders formuliert: Der „factorscore“ zeigt an, wie stark das entsprechende Motiv/die entsprechende Variable an einem gemeinsamen Faktor beteiligt ist. Der „factorscore“ hat einen Wertbereich von -1 bis +1, je höher der „factorscore“, desto stärker der Zusammenhang zwischen Motiv und gemeinsamem Faktor. Dargestellt sind nur Wert die größer als .5 sind. Werte, die geringer sind, sollte man nicht interpretieren. Daher kann man sagen, dass „Gewicht regulieren“, „Gesundheit verbessern“, „sportliche Figur“, „körperliche Fitness“ und „gesundheitliches Vorbeugen“ einen gemeinsamen Faktor bilden, an dem „Gewicht regulieren“ (.832) und „Gesundheit verbessern“ (.827) am stärksten beteiligt sind. Zum Interpretieren dieses Ergebnisses muss man die Häufigkeitsverteilung auf den einzelnen Variablen in Erinnerung behalten und vor allem, die Kodierung: „völlig unwichtig“ war mit dem Wert 1 codiert, „sehr wichtig“ mit dem Wert 5. Bei Gewicht regulieren haben 79,5% der Befragten gesagt, dieses Motiv sei „völlig unwichtig“, bei „Gesundheit verbessern“ 55,7%. D.h. die gemeinsame Dimension ist eine der Ablehnung der entsprechenden Motive. In Worten: Wer durch den Wald rennt, der hat keine Gewichtsprobleme und muss seine Gesundheit nicht verbessern.

Die Komponentenmatrix ist zunächst in unrotierter Form, d.h. geometrisch gesprochen befinden sich die Faktoren in keinem 90 Grad Winkel zueinander. Um dies zu erreichen und die Faktoren statistisch unabhängig voneinander zu machen, rotiert man Faktorenanalysen mit der VARIMAX-Rotation. (VARIationMAXimation = Größtmögliche Distanz zwischen den Faktoren)

Das Ergebnis der Faktorenanalyse muss nunmehr interpretiert werden, d.h. die Faktoren, die von den einzelnen Items konstituiert werden, müssen zunächst einmal sinnvoll benannt werden. So könnte man den Faktor, der durch die Items „Körper erfahren“ und „zeigen, was ich bin“ konstituiert wird, als „expressives Verhalten“ ansehen und entsprechend benennen. Wie die anderen Faktoren benannt werden können, kann sich nunmehr jeder selbst überlegen, und wer mag, kann das Ergebnis seiner Überlegung an Ghostwriter-24 schicken.

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

 

Heute vor 49 Jahren verstorben: Der amerikanische Soziologe und Kulturanthropologe William Lloyd Warner

Am 23. Mai vor 49 Jahren, also im Jahr 1970, starb der amerikanische Soziologe und Kulturanthropologe Wiliam Lloyd Warner. Er ist bekannt für seine Studien über die soziale Struktur der zeitgenössischen Vereinigten Staaten. Das klingt zunächst nicht besonders bemerkenswert. Seine Untersuchungen der sozialen Struktur der Vereinigten Staaten waren aber tatsächlich in mehrerer Hinsicht bemerkenswert.

Erstens war er der erste, der die soziale Struktur des Landes und damit auch die Ungleichheitsstruktur mit Bezug auf die weiße Mehrheitsbevölkerung auf umfassende Weise aus der Perspektive des Funktionalismus beschrieben hat. Er wollte beschreiben, wie das Zusammenspiel zwischen verschiedenen sozioökonmischen Klassen funktioniert, und dabei möglichst wertfrei, d.h. ohne seine Beschreibung vorab von irgendwelchen politischen Theorien leiten oder einschränken zu lassen, beschreiben. Warner hat damit eine regelrechte Flut von Folgeforschungen über die Sozialstruktur der USA augelöst, wie jeder prüfen kann, der sich die Inhaltsverzeichnisse soziologischer Zeitschriften aus den 1940er- und 1950er-Jahren betrachtet.

Zweitens ist Warners Arbeit bemerkenswert, weil er seine Untersuchungen der Sozialstruktur nicht aus makrosoziologischer Perspektive betrieben hat, sondern aus mikrosoziologischer Perspektive, d.h. bei seinen Untersuchungen ist er nicht „top down“ von abstrakten Konzepten und Aggregaten ausgegangen, sondern von der Interaktion zwischen Menschen. Sozialstruktur war für Warner dementsprechend die Gesamtheit der sozialen Beziehungen zwischen den Menschen in einer Gesellschaft. Dementsprechend hat die Erforschung der Sozialstruktur bei Warner die Form einer Reihe von Gemeindestudien angenommen, von denen die berühmteste und umfassendste als „Yankee City“-Studie bekannt ist; sie ist in fünf Bänden publiziert worden. Die Beschreibung der Sozialstruktur in einer Gemeinde nahm Warner vor, indem er verschiedene Arten sozialer Beziehungen betrachtete, wie sie in der Familie, in der Schule, in religiösen Vereinigungen, in Zusammenschlüssen mit wirtschaftlichen Interessen etc. auftreten. Dabei sammelte Warner sowohl qualitative als auch quantitative Methoden, bediente sich also dessen, was man heute einen „Methoden-Mix“ nennen würde.

Die „Yankee City“-Studie wurde in den Jahren 1930 bis 1935 in der ethnographischen Tradition durchgeführt, womit Warner – drittens – einer der Ersten, wenn nicht der Erste, war, der die ethnographische Methode, die im Zusammenhang mit der Forschung über außereuropäische, „primtive“ Gesellschaften entwickelt wurde, auf die eigene – westliche –  Gesellschaft angewendet hat. Tatsächlich waren Warners frühere Forschungen in den Jahren 1926 bis 1929 Untersuchungen unter der Leitung von Alfred R. Radcliffe-Brown über die Sozialstruktur der Aborigines in Arnhem-Land im Norden Australiens. Ethnologen kennen und schätzen Lloyd Warner vor allem aufgrund dieser Forschungen und insbesondere seiner Beschreibung des Verwandtschaftssystems und der Heiratsregeln der Murngin, heute gewöhnlich gemäß ihrer Selbstbezeichnung Yolngu genannt. Er hat also ethnologische Feldforschung betrieben und das in ihr verwendete Instrumentarium auf seine spätere Forschung in der eigenen Gesellschaft übertragen.

Sowohl für die Ethnologie als auch für die Soziologie waren Lloyd Warners Arbeiten wichtig und richtungsweisend, und bis  heute sind seine Untersuchungen relevant. Beispielsweise sind seine Gemeindestudien z.B. sind im Zusammenhang mit Konzepten wie „soziales Kapital“ und „sozialer Partizipation“ sowie in der Forschung über Institution später wiederentdeckt worden (s. z.B. Baba 2009; Flora 1998).


Bei den im Text angesprochenen bzw. zitierten Werken handelt es sich um:

Baba, M L., 2009: W. Lloyd Warner and the Anthropology of Institutions: An Approach to the Study of Work in Late Capitalism. Anthropology of Work Review 30(2): 29-86.

Flora, Jan L., 1998: Social Capital and Communities of Place. Rural Sociology 63(4): 481-506.

Warner, W. Lloyd, 1959: The Living and the Dead: A Study of the Symbolic Life of Americans. (Yankee City Series, volume 5). New Haven: Yale University Press.

Warner, W. Lloyd, 1949: Democracy in Jonesville: A Study in Quality and Inequality. New York: Harper & Row.

Warner, W. Lloyd, 1937: A Black Civilization: A Social Study of an Australian Tribe. Peter Smith.

Warner, W. Lloyd, & Low, J. O., 1947: The Social System of the Modern Factory. (Yankee City Series, volume 4). New Haven: Yale University Press.

Warner, W. Lloyd, & Lunt, Paul S., 1942: The Status System of a Modern Community (Yankee City Series, volume 2). New Haven: Yale University Press.

Warner, W. Lloyd, & Lunt, Paul S., 1941: The Social Life of a Modern Community (Yankee City Series, volume 1). New Haven: Yale University Press.

Warner, W. Lloyd, & Srole, Leo, 1945: The Social Systems of American Ethnic Groups (Yankee City Series, volume 3). New Haven: Yale University Press.

Statistik: Die Kaplan-Meier Erfolgsstory

Der am häufigsten zitierte Fachzeitschriftenaufsatz aus dem Bereich der Statistik: Kaplans und Meiers „Nonparametric Estimation from Incomplete Observations” Nach einer Analyse von Thomas P. Ryan und William H. Woodall (2005) war der Aufsatz mit dem Titel „Nonparametric Estimation from Incomplete Observations“, das von Edward L. Kaplan und Paul Meier im Jahr 1958 im Journal of the American Statistical Association veröffentlicht wurde, zum damaligen Zeitpunkt, also 2005, mit 25.869 Zitierungen seit dem Erscheinungsjahr der am häufigsten zitierte statistische Fachzeitschriftenaufsatz. Darüber hinaus war er unter den fünf am häufigsten zitierten wissenschaftlichen Fachartikeln. Seitdem hat es u.W. zwar keine neuere Analyse der am häufigsten zitierten statistischen Aufsätze gegeben, aber es erscheint plausibel zu vermuten, dass Kaplans und Meiers Aufsatz nach wie vor der am häufigsten zitierte statistische Aufsatz ist, schlagen die Autoren doch ein statistisches Schätzverfahren vor, mit Hilfe dessen der Anteil von Merkmalen oder Ereignissen bzw. deren Eintrittswahrscheinlichkeiten in einer Population geschätzt werden kann, wenn zensierte Daten vorliegen, d.h. wenn das interessierende Merkmal oder das interessierende Ereignis auch noch nach dem Ende des Beobachtungszeitraums, für den Daten vorliegen, eintreten kann. Dies ist häufig der Fall, wenn es um medizinische Fragestellungen geht, aber auch für viele sozialwissenschaftliche Fragestellungen ist das Verfahren von Kaplan und Meier relevant. Beispielsweise dann, wenn man auf der Basis von Daten, die man, für Einbrecher und ihre Einbrüche in einem bestimmten Beobachtungszeitraum, z.B. zwischen 1998 und 2010, vorliegen hat, eine Schätzung darüber vornehmen will, wie hoch die Rückfallquote unter (diesen) Einbrechern ist. Weil die Einbrecher, für die Daten vorliegen, ja auch nach 2010 noch Einbrüche begangen haben können oder begehen können, ist ein statistisches Schätzverfahren notwendig, das diesem Umstand Rechnung trägt. Der sogenannten Kaplan-Meier- Schätzer tut dies. Ein weiterer Vorteil des Verfahrens nach Kaplan und Meier ist, dass keine Annahmen über die Form Verteilung der Überlebensfunktion gemacht werden muss, in unserem Beispiel also darüber, ob die Anteile der Einbrecher, die rückfällig werden, im Zeitverlauf einer Linie oder (irgendeiner Art von) Kurve folgen. Es ist also nicht überraschend, dass der Kaplan-Meier-Schätzer häufig verwendet wird und dementsprechend häufig zitiert wird. Vielleicht hat zur Qualität des Aufsatzes auch der Umstand beigetragen, dass Kaplan und Meier zunächst getrennte Manuskripte über das von ihnen entwickelte Schätzverfahren eingereicht hatten, und die Herausgeber aufgrund der – wenig verwunderlichen – Ähnlichkeit der Manuskripte anregten, die beiden Texte zu einem einzigen Text zusammenzufassen, woraufhin die Autoren darangingen, ihre Differenzen mit Bezug auf die Details des Schätzverfahrens auszuräumen, wozu sie vier Jahre brauchten! Was lange währte, wurde endlich gut, und zwar so gut, dass das statistische Verfahren, das Kaplan und Meier schließlich im oben genannten Text im Jahr 1958 vorstellten, heute zu einem nicht wegzudenkenden Instrument im methodischen Baukasten der statistischen Analyse geworden ist. Literatur: Kaplan, Edward L. & Meier, Paul (1958): Nonparametric Estimation from Incomplete Observations. Journal of the American Statistical Association 53(282): 457-481. Ryan, Thomas P. & Woodall, William H. (2005): The Most-Cited Statistical Papers. Journal of Applied Statistics 32(5): 461-474.]]>