Politikwissenschaft: Autoritärer Charakter

Die Autoritäre Persönlichkeit, die Adorno, Levinson, Sanford und Frenkel-Brunswick im Jahre 1950 veröffentlicht haben, ist zu einem klassiker der empirischen Sozialforschung geworden, auf den immer gerne Bezug genommen und aus dem immer gerne zitiert wird, in der Regel mit Bezug auf die F-Skala, die zur Messung von Faschismus entwickelt wurde. Dass die F-Skala sich aus einer Reihe von Teilskalen zusammensetzt, weiß kaum mehr jemand. Dass eine dieser Teilskalen „Konventionalismus“ misst, noch viel weniger.

Anfälligkeit für den Faschismus ist nach einer bekannten Hypothese charakteristisch für den Mittelstand und ‚liegt in der Kultur‘; die am stärksten Angepassten hegen demzufolge die meisten Vorurteile. Um Material für diese Hypothese zu sammeln, wurden Skalensätze aufgenommen, welche sich auf die Bindung an konventionelle Normen bezogen. Die ersten Ergebnisse machten jedoch deutlich, dass dies nicht so einfach war. Die Korrelation zwischen konventionellen Wertvorstellungen und dem Vorurteil schien positiv, aber nicht sehr hoch; während unkonventionelle Personen gewöhnlich unvoreingenommen waren, gab es unter den Konventionellen Voreingenommene und Unvoreingenommene. Den Unterschied in der Gruppe der Konventionellen schien der Ursprung des Konventionalismus oder vielmehr die Charakterstruktur im ganzen auszumachen, in der er eine funktionale Rolle spielte. Wenn die Unterwerfung unter konventionelle Werte Ausdruck eines voll ausgebildeten Gewissens war, musste nicht zwangsläufig eine Verbindung zwischen diesen Wertvorstellungen und antidemokratischem Potential bestehen. Die gleichen Verhaltensnormen, die das Individuum leicht empören, weil es in ihnen die niedrige Moral nichtassimilierter Minderheiten oder der ‚unteren Klassen‘ sieht, würden – wären sie hinreichend internalisiert – seinen Widerspruch gegen Gewalt und Verbrechen hervorrufen, die den Faschismus im fortgeschrittenen Stadium kennzeichnen. Wo andererseits gesellschaftlicher Druck an konventionellen Normen festhalten lässt, wo der Konventionalismus auf dem Beharren des Individuums an den Normen der Kollektivmacht beruht, mit der es sich im Augenblick identifiziert, ist auf antidemokratische Empfänglichkeit zu schließen. Nur im letzteren Fall sprechen wir von Konventionalismus und unterscheiden ihn von der bloßen Anerkennung herkömmlicher Werte. Das konventionalistische Individuum vermag guten Gewissens dem Diktat äußerer Mächte zu folgen, wo immer sie es hinführen, und wäre – wie der Konvertit, der vom offiziellen Kommunismus zum Katholizismus überwechselt – auch fähig, seinen moralischen Kodex gegen einen ganz anderen auszutauschen“ (Sanford et al., Studien zum autoritären Charakter, S.47-48)

Schule als Autoritätsstruktur

Aus alten Arbeiten zur Soziologie, im vorliegenden Fall zur Bildungssoziologie, kann man in der Regel nicht nur erfahren, welche Themen und Herangehensweisen von Wissenschaftlern vergangener Tage verwendet wurden, oftmals sind die Arbeiten aufgrund ihrer theoretischen, methodischen und inhaltlichen Tiefe sehr interessant und ein Vorbild für heutige Arbeiten.

Die Arbeiten, die Howard Becker zu Bildungsthemen erstellt hat, sind solche Arbeiten. Sie breiten nicht nur Methoden qualitativer Sozialforschung als Zugang zu einem Forschungsfeld aus und zeigen deren gekonnte Anwendung, sie zeigen auch, wie man empirisches und theoretisches Arbeiten miteinander so verbindet, dass nicht beides nebeneinander besteht, wie monolithische Blöcke, zwischen denen es keine Verbindung gibt, wie dies heute häufig der Fall ist.

Eine Darstellung der Einbindung schulischer Lehrer, die für Lerner der qualitativen Sozialforschung eine perfekte Anwendung der dokumentarischen Methode zur Auswertung narrativer Interviews darstellt, schließt Becker mit dem folgenden Fazit ab:

„I have presented the teacher as a person who is concerned (among other things) with maintaining what she considers to be her legitimate authority over pupils and parents, with avoiding and defending against challenges from these sources. In her view, the principal and other teachers should help her in building a system of defense against such challenges. Through feelings of colleagueship and the use of various kinds of sanctions, a system of defense and secrecy (oriented toward preventing the intrusion of parents and children into the authority system) is organized.

This picture discloses certain points of general relevance for the study of institutional authority systems. In the first place, an institution like the school can be seen as a small, self-contained system of social control. Its functionaries (principal and teachers) are able to control one another, each has some power to influence the other’s conduct. This creates a stable and predictable work setting in which the limits of behavior for every individual are known, and in which one can build a satisfactory authority position of which he can be sure, knowing that he has certain methods of controlling those – who ignore his authority.

In contrast the activities of those who are outside the professional group are not involved in such a network of mutual understanding and control. Parents do not necessarily share the values by which the teacher legitimates her authority. And while parents can apply sanctions to the teacher, the teacher has no means of control which she can use in return, in direct retaliation.

To the teacher, then, the parents appear as an unpredictable and uncontrollable element, as a force which endangers and may even destroy the existing authority system over which she has some measure of control. For this reason, teachers (and principals who abide by their expectations) carry on an essentially secretive relationship vis-a-vis parents and the community, trying to prevent any event which will give these groups a permanent place of authority in the school situation. The emphasis on never admitting mistakes of school personnel to parents is an attempt to prevent these outsiders (who would not be subject to teacher control) from getting any excuse which might justify their intrusion into and possible destruction of the existing authority system.

This suggests the general proposition that the relations of institutional functionaries to one another are relations of mutual influence and control, and that outsiders are systematically prevented from exerting any authority over the institution’s operations because they are not involved in this web of control and would literally be uncontrollable, and destructive of the institutional organisation, as the functionaries desire it to be preserved, if they were allowed such authority“

(Becker, Howard Becker on Education, pp.56-58).

Kriminologie: Sozio-Biologie

In der Kriminologie gilt es als weitgehender Konsens, dass Kriminalität ein soziales Phänomen darstellt, das in Subkulturen erlernt wird oder durch mangelhafte Erziehung oder durch rationales Kalkül hervorgebracht wird. Gegen diesen Konsens wenden sich in letzter Zeit eine Reihe von Autoren, die auf Ergebnisse der Neurologie verweisen, die zeigen sollen, dass delinquentes Verhalten zumindest auch eine genetische Komponente hat.

Dass Ansätze, die eine biologische Basis von Kriminalität behaupten oder in den Raum stellen, in Verruf geraten sind, hat zum einen mit dem Dritten Reich und der dort praktizierten Euthanasie zu tun, zum anderen mit Cesare Lombroso, der die biologische Basis der Kriminalität im 19. Jahrhundert durch das Vermessen von Schädeln und die Beschreibung von Gesichtszügen schaffen wollte.

So zitiert Lamnek Lombroso mit den folgenden Worten:

„Diebe haben im allgemeinen sehr bewegliche Gesichtszüge und Hände; ihre Augen sind klein, unruhig, oft schielend; die Brauen gefältet und stoßen zusammen; die Nase ist krumm oder stumpf, der Bart spärlich, das Haar seltener dicht, die Stirn fast immer klein und fliehend, das Ohr oft henkelförmig abstehend. Die Mörder haben einen glasigen, eisigen, starren Blick, ihr Auge ist bisweilen blutunterlaufen. Die Nase ist groß, oft eine Adler- oder vielmehr eine Habichtnase; die Kiefer starkknochig, die Ohren lang, die Wangen breit, die Haare gekräuselt, voll und dunkel, der Bart oft spärlich, die Lippen dünn, die Zähne groß. Im allgemeinen sind bei Verbrechern von Geburt die Ohren henkelförmig, das Haupthaar voll, der Bart spärlich, die Stirnhöhlen gewölbt, die Kinnlade enorm, das Kinn viereckig oder hervorragend, die Backenknochen breit – kurz ein mongolischer und bisweilen negerähnlicher Typuse“ (Lamnek, 1993: 68).

Es ist kein Wunder, dass Lombroso nach dieser Beschreibung von manchen zum Rassisten erklärt wurde.

Qualitative Inhaltsanalyse: Strukturierung

Man sammelt Daten, macht Interviews, stellt Dokumente zusammen, und am Ende hat man viel Text. Sehr viel Text. Und was macht man mit dem Text? Wie wertet man ihn aus? Wie rückt man ihm zuleibe?

Generell ist es das Ziel aller qualitativen Verfahren, Information einerseits zu reduzieren und andererseits zu verdichten. Gemeinhin soll der Kern, das Wesentliche, das sich als Datum in Datenmaterial befindet (oder befinden soll) und für die Beantwortung einer Forschungsfrage notwendig ist, herausgearbeitet werden.

Also braucht man zunächst eine Forschungsfrage.

Das macht Sinn und gibt der Forschung eine Richtung. Wer sich für die Mechanismen der Beilegung von Streit in Beziehungen interessiert, der muss keine Befragung in einem Unternehmen durchführen.

Die Forschungsfrage strukturiert das Datenmaterial in gewisser Weise, aber nur oberflächlich. Sie dient im Rahmenwerk von Mayring der Bestimmung der Analyseeinheit. Dieser Bestimmung folgt die eigentliche Strukturierung des Materials, die Mayring in vier Typen unterscheidet:

  • „Eine formale Strukturierung will die innere Struktur des Materials nach bestimmten formalen Strukturierungsgesichtspunkten herausfiltern.
  • Eine inhaltliche Strukturierung will Material zu bestimmten Themen, zu bestimmten Inhaltsbereichen extrahieren und zusammenfassen.
  • Eine typisierende Strukturierung will auf einer Typologisierungsdimension einzelne markante Ausprägungen im Material finden und diese genauer beschreiben.
  • Eine skalierende Strukturierung will zu einzelnen Dimensionen Ausprägungen in Form von Skalenpunkten definieren und das Material daraufhin einschätzen.“

In jedem Fall dient eine Strukturierung dazu, ein Kriterium oder mehrere Kriterien an das Material heranzutragen und Letzteres auf diese Weise zu „strukturieren“. Im Falle der formalen Strukturierung erfolgt dies z.B. mit Hilfe der folgenden Kriterien:

  • „Ein syntaktisches Kriterium: Die Struktur der sprachlichen Formulierungen im Material soll untersucht werden, Besonderheiten im Satzbau, Abweichungen, Brüche o.ä. sollen herausgefunden werden.
  • Ein thematisches Kriterium: Die inhaltliche Struktur, die Abfolge thematischer Blöcke, die inhaltliche Gliederung des Materials soll herausgearbeitet werden.
  • Ein semantisches Kriterium: Die Beziehung von einzelnen Bedeutungseinheiten untereinander soll rekonstruiert werden.
  • Ein dialogisches Kriterium: Die Abfolge einzelner Gesprächsbeiträge und Gesprächsschritte soll analysiert werden.“

(Mayring, Qualitative Inhaltsanalyse, S.85).

Theoriebildung in den Sozialwissenschaften

Die Fragen danach, was eine Theorie darstellt, welche Belege notwendig sind, um die eigene Theorie zu stützen, ob überhaupt Belege notwendig sind, spalten die Sozialwissenschaften in den letzten Jahren immer stärker. Während die einen argumentieren, dass man kaum eine Allgemeingültigkeit für etwas reklamieren könne, was einer empirischen Prüfung und somit einem Nachvollzug durch die wissenschaftliche Gemeinschaft nicht zugänglich sei, verteidigen die anderen ihre Ansicht, dass man durch lange Beschäftigung mit Text und Thema, tiefere Einsichten gewinnen kann, die wiederum nur dem nachvollziehbar sind, der sich ebenso lange und tief mit einem Text / einem Thema auseinandersetzt.

In einem alten Buch zur Methodik der Politikwissenschaft bemühen sich Ulrich von Alemann und Erhard Frondran darum, die Landschaft der Theorienbildung zu fassen. Wir haben den sehr nützlichen Versuch hier zusammengefasst:

Die drei Schulen der sozialwissenschaftlichen Theoriebildung:

  • (I) Normativ-ontologische Theorieansätze
  • (II) Analytische Theorieansätze
  • (III) Dialektische Theorieansätze

Erkenntnisziel:

  • (I) ‚wesentliche Aussagen‘, praktischer Rat
  • (II) Gesetze
  • (III) Historische Gesetze, Gesellschaftskritik

Erkenntnisinteresse:

  • (I) praktisch-philosophisch
  • (II) empirisch
  • (III) emanzipatorisch

Erkenntnisgegenstand

  • (I) Sinn und Wesen von Staat und Gesellschaft
  • (II) Soziale Handlungen
  • (III) Gesellschaftliche Totalität

Logischer Status

  • (I) argumentativ / phänomenologische Begründung
  • (II) Aussagenlogik
  • (III) jede Art logischer Begründung

Normativer Status

  • (I) Einschluss von ontologisch begründeten Werten
  • (II) Ausschluss von Werten
  • (III) Einschluss von historisch begründeten Werten

Tätigkeit des Wissenschaftlers

  • (I) Wissenschaftliches Nach- und Vordenken
  • (II) Beschreiben, erklären, prognostizieren
  • (III) Kritisch konfrontieren und politisch wirken

Analysearten

  • (I) Historisch-genetische, institutionelle und ideengeschichtliche Analyse
  • (II) Strukturell-funktionale und empirische Analyse
  • (III) Historisch-genetische und empirische Analyse

Verarbeitungsmuster

  • (I) Hermeneutik, Phänomenologie, Topik
  • (II) Logischer Empirismus
  • (III) Hermeneutik, Dialektik

Verfahrenstechniken

  • Historisch-philosophische Argumentation, Quellen- und Textkritik
  • Methoden der empirischen Sozialforschung
  • Historisch-ökonomische und ideologiekritische Analyse

Alemann, Ulrich von & Forndran, Erhard (1985). Methodik der Politikwissenschaft. Eine Einführung in Arbeitstechnik und Forschungspraxis. Stuttgart: Kohlhammer.

Statistik: Pareto Diagramme

Interessanter Weise findet man die kürzesten und einfachsten Erklärungen, wenngleich nicht immer eine vollständige Erklärung statistischer Konzepte in Büchern zum Lean Sex Sigma, z.B. dem von George et al. (2005) verfassten Pocket Toolbook. Darin findet sich eine sehr schlanke Erklärung für Pareto-Diagramme, bei denen die Anzahl für bestimmte Ausprägungen bereits in eine Reihenfolge nach Größe gebracht worden sind.

Ob es einen Pareto-Effekt gibt, kann den Diagrammen durch einfachen Blick entnommen werden. Gibt es eine Ab-/Zunahme von links nach rechts, dann gibt es auch einen Pareto-Effekt, wenn nicht, dann nicht. Was es mit einem Pareto-Diagramm auf sich hat, kann man der Beschreibung seiner Erstellung leicht entnehmen.

  1. Collect data on different types or categories of problems.
  2. Tabulate the scores. Determine the total number of problems observed and/or the total impact. Also determine the counts or impact for each category.
    • If there are a lot of small or infrequent problems, consider adding them together into an ‚other‘ category.
  3. Sort the problem by frequency or by level of impact.
  4. Draw a vertical axis and divide into increments equal to the total number you observed.
    • In the sample here, the total number of problems was 43, so the vertical axis on the left goes to 42.
    • People often mistakenly make the vertical axis only as tall as the tallest bar, which can overemphasize the importance of the tall bars and lead to false conclusions.
  5. Draw bars for each category, starting with the largest and working down.
    • The ‚other‘ category always goes last even if it is not the shortest bar.
  6. OPTIONAL: Add in the cumulative percentage line. (Convert the raw counts to percentages of the total, then draw a vertical axis on the right that represents percentage. Plot a point above the first bar at the percentage represented by that bar, then another above the second bar representing the combined percentage, and so on. Connect the points.) (George, Michael L., Rowlands, David, Price, Mark & Maxey, John (2005). Lean Six Sigma Pocket Toolbook, p.143).

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

 

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

Ökonomie: Meritokratie

Fairness, Gerechtigkeit, Meritokratie, die drei Konzepte sind miteinander verwandt oder doch zumindest mit einander verbunden. Fairness bezieht sich auf die Art der Behandlung von Akteuren, Gerechtigkeit darauf, dass die Relation der Behandlung die unterschiedliche Leistung in Rechnung stellt und Meritokratie scheint eine Klammer über beide zu bilden. Amartya Sen hat dies im Jahre 2000 wie folgt argumentiert:

„In fact, meritocracy is just an extension of a general system of rewarding merit, and elements of such systems have clearly been present in one form or another throughout human history. There are, it can be argued, at least two different ways of seeing merit and systems of rewarding it.

  1. Incentives: Actions must be rewarded for the good they do, and a system of remunerating the activities that generate good consequences would, it is presumed, tend to produce a better society. The rationale of incentive structures may be more complex than this simple statement suggests, but the idea of merits in this instrumental perspective relates to the motivation of producing better results. In this view, actions are meritorious in a derivative and contingent way. depending on the good they do, and more particularly the good than can be be brought about by rewarding them.
  2. Action propriety: Actions may be judged by their propriety – not by their results – and they may be rewarded according to the quality of such actions, judged in a result-independent way. Much use has been made of this approach to merit and parts of deontological ethics separate outright conduct – for praise and emulation – independent of the goodness of the consequences generated.

[…] I shall concentrate in the chapter on the view of merit in terms of results and incentives. It is, in fact, virtually the only grounded and defended theory that can be found in the contemporary economic literature (…). Indeed, the practice of rewarding good (or right) deeds for their incentive effects cannot but be an integral part of any well-functioning society. No matter what we think of the demands of ‚meritocracy‘ as it is usually defined, we can scarcely dispense with incentive systems altogether. The art of developing an incentive system lies in delineating the content of merit in such a way that it helps to generate valued consequences“ (Sen, Merit and Justice, pp.8-9)

Statistik: Die Kaplan-Meier Erfolgsstory

Der am häufigsten zitierte Fachzeitschriftenaufsatz aus dem Bereich der Statistik: Kaplans und Meiers „Nonparametric Estimation from Incomplete Observations” Nach einer Analyse von Thomas P. Ryan und William H. Woodall (2005) war der Aufsatz mit dem Titel „Nonparametric Estimation from Incomplete Observations“, das von Edward L. Kaplan und Paul Meier im Jahr 1958 im Journal of the American Statistical Association veröffentlicht wurde, zum damaligen Zeitpunkt, also 2005, mit 25.869 Zitierungen seit dem Erscheinungsjahr der am häufigsten zitierte statistische Fachzeitschriftenaufsatz. Darüber hinaus war er unter den fünf am häufigsten zitierten wissenschaftlichen Fachartikeln. Seitdem hat es u.W. zwar keine neuere Analyse der am häufigsten zitierten statistischen Aufsätze gegeben, aber es erscheint plausibel zu vermuten, dass Kaplans und Meiers Aufsatz nach wie vor der am häufigsten zitierte statistische Aufsatz ist, schlagen die Autoren doch ein statistisches Schätzverfahren vor, mit Hilfe dessen der Anteil von Merkmalen oder Ereignissen bzw. deren Eintrittswahrscheinlichkeiten in einer Population geschätzt werden kann, wenn zensierte Daten vorliegen, d.h. wenn das interessierende Merkmal oder das interessierende Ereignis auch noch nach dem Ende des Beobachtungszeitraums, für den Daten vorliegen, eintreten kann. Dies ist häufig der Fall, wenn es um medizinische Fragestellungen geht, aber auch für viele sozialwissenschaftliche Fragestellungen ist das Verfahren von Kaplan und Meier relevant. Beispielsweise dann, wenn man auf der Basis von Daten, die man, für Einbrecher und ihre Einbrüche in einem bestimmten Beobachtungszeitraum, z.B. zwischen 1998 und 2010, vorliegen hat, eine Schätzung darüber vornehmen will, wie hoch die Rückfallquote unter (diesen) Einbrechern ist. Weil die Einbrecher, für die Daten vorliegen, ja auch nach 2010 noch Einbrüche begangen haben können oder begehen können, ist ein statistisches Schätzverfahren notwendig, das diesem Umstand Rechnung trägt. Der sogenannten Kaplan-Meier- Schätzer tut dies. Ein weiterer Vorteil des Verfahrens nach Kaplan und Meier ist, dass keine Annahmen über die Form Verteilung der Überlebensfunktion gemacht werden muss, in unserem Beispiel also darüber, ob die Anteile der Einbrecher, die rückfällig werden, im Zeitverlauf einer Linie oder (irgendeiner Art von) Kurve folgen. Es ist also nicht überraschend, dass der Kaplan-Meier-Schätzer häufig verwendet wird und dementsprechend häufig zitiert wird. Vielleicht hat zur Qualität des Aufsatzes auch der Umstand beigetragen, dass Kaplan und Meier zunächst getrennte Manuskripte über das von ihnen entwickelte Schätzverfahren eingereicht hatten, und die Herausgeber aufgrund der – wenig verwunderlichen – Ähnlichkeit der Manuskripte anregten, die beiden Texte zu einem einzigen Text zusammenzufassen, woraufhin die Autoren darangingen, ihre Differenzen mit Bezug auf die Details des Schätzverfahrens auszuräumen, wozu sie vier Jahre brauchten! Was lange währte, wurde endlich gut, und zwar so gut, dass das statistische Verfahren, das Kaplan und Meier schließlich im oben genannten Text im Jahr 1958 vorstellten, heute zu einem nicht wegzudenkenden Instrument im methodischen Baukasten der statistischen Analyse geworden ist. Literatur: Kaplan, Edward L. & Meier, Paul (1958): Nonparametric Estimation from Incomplete Observations. Journal of the American Statistical Association 53(282): 457-481. Ryan, Thomas P. & Woodall, William H. (2005): The Most-Cited Statistical Papers. Journal of Applied Statistics 32(5): 461-474.]]>