Kriminologie: Sozio-Biologie

In der Kriminologie gilt es als weitgehender Konsens, dass Kriminalität ein soziales Phänomen darstellt, das in Subkulturen erlernt wird oder durch mangelhafte Erziehung oder durch rationales Kalkül hervorgebracht wird. Gegen diesen Konsens wenden sich in letzter Zeit eine Reihe von Autoren, die auf Ergebnisse der Neurologie verweisen, die zeigen sollen, dass delinquentes Verhalten zumindest auch eine genetische Komponente hat.

Dass Ansätze, die eine biologische Basis von Kriminalität behaupten oder in den Raum stellen, in Verruf geraten sind, hat zum einen mit dem Dritten Reich und der dort praktizierten Euthanasie zu tun, zum anderen mit Cesare Lombroso, der die biologische Basis der Kriminalität im 19. Jahrhundert durch das Vermessen von Schädeln und die Beschreibung von Gesichtszügen schaffen wollte.

So zitiert Lamnek Lombroso mit den folgenden Worten:

„Diebe haben im allgemeinen sehr bewegliche Gesichtszüge und Hände; ihre Augen sind klein, unruhig, oft schielend; die Brauen gefältet und stoßen zusammen; die Nase ist krumm oder stumpf, der Bart spärlich, das Haar seltener dicht, die Stirn fast immer klein und fliehend, das Ohr oft henkelförmig abstehend. Die Mörder haben einen glasigen, eisigen, starren Blick, ihr Auge ist bisweilen blutunterlaufen. Die Nase ist groß, oft eine Adler- oder vielmehr eine Habichtnase; die Kiefer starkknochig, die Ohren lang, die Wangen breit, die Haare gekräuselt, voll und dunkel, der Bart oft spärlich, die Lippen dünn, die Zähne groß. Im allgemeinen sind bei Verbrechern von Geburt die Ohren henkelförmig, das Haupthaar voll, der Bart spärlich, die Stirnhöhlen gewölbt, die Kinnlade enorm, das Kinn viereckig oder hervorragend, die Backenknochen breit – kurz ein mongolischer und bisweilen negerähnlicher Typuse“ (Lamnek, 1993: 68).

Es ist kein Wunder, dass Lombroso nach dieser Beschreibung von manchen zum Rassisten erklärt wurde.

Qualitative Inhaltsanalyse: Strukturierung

Man sammelt Daten, macht Interviews, stellt Dokumente zusammen, und am Ende hat man viel Text. Sehr viel Text. Und was macht man mit dem Text? Wie wertet man ihn aus? Wie rückt man ihm zuleibe?

Generell ist es das Ziel aller qualitativen Verfahren, Information einerseits zu reduzieren und andererseits zu verdichten. Gemeinhin soll der Kern, das Wesentliche, das sich als Datum in Datenmaterial befindet (oder befinden soll) und für die Beantwortung einer Forschungsfrage notwendig ist, herausgearbeitet werden.

Also braucht man zunächst eine Forschungsfrage.

Das macht Sinn und gibt der Forschung eine Richtung. Wer sich für die Mechanismen der Beilegung von Streit in Beziehungen interessiert, der muss keine Befragung in einem Unternehmen durchführen.

Die Forschungsfrage strukturiert das Datenmaterial in gewisser Weise, aber nur oberflächlich. Sie dient im Rahmenwerk von Mayring der Bestimmung der Analyseeinheit. Dieser Bestimmung folgt die eigentliche Strukturierung des Materials, die Mayring in vier Typen unterscheidet:

  • „Eine formale Strukturierung will die innere Struktur des Materials nach bestimmten formalen Strukturierungsgesichtspunkten herausfiltern.
  • Eine inhaltliche Strukturierung will Material zu bestimmten Themen, zu bestimmten Inhaltsbereichen extrahieren und zusammenfassen.
  • Eine typisierende Strukturierung will auf einer Typologisierungsdimension einzelne markante Ausprägungen im Material finden und diese genauer beschreiben.
  • Eine skalierende Strukturierung will zu einzelnen Dimensionen Ausprägungen in Form von Skalenpunkten definieren und das Material daraufhin einschätzen.“

In jedem Fall dient eine Strukturierung dazu, ein Kriterium oder mehrere Kriterien an das Material heranzutragen und Letzteres auf diese Weise zu „strukturieren“. Im Falle der formalen Strukturierung erfolgt dies z.B. mit Hilfe der folgenden Kriterien:

  • „Ein syntaktisches Kriterium: Die Struktur der sprachlichen Formulierungen im Material soll untersucht werden, Besonderheiten im Satzbau, Abweichungen, Brüche o.ä. sollen herausgefunden werden.
  • Ein thematisches Kriterium: Die inhaltliche Struktur, die Abfolge thematischer Blöcke, die inhaltliche Gliederung des Materials soll herausgearbeitet werden.
  • Ein semantisches Kriterium: Die Beziehung von einzelnen Bedeutungseinheiten untereinander soll rekonstruiert werden.
  • Ein dialogisches Kriterium: Die Abfolge einzelner Gesprächsbeiträge und Gesprächsschritte soll analysiert werden.“

(Mayring, Qualitative Inhaltsanalyse, S.85).

Theoriebildung in den Sozialwissenschaften

Die Fragen danach, was eine Theorie darstellt, welche Belege notwendig sind, um die eigene Theorie zu stützen, ob überhaupt Belege notwendig sind, spalten die Sozialwissenschaften in den letzten Jahren immer stärker. Während die einen argumentieren, dass man kaum eine Allgemeingültigkeit für etwas reklamieren könne, was einer empirischen Prüfung und somit einem Nachvollzug durch die wissenschaftliche Gemeinschaft nicht zugänglich sei, verteidigen die anderen ihre Ansicht, dass man durch lange Beschäftigung mit Text und Thema, tiefere Einsichten gewinnen kann, die wiederum nur dem nachvollziehbar sind, der sich ebenso lange und tief mit einem Text / einem Thema auseinandersetzt.

In einem alten Buch zur Methodik der Politikwissenschaft bemühen sich Ulrich von Alemann und Erhard Frondran darum, die Landschaft der Theorienbildung zu fassen. Wir haben den sehr nützlichen Versuch hier zusammengefasst:

Die drei Schulen der sozialwissenschaftlichen Theoriebildung:

  • (I) Normativ-ontologische Theorieansätze
  • (II) Analytische Theorieansätze
  • (III) Dialektische Theorieansätze

Erkenntnisziel:

  • (I) ‚wesentliche Aussagen‘, praktischer Rat
  • (II) Gesetze
  • (III) Historische Gesetze, Gesellschaftskritik

Erkenntnisinteresse:

  • (I) praktisch-philosophisch
  • (II) empirisch
  • (III) emanzipatorisch

Erkenntnisgegenstand

  • (I) Sinn und Wesen von Staat und Gesellschaft
  • (II) Soziale Handlungen
  • (III) Gesellschaftliche Totalität

Logischer Status

  • (I) argumentativ / phänomenologische Begründung
  • (II) Aussagenlogik
  • (III) jede Art logischer Begründung

Normativer Status

  • (I) Einschluss von ontologisch begründeten Werten
  • (II) Ausschluss von Werten
  • (III) Einschluss von historisch begründeten Werten

Tätigkeit des Wissenschaftlers

  • (I) Wissenschaftliches Nach- und Vordenken
  • (II) Beschreiben, erklären, prognostizieren
  • (III) Kritisch konfrontieren und politisch wirken

Analysearten

  • (I) Historisch-genetische, institutionelle und ideengeschichtliche Analyse
  • (II) Strukturell-funktionale und empirische Analyse
  • (III) Historisch-genetische und empirische Analyse

Verarbeitungsmuster

  • (I) Hermeneutik, Phänomenologie, Topik
  • (II) Logischer Empirismus
  • (III) Hermeneutik, Dialektik

Verfahrenstechniken

  • Historisch-philosophische Argumentation, Quellen- und Textkritik
  • Methoden der empirischen Sozialforschung
  • Historisch-ökonomische und ideologiekritische Analyse

Alemann, Ulrich von & Forndran, Erhard (1985). Methodik der Politikwissenschaft. Eine Einführung in Arbeitstechnik und Forschungspraxis. Stuttgart: Kohlhammer.

Qualitative Inhaltsanalyse

Der Begriff der qualitativen Inhaltsanalyse wird von vielen gebraucht um im Allgemeinen eine Methode der Datenanalyse zu bezeichnen, von der die meisten phixDaumen zu wissen meinen, was ihr Gegenstand ist und welche Ziele mit ihr verfolgt werden. Doch bereits die Nachfrage, was man unter einer „Inhaltsanalyse“ zu verstehen hat, bringt die meisten ins Schleudern oder doch zumindest eine Vielzahl vollkommen unterschiedlicher Beschreibungen dessen, was man für eine Inhaltsanalyse hält.

Philipp Mayring hat sich die Mühe gemacht, aus der Vielzahl der Definitionen, die es zu „Inhaltsanalyse“ gibt, die Gemeinsamkeiten herauszuarbeiten. Herausgekomme sind dabei sechs Punkte, die die Inhaltsanalyse nach Ansicht von Mayring bestimmen bzw. Letztere umfassen muss:

  1. „Inhaltsanalyse hat Kommunikation zum Gegenstand, also die Übertragung von Symbolen (…). In aller Regel handelt es sich zwar um Sprache, aber auch Musik, Bilder u.ä. können zum Gegenstand gemacht werden. […]
  2. Die Inhaltsanalyse arbeitet mit Texten, Bildern, Noten, mit symbolischem Material also. Das heißt, die Kommunikation liegt in irgendeiner art protokolliert, festgehalten vor. Gegenstand der Analyse ist somit fixierte Kommunikation.
  3. Besonder heftig wehren sich Inhaltsanalytiker immer wieder gehen freie Interpretation, gegen impressionistische Ausdeutung des zu analysierenden Materials. Inhaltsanalyse will systematisch vorgehen. Damit grenzt sie sich gegen einen Großteil hermeneutischer Verfahren ab.
  4. Das systematische Vorgehen zeigt sich vor allem darin, dass die Analyse nach expliziten Regeln abläuft (zumindest ablaufen soll). Diese Regelgeleitetheit ermöglicht es, dass auch andere die Analyse verstehen, nachvollziehen und überprüfen können. Es dadurch kann Inhaltsanalyse sozialwissenschaftlichen Methodenstandards (intersubjektive Nachprüfbarkeit) genügen.
  5. Das systematische Vorgehen zeigt sich aber auch darin, dass eine gute Inhaltsanalyse theoriegeleitet vorgeht. Sie will nicht einfach einen Text referieren, sondern analysiert ihr Material unter einer theoretisch ausgewiesenen Fragestellung; die Ergebnisse werden vom jeweiligen Theoriehintergrund her interpretiert und auch die einzelnen Analyseschritte sind von theoretischen Überlegungen geleitet. Theoriegeleitetheit bedeutet dabei nicht Abheben von konkretem Material in Sphären der Unverständlichkeit, sondern heißt Anknüpfen an die Erfahrungen anderer mit dem zu untersuchenden Gegenstand.
  6. Im letzten Punkt wurde bereits angedeutet, dass Inhaltsanalyse ihr Material nicht ausschließlich für sich analysieren will (wie z.B. die Textanalyse), sondern als Teil des Kommunikationsprozesses. Sie ist eine schlußfolgernde Methode, darauf haben vor allem amerikanische Kommunikationswissenschaftler hingewiesen (…). Sie will durch Aussagen über das zu analysierende Material Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen. Aussagen über den „Sender“ (z.B. dessen Absichten), über Wirkungen beim ‚Empfänger“ o.ä. ableiten“ (Mayring 2006: 12)

 

Statistik: Die Kaplan-Meier Erfolgsstory

Der am häufigsten zitierte Fachzeitschriftenaufsatz aus dem Bereich der Statistik: Kaplans und Meiers „Nonparametric Estimation from Incomplete Observations” Nach einer Analyse von Thomas P. Ryan und William H. Woodall (2005) war der Aufsatz mit dem Titel „Nonparametric Estimation from Incomplete Observations“, das von Edward L. Kaplan und Paul Meier im Jahr 1958 im Journal of the American Statistical Association veröffentlicht wurde, zum damaligen Zeitpunkt, also 2005, mit 25.869 Zitierungen seit dem Erscheinungsjahr der am häufigsten zitierte statistische Fachzeitschriftenaufsatz. Darüber hinaus war er unter den fünf am häufigsten zitierten wissenschaftlichen Fachartikeln. Seitdem hat es u.W. zwar keine neuere Analyse der am häufigsten zitierten statistischen Aufsätze gegeben, aber es erscheint plausibel zu vermuten, dass Kaplans und Meiers Aufsatz nach wie vor der am häufigsten zitierte statistische Aufsatz ist, schlagen die Autoren doch ein statistisches Schätzverfahren vor, mit Hilfe dessen der Anteil von Merkmalen oder Ereignissen bzw. deren Eintrittswahrscheinlichkeiten in einer Population geschätzt werden kann, wenn zensierte Daten vorliegen, d.h. wenn das interessierende Merkmal oder das interessierende Ereignis auch noch nach dem Ende des Beobachtungszeitraums, für den Daten vorliegen, eintreten kann. Dies ist häufig der Fall, wenn es um medizinische Fragestellungen geht, aber auch für viele sozialwissenschaftliche Fragestellungen ist das Verfahren von Kaplan und Meier relevant. Beispielsweise dann, wenn man auf der Basis von Daten, die man, für Einbrecher und ihre Einbrüche in einem bestimmten Beobachtungszeitraum, z.B. zwischen 1998 und 2010, vorliegen hat, eine Schätzung darüber vornehmen will, wie hoch die Rückfallquote unter (diesen) Einbrechern ist. Weil die Einbrecher, für die Daten vorliegen, ja auch nach 2010 noch Einbrüche begangen haben können oder begehen können, ist ein statistisches Schätzverfahren notwendig, das diesem Umstand Rechnung trägt. Der sogenannten Kaplan-Meier- Schätzer tut dies. Ein weiterer Vorteil des Verfahrens nach Kaplan und Meier ist, dass keine Annahmen über die Form Verteilung der Überlebensfunktion gemacht werden muss, in unserem Beispiel also darüber, ob die Anteile der Einbrecher, die rückfällig werden, im Zeitverlauf einer Linie oder (irgendeiner Art von) Kurve folgen. Es ist also nicht überraschend, dass der Kaplan-Meier-Schätzer häufig verwendet wird und dementsprechend häufig zitiert wird. Vielleicht hat zur Qualität des Aufsatzes auch der Umstand beigetragen, dass Kaplan und Meier zunächst getrennte Manuskripte über das von ihnen entwickelte Schätzverfahren eingereicht hatten, und die Herausgeber aufgrund der – wenig verwunderlichen – Ähnlichkeit der Manuskripte anregten, die beiden Texte zu einem einzigen Text zusammenzufassen, woraufhin die Autoren darangingen, ihre Differenzen mit Bezug auf die Details des Schätzverfahrens auszuräumen, wozu sie vier Jahre brauchten! Was lange währte, wurde endlich gut, und zwar so gut, dass das statistische Verfahren, das Kaplan und Meier schließlich im oben genannten Text im Jahr 1958 vorstellten, heute zu einem nicht wegzudenkenden Instrument im methodischen Baukasten der statistischen Analyse geworden ist. Literatur: Kaplan, Edward L. & Meier, Paul (1958): Nonparametric Estimation from Incomplete Observations. Journal of the American Statistical Association 53(282): 457-481. Ryan, Thomas P. & Woodall, William H. (2005): The Most-Cited Statistical Papers. Journal of Applied Statistics 32(5): 461-474.]]>

Zeitgeschichte: Gesetzgebung 1917

„Von entscheidender Bedeutung für die staatliche Machtfülle – die Souveränität – ist überall die Gesetzgebung und ihre Form. Für das Deutsche Reich besteht diese Form darin, dass der übereinstimmende Wille zweier voneinander unabhängiger Körperschaften – des Bundesrats und des Reichstags – erforderlich und ausreichend ist, um ein Gesetz zu schaffen, und dass es durch seine Verkündung rechtskräftig wird; die Verkündung geschieht durch den Deutschen Kaiser, der diesen monarchischen Namen trägt als König von Preußen, weil mit der Krone Preußens das erbliche Präsidium des Bundesstaates „Deutsches Reich“ verbunden ist. Gesetzgebender Faktor ist der Kaiser im Reiche nicht, denn seine Zustimmung wird nicht erfordert. Nur mittelbar besitzt er Macht über die Reichsgesetzgebung, indem ihm 1. als Kaiser die Berufung und Schließung des Bundesrats und des Reichstags zusteht und für die Auflösung des Reichstags seine Zustimmung erforderlich ist; indem er 2. als König von Preußen das Haupt der preußischen Regierung ist, di egleich jeder anderen Einzelstaatsregierung ihre Vertreter, und zwar von sämtlichen 61 Vertretern 17, in den Bundesrat entsendet und deren Abstimmung anweist [instruiert], wobei ferner die preußischen Stimmen in einige (militärischen und finanziellen) Angelegenheiten entscheidend wirken, wenn sie für Erhaltung der bestehenden Einrichtungen sich geltend machen. In England – wir nennen im folgenden immer, wie üblich, das Vereinigte Königreich mit diesem Namen, es sei denn, dass von England im Unterschiede von den anderen Teilen die Rede sei – ist der zu Recht bestehenden Form nach noch immer der König Träger der Souveränität, selber der Sovereign, aber nur indem er zusammensteht und zusammenwirkt mit beiden Häusern des Parlaments – the King in Parliament -, also mit dem Hause der Lords und dem Hause der Gemeinen, kann er gesetzgebend auftreten. Noch heute, wie ehedem, wird ein Gesetzentwurf – eine Bill – in der Regel dadurch Gesetz – eine Akte -, dass er, vom Unterhause durch drei Lesungen beschlossen, vom Oberhaus ebenso angenommen, die köngliche Einwilligung erhällt (the royal assent): dann wird das Gesetz ins Gesetzbucg  – the Statute Book – eingetragen. Indessen ist es eine allgemein bekannte Tatsache, dass der König seine Zustimmung zu verweigern niemals in der Lage ist, daß ihm nur noch zum Schein diese Freiheit beiwognt, denn erkann nicht politisch handeln ohne den ‚Rat‘ seiner Minister, deren Wahl wiederum nur scheinbar in seiner Hand liegt; und der Rat ist für ihn so gut als Befehl. Im Hause der Gemeinen ist der Sitz der Macht. Nur das ‚andere Haus‘ kommt neben ihm in Frage. Es kann den Willen des Hauses der Gemeinen hemmen, dessen Ausführung verzögern, aber auch das nur, wenn es sich um Gesetzentwürfe handelt, mit denen keine Geldbewilligung verbunden ist; wenn dies der Fall – ist es eine money bill – so ist das Oberhaus rechtlich nicht mehr imstande, dem Beschluss des Unterhauses entgegenzuwirken. Die Bill bedarf nur der königlichen Einwilligung – die als selbstverständlich erfolgend gilt -, um Gesetz zu werden. Andere Gesetzentwürfe sind ebenso der Zustimmung des Oberhauses überhoben, wenn diese in drei aufeinanderfolgenden Sessionen (ob desselben Parlaments oder nicht) verweigert worden ist, nachdem das Unterhaus sie ebensooft beschlossen hatte: vorausgesetzt, dass zwei Jahre verflossen sind zwischen der zweiten lesung in der ersten und der dritten Lesung in der dritten Session, und dass der Entwurf wenigstens einen Monat vor dem Schlusse der Session dem Oberhaus vorgelegt worden war“. (Tönnies 1917: 3-4) Die Veränderungen, die der Gang der Gesetzgebung in Deutschland erfahren hat, sind, wie die Darstellung zeigt, umfangreicher als die, die im Vereinigten Königreich gegeben sind.