| Skinners Ansatz zeichnet - neben den bereits beschriebenen Eigenschaften - besonders aus, daß er experimentell, nicht-quantitativ und individualistisch ist. Skinner forscht im Gegensatz zu Hull, der Gruppen von Versuchstieren untersucht, nämlich an Einzeltieren, anfangs Ratten, später v.a. Tauben, und setzt nicht die von Hull
und seinen Schülern verwendete Methode der Datenmittelung ein, die “glatte Kurven” liefert. Allgemein ist Skinner gegenüber statistischen Verfahren ablehnend eingestellt. Er erklärt, daß gerade die von Hull
weggemittelteten Individualergebnisse Gegenstand der Verhaltensanalyse sein sollten und daß man sich statt der Verfeinerung der quantitativen Methoden zur Entdeckung bedeutsamer Ergebnisse lieber der Verbesserung des Experimentaldesigns widmen sollte, um Störvariablen auszuschalten bzw. zu kontrollieren.Das von Skinner entwickelte Versuchsdesign sieht ein Versuchstier in einer vollautomatischen Experimentalkammer vor, der sogenannten Skinner-Box. In dieser Kammer kann sich das Tier
frei bewegen und auf vom Experimentator gesetzte Reize mittels der Manipulation von Hebeln oder Tasten reagieren (free operant method). Mit dieser Experimentalanordnung entdeckte Skinner stabile Regelmäßigkeiten im Verhalten und war zur Formulierung des Prinzip “three-term contingency” in der Lage: Ein diskriminativer Reiz (SD) signalisiert die Möglichkeit für operantes Verhalten (R), das eine verstärkende Konsequenz (Sr
) nach sich zieht. Diese Kontingenz ist kein deterministischer - wie in den S-R-Theorien -, sondern ein probabilistischer Zusammenhang. Bei Anwesenheit eines diskriminativen Reizes wird nicht in jedem Fall operantes Verhalten ausgelöst, sondern nur mit einer gewissen Wahrscheinlichkeit emittiert (elicited vs. emitted behavior). Außerdem erfolgt bei Auftreten operanten Verhaltens nicht notwendigerweise ein Verstärker, sondern wiederum nur mit einer gewissen Wahrscheinlichkeit.
Je nachdem, welche Zusammenhänge zwischen den drei Bestandteilen der “three-term contingency” bestehen, verändert sich die Auftretenswahrscheinlichkeit und die charakteristische Abfolge des Verhaltens. Diese Zusammenhänge werden Verstärkungskontingenzen genannt, während das Arrangement diskriminativer Reize und Verstärker in Bezug auf das operante Verhalten als Verstärkungsplan
bezeichnet wird. Verstärkungspläne werden in der experimentellen Verhaltensanalyse nicht nur als künstliche Arrangements durch den Experimentator aufgefaßt, sondern als ein Modell, der in der natürlichen Umwelt von Organismen anzutreffenden Regelmäßigkeiten. Unter den vielen Verstärkungskontingenzen sind vier grundlegender Art: |
Auftretenswahrscheinlichkeit des Verhaltens | Dem Verhalten folgender Reiz | steigt | sinkt | wird präsentiert | positive Verstärkung | positive Bestrafung | wird nicht präsentiert | negative Verstärkung | negative Bestrafung |
Als positiver Verstärker wird ein Reiz definiert, der auf eine operante Reaktion (“operant”) folgt und die Auftretenswahrscheinlichkeit einer Reaktion aus der Klasse dieser “operants” erhöht. Dagegen ist ein negativer Verstärker ein Reiz, dessen Entfernung / Vermeidung die Auftretenswahrscheinlichkeit erhöht. Ein Reiz ist ein Strafreiz, wenn er die Auftretenswahrscheinlichkeit von “
operants” senkt, denen er folgt. Die Begriffe “positiv” und “negativ” sind wertfrei gemeint und deuten nur auf die Anwesenheit oder Abwesenheit eines Reizes hin, der in einer Kontingenz zu einem operanten Verhalten steht. Skinner sprach sich z.B. explizit gegen die Anwendung von Bestrafungen in Erziehung und im Umgang mit kriminellem Verhalten aus, weil er der Meinung war, daß
Bestrafungskontingenzen ineffektiv sind und eine Reihe unerwünschter Nebeneffekte mit sich bringen. Obwohl Skinners Ansicht in dieser Allgemeinheit nicht korrekt zu sein scheint, ist an ihr zu erkennen, daß mit den Begriffen “positiv” und “negativ” keine Bewertung verbunden ist (für eine andere Erläuterung dieser Operanten Konditionierung siehe hier
).Hinsichtlich der Verstärkungspläne lassen sich ebenfalls grundlegende Arten unterscheiden, die in Bezug auf positive Verstärker definiert sind: kontinuierlicher Verstärkungsplan (CRF): In diesem Fall folgt auf jede operante Reaktion ein Verstärker. Die Auftretenswahrscheinlichkeit steigt schnell an und das Verhalten wird
regelmäßig emittiert. Ausbleiben von Reaktionen weisen auf Sättigung hin. Bei Ausbleiben der Verstärkung sinkt die Auftretenswahrscheinlichkeit schnell ab (geringe Löschungsresistenz). Die Effekte dieses und anderer Verstärkungspläne können mit Hilfe einer Kumulativaufzeichnung (cumulative record; Abb. 1) sichtbar gemacht werden. Diese Aufzeichnungen zeigen Reaktionen und erhaltene Verstärker über die Zeit. Bei jeder Reaktion steigt die durchgezogene Linie um einen
bestimmten Betrag nach oben und zwar umso steiler, je mehr Reaktionen pro Zeiteinheit (Reaktionsrate) emittiert werden, d.h. je schneller der Organismus reagiert. Reagiert der Organismus nicht, so steigt die Linie nicht. Die Reaktionsrate stellt das zentrale Datum der experimentellen Verhaltensanalyse Skinners dar und repräsentiert die Auftretenswahrscheinlichkeit des Verhaltens und damit die Reaktionsstärke.
Diagonale Striche durch die Linie zeigen an, wann der Organismus einen Verstärker erhalten hat. intermittierende Verstärkungspläne: Bei diesen Plänen wird nicht jede operante Reaktion verstärkt, sondern nur eine definierte Teilmenge von Reaktionen. Man unterscheidet je nach der Regel, nach der verstärkt wird: Quotenpläne:
Die Reaktion wird verstärkt, die nach einer bestimmten Anzahl von Reaktionen erfolgt. Es kann sich dabei um eine feste Anzahl (fester Quotenplan, FR) oder um eine variable Anzahl (variabler Quotenplan, VR) von Reaktionen handeln. Bei festen Quotenplänen (Abb. 2) zeigt die Kumulativaufzeichnung typischerweise ein gestuftes Muster: Bis zum Erhalt einer Verstärkung - in diesem Beispiel sind dafür 30 Reaktionen notwendig - werden in kurzer Zeit viele
Reaktionen emittiert, so daß die Linie steil ansteigt. Nach dem Erhalt des Verstärkers werden jedoch für einen bestimmten Zeitraum keine operanten Reaktionen mehr emittiert (postreinforcement pause). Bei variablen Quotenplänen tritt dagegen keine oder nur eine stark verminderte Pause auf, weil
kontinuierlich viele Reaktionen pro Zeiteinheit emittiert werden. Die Reaktionsrate ist außerdem gewöhnlich größer als bei festen Quotenplänen (Abb. 3; das senkrechte Abfallen der Linie hat eine rein technische Ursache: 100 Reaktionen wurden erreicht und die Aufzeichnung beginnt wieder bei Null). Intervallpläne: Die Verstärkung erfolgt auf eine Reaktion nach dem Ablauf eines Zeitintervalls. Das Zeitintervall kann entweder fest (fester Intervallplan, FI) oder variabel (
variabler Intervallplan, VI) sein. Bei festen Intervallplänen besteht das typische Verhaltensmuster darin, daß nach dem Erhalt der Verstärkung wie bei FR eine Pause auftritt und mit zunehmend größerem zeitlichen Abstand
zur letzten Verstärkung die Reaktionsrate immer mehr zunimmt (scalloping; Abb. 4). Bei variablen Intervallplänen zeigt die Kumulativaufzeichnung dagegen typischerweise einen fast linearen Anstieg, d.h. es werden regelmäßig und kontinuierlich Reaktionen emittiert. Die Reaktionsrate ist im Gegensatz zu derjenigen bei VR allerdings geringer (Abb. 5). Die Effekte der unterschiedlichen Verstärkungspläne auf das Verhalten sind von fundamentaler Bedeutung in der
experimentellen Verhaltensanalyse: “Die Bedeutung der Verstärkungspläne kann nicht überschätzt werden. Keine Beschreibung, kein Ansatz oder keine Erklärung irgendeiner Art operanten Verhaltens irgendeines Organismus ist vollständig, solange der Verstärkungsplan nicht bestimmt wurde. Verstärkungspläne sind die Hauptquellen der Verhaltenskontrolle und deshalb ist das Studium der Verstärkungspläne zentral für das Studium des Verhaltens [...]
Verhalten, das auf Triebe, Bedürfnisse, Erwartungen, Denken oder Einsichten des Organismus zurückgeführt wurde, kann oft exakter auf die Regelmäßigkeiten bezogen werden, die durch Verstärkungspläne erzeugt werden” (Reynolds, 1966, S. 60).
Obwohl die Regelmäßigkeiten im Verhalten unter Verstärkungsplänen v.a. an Tieren entdeckt worden sind, postulieren Verhaltensanalytiker die Gültigkeit ihrer Ergebnisse auch für das menschliche Verhalten. Dies beruht
nicht nur auf der Annahme, universale Zusammenhänge gefunden zu haben, die für alle Organismen gelten, sondern auch auf experimentellen Befunden zu menschlichem Verhalten unter Verstärkungsplänen. Skinner hat die zentralen Befunde der experimentellen Verhaltensanalyse in umfassender Weise auf menschliches Verhalten jenseits des Labors extrapoliert, so auch z.B. auf die Sprache (verbales Verhalten), das Denken und die Persönlichkeit. Literaturempfehlungen: Skinner, B. F. (1935). Two types of conditioned reflex and a pseudo type. Journal of General Psychology, 12, 66-77. Skinner, B. F. (1937). Two types of conditioned reflex: A reply to Konorski and Miller. Journal of General Psychology, 16, 272-279.Skinner, B. F. (1948).
'Superstition' in the pigeon. Journal of Experimental Psychology, 38, 168-172.Skinner, B. F. (1950). Are theories of learning necessary? Psychological Review, 57, 193-216. Skinner, B. F. (1989). The Origins of Cognitive Thought. In Skinner, B. F: (Hrsg.), Recent Issues in the Analysis
of Behavior. Merrill Publishing Company. Software-Tipp: Mit dem Programm “Sniffy, the Virtual Rat” können an einer virtuellen Laborratte Experimente zur Klassischen und Operanten Konditionierung in einer Skinner-Box nachvollzogen werden. Informationen zu diesem Programm und seinem Erwerb sowie eine herunterladbare Demoversion finden sie hier. Bitte beachten Sie in diesem Zusammenhang den Haftungsausschluß. |