| Übersicht Was ist Intelligenz? Intelligenztheorien Intelligenztests Der Intelligenzquotient Zur Erblichkeit von Intelligenz Was ist Intelligenz? Intelligenz ist eines von vielen Merkmalen, in denen sich Menschen voneinander unterscheiden, und deshalb ein Untersuchungsgegenstand der Differentiellen Psychologie. Im Unterschied zu Merkmalen wie z.B. Körpergröße
und Haarfarbe ist Intelligenz jedoch nicht direkt beobachtbar, sondern stellt eine verborgene (latente) Größe dar, die anhand von beobachtbaren Merkmalen (Indikatoren) erschlossen werden muß. Zu diesem Zweck wurden von Beginn der systematischen Intelligenzforschung Anfang des 20. Jahrhunderts an Tests
entwickelt, mit denen Intelligenz erfaßt werden soll. Der erste Intelligenztest wurde von den französischen Forschern Alfred Binet und Theodore Simon im Auftrag des französischen Unterrichtsministeriums entwickelt, um diejenigen Kinder herausfinden zu können, die einer besonderen schulischen Förderung bedürfen. Binet und Simon (1905) verstanden unter Intelligenz “gut urteilen, gut verstehen und gut denken”. Im Laufe der Jahre kamen weitere Versuche dazu, mit Worten zu umschreiben, was
mit Intelligenz gemeint ist:“Ein Individuum ist insoweit intelligent, als es abstrakt zu denken vermag” (Terman, 1921). “Intelligenz ist die zusammengesetzte oder globale Fähigkeit des Individuums, zweckvoll zu handeln, vernünftig zu denken und sich mit seiner Umgebung wirkungsvoll auseinanderzusetzen” (Wechsler, 1944). Intelligenz ist “ein Zustand der Balance oder des Gleichgewichts, der durch eine Person erreicht wird, wenn sie dazu fähig ist, angemessen mit den ihr
vorliegenden Daten umzugehen. Aber sie [d.h. Intelligenz] ist kein statischer Zustand, sondern in dem Sinne dynamisch, daß sie sich selbst kontinuierlich an neue Umweltreize anpaßt” (Piaget, 1950). Intelligenz ist “die personale Fähigkeit, sich unter zweckmäßiger Verfügung über Denkmittel auf neue Forderungen einzustellen” (Stern, 1950). Intelligenz ist eine “angeborene, allgemeine, kognitive Fähigkeit” (Burt, 1955). Intelligenz ist die
“den innerhalb einer bestimmten Kultur Erfolgreichen gemeinsame Fähigkeit” (Hofstätter, 1957). “Intelligenz ist die Fähigkeit zur Erfassung und Herstellung von Bedeutungen, Beziehungen und Sinnzusammenhängen” (Wenzl, 1957). “Intelligenz ist die Fähigkeit des Individuums, anschaulich oder abstrakt in sprachlichen, numerischen oder raum-zeitlichen Beziehungen zu denken; sie ermöglicht erfolgreiche Bewältigung vieler komplexer und mit Hilfe jeweils besonderer Fähigkeitsgruppen
auch ganz spezifischer Situationen und Aufgaben” (Groffmann, 1964). Intelligenz besteht aus “den effektiven kognitiven Fähigkeiten zu verstehen, Zusammenhänge zu erkennen und Ursachen zu entdecken” (Vernon, 1969). “Intelligente Aktivität besteht daraus, das Wesentliche einer Situation zu erkennen und auf sie angemessen zu reagieren” (Heim, 1970). Obwohl diese Definitionsversuche durchaus Gemeinsamkeiten (Bezug zum Fähigkeitsbegriff, zum Denken, zu Kognition) aufweisen,
zeigen sie auch, daß unter Intelligenz ein für alle Bereiche menschlichen Verhaltens so grundlegendes Merkmal verstanden wird, so daß das der Versuch einer Definition scheitern muß: “Intelligenz ist ein Wort mit so vielen Bedeutungen, daß es zuletzt überhaupt keine mehr gibt” (Spearman, 1927). Diese Auffassung setzte sich schließlich in der Intelligenzforschung durch, so daß Conrad (1983) festhalten konnte: “Intelligenz ist kein unmittelbar beobachtbares, real definierbares
Merkmal, sondern eine erschlossene Verhaltensdisposition, ein Konstrukt. Versuche, dieses Konstrukt durch Nominaldefinition [...] einzugrenzen, können keine allgemeinverbindliche Ausgangsbasis für die wissenschaftliche Untersuchung der ‘Intelligenz’ gewährleisten. Vielfach mit normativen Aussagen durchsetzt, erweisen sie sich als untaugliche Ansatzpunkte für eine Theorienbildung und mithin auch für eine empirische Überprüfung spezieller Hypothesen über die ‘Intelligenz’”
(Conrad, 1983, S. 107). Statt sich weiter zu bemühen, eine Definition von Intelligenz zu entwickeln, wurde Intelligenz als dasjenige Merkmal definiert, das durch Intelligenztests erfaßt wird: “Intelligenz ist das, was Intelligenztests messen”
(Boring, 1923). Aus dieser operationalen Definition darf allerdings nicht der Schluß gezogen werden, daß es irgendwelche Tests sind, die Intelligenz messen. Schließlich muß es sich bei denjenigen Tests, die Intelligenz messen, um Intelligenztests handeln. Diese scheinbare Zirkeldefinition löst sich auf, wenn man beachtet, daß Ergebnisse von Intelligenztests von Anfang an Beziehungen zu Schulleistungen aufwiesen (die Korrelationen zu Schulleistungen betragen bis zu ca. 0,5 und sind damit die höchsten die in der
Differentiellen Psychologie beobachtet werden) und die Validität (Gültigkeit, siehe Klassische Testtheorie
) von neu entwickelten Intelligenztests auch immer daran gemessen wurde, wie stark deren Ergebnisse mit Schulleistungen und den Daten herkömmlicher Intelligenztests übereinstimmen. Durch den Validierungsprozeß behält das Intelligenzkonzept daher trotz aller Unterschiede in verschiedenen Intelligenztheorien einen gemeinsamen Kern. zur ÜbersichtIntelligenztheorien Zur Intelligenz
und ihrer Teilaspekte existieren eine Reihe von Theorien. Viele dieser Theorien wurden allerdings induktiv entwickelt: Im ersten Schritt wurden Tests entwickelt, die Intelligenz messen sollten, und anschließend - vielfach mit Hilfe des statistischen Verfahrens der Faktorenanalyse - ein Modell aus den vorhandenen Daten konstruiert, die mit den Tests gewonnen wurden. Auf diese Weise entstanden die klassischen Intelligenzmodelle, die an dieser Stelle kurz vorgestellt werden sollen, da sie die
anschließende Beschreibung von verbreiteten Intelligenztests erleichtern:Das globale Modell der Intelligenz und der klassische IQ Zweifaktorenmodell (Generalfaktormodell) der Intelligenz Primärfaktorenmodell Hierarchische Intelligenzmodelle Intelligenzstrukturmodell von Guilford Das Berliner Intelligenzstrukturmodell
Das globale Modell der Intelligenz und der klassische IQDieses Modell nimmt an, daß Intelligenz eine ganzheitliche und homogene Fähigkeit ist und geht auf die Arbeiten von Alfred Binet Ende des 19. und Anfang des 20. Jahrhunderts zurück. Sein Stufenleitermodell
geht davon aus, daß normalintelligente Kinder einer bestimmten Altersstufe Aufgaben mit hoher Wahrscheinlichkeit lösen können, die ihrer Altersstufe entsprechen. Daher sprach man davon, daß das Intelligenzalter (IA) dieser Kinder genauso groß ist wie ihr Lebensalter (LA). Können Kinder alterstypische Aufgaben nicht lösen, wird die Anzahl der nicht gelösten Aufgaben als Monate vom Lebensalter abgezogen, so daß man ein Intelligenzalter unterhalb des
Lebensalters erhält. Wenn Kinder zusätzlich eine Anzahl von Aufgaben lösen, so werden diese als Monate zum Lebensalter hinzugezählt, so daß man ein Intelligenzalter oberhalb des Lebensalters erhält. Dieses Verfahren hat den Nachteil, daß Unterschiede zwischen Intelligenzalter und Lebensalter auf unterschiedlichen Altersstufen etwas Unterschiedliches bedeuten. Im Alter von z.B. 10 Jahren ist eine Differenz von 5 IA-Monaten nicht so bedeutend wie im Alter von 4 Jahren. Um ein Maß zu erhalten,
daß dieses Problem nicht enthält, entwickelte William Stern 1912 den heute als klassisch bezeichneten Intelligenzquotienten (IQ):IQ = IA / LA * 100. Dadurch wurde über die Altersstufen eine gewisse Interpretierbarkeit des Testergebnisses gewährleistet, auch wenn die Methode einen linearen Anstieg des Intelligenzalters über das Alter hinweg voraussetzte. Diese Annahme führte zusammen mit der Tatsache, daß für Erwachsene kaum noch alterstypische Aufgaben gefunden
werden konnten, zu erheblichen psychometrischen Problemen, die schließlich die Ablösung des klassischen IQs durch den Abweichungs-IQ zur Folge hatten.Lange Zeit prägte Binets Modell jedoch die Entwicklung von Intelligenztests in erheblichem Maße. Es entstanden Tests wie die Stanford-Binet-Tests von Terman und Merrill (1916, 1937, 1960) in den USA und Tests wie das “Binetarium” (Norden, 1953), der
Kramer-Test (Kramer, 1954, 1972 10) und der Stanford-Intelligenz-Test (Lückert, 1957). Heute gelten solche Tests allerdings als veraltet und sollten in der Intelligenzdiagnostik nicht weiter verwendet werden. zur Theorieübersicht Zweifaktorenmodell (Generalfaktormodell) der Intelligenz
Das Zweifaktorenmodell der Intelligenz wurde von Charles Spearman entwickelt und nimmt wie das Modell der globalen Intelligenz an, daß zur Messung der Intelligenz ein globales Maß verwendet werden kann. Dieses Maß soll diejenige Fähigkeit repräsentieren, die verschiedene Intelligenztests gemeinsam erfassen. Die Fähigkeit wird als allgemeine Intelligenz
bezeichnet. Empirisch belegte Spearman seine Auffassung dadurch, daß er die positiven Zusammenhänge (Korrelationen) zwischen den Ergebnissen, die mit verschiedenen Intelligenztests gewonnen wurden, mit Hilfe der Faktorenanalyse untersuchte und einen Faktor extrahierte, auf dem die Tests hoch positiv luden. Dieser Faktor wird als Generalfaktor oder g-Faktor
bezeichnet. Da jedoch der g-Faktor nicht alle Beziehungen zwischen den Tests wiedergeben konnte, nahm Spearman für jeden Test einen zweiten Faktor an, der das Spezifische eines Tests repräsentieren sollte. Die spezifischen Faktoren sollten untereinander und vom Generalfaktor unabhängig sein. Weil Spearman jeden Intelligenztest durch zwei Faktoren beschreibbar angesehen hat, von denen einer der Generalfaktor ist, wird Spearmans Modell Zweifaktorenmodell oder Generalfaktormodell genannt. Spearmans Modell wurde bereits früh kritisiert wurde, u.a. deshalb, weil es zu einem mathematisch unlösbaren Problem führt. Dennoch halten viele Forscher auch heute noch am Konzept der allgemeinen Intelligenz fest. Sie führen allerdings nicht mehr die Annahme voneinander unabhängiger testspezifischer Intelligenzfaktoren fort. Zur Messung der allgemeinen Intelligenz sind zahlreiche Intelligenztests entwickelt worden, z.B. der Figure Reasoning Test, die Columbia Mental
Maturity-Skalen und Ravens Progressive Matrizen. zur Theorieübersicht PrimärfaktorenmodellEiner der frühen Kritiker Spearmans war L. L. Thurstone. Aufgrund des Befundes, daß der Generalfaktor nicht alle Beziehungen von Intelligenztests untereinander erklären konnte, vertrat Thurstone die Hypothese, daß
Intelligenz kein einheitliches, homogenes Merkmal ist. Er ging davon aus, daß es mehrere Faktoren gibt, die zu mehreren Intelligenztests positive Beziehungen aufweisen und nicht einen Generalfaktor, der mit allen Tests positiv zusammenhängt. Diese Faktoren bezeichnete Thurstone als Primärfähigkeiten (primary mental abilities) oder Primärfaktoren: - perceptual speed (Wahrnehmungs- und Auffassungsgeschwindigkeit)
number (Rechenfähigkeit)word fluency (Wortflüssigkeit, Leichtigkeit der Wortfindung)verbal comprehension (verbales Verständnis, Erfassen von Wortbedeutungen)space (Räumliches Vorstellungsvermögen)memory (Merkfähigkeit, Kurzzeitgedächtnis)induction / reasoning (Schlußfolgerndes Denken). Statistisch gewann Thurstone die Primärfaktoren mit Hilfe der Multiplen Faktorenanalyse. Die
Multiple Faktorenanalyse nimmt an, daß sich die Beziehungen zwischen verschiedenen Variablen (hier die Intelligenztests) durch mehrere Faktoren, die Beziehungen zu mehreren Tests aufweisen (gemeinsame Faktoren), und durch Faktoren, die spezifisch für jeden Test sind (spezifische Faktoren), beschreiben lassen. Für Thurstone bestand die Aufgabe darin, die gemeinsamen Faktoren zu identifizieren. Das Problem besteht allerdings darin, daß die Multiple Faktorenanalyse zu
unendlich vielen mathematisch richtigen Lösungen führt. Um das Problem zu lösen, sprach sich Thurstone dafür aus, diejenige mathematische Lösung als die inhaltlich richtige Lösung zu betrachten, für welche die gemeinsamen Faktoren zu einigen Intelligenztests starke Beziehungen aufweisen, zu anderen aber so gut wie keine (Einfachstruktur). Zudem sollten die gemeinsamen Faktoren unabhängig voneinander sein. Statistisch gesehen führt diese Forderung zur Verwendung der Varimax-Methode, die
nach voneinander unabhängigen gemeinsamen Faktoren sucht, die jeweils positive Beziehungen zu sich nicht überschneidenden Untermengen von Tests haben. Tests | Faktor I | Faktor II | Faktor III | Analogietest I | 0,79 | 0,11 | 0,05 | Analogietest II | 0,85 | 0,09 | 0,04 | Verständnistest I | 0,09 | 0,91 | 0,12 | Verständnistest II | 0,12 | 0,78 | 0,09 | Gedächtnistest I | 0,07 | 0,09 | 0,87 | Gedächtnistest II | 0,02 | 0,11 | 0,92 | Gedächtnistest III | 0,04 | 0,02 | 0,79 |
Die Varimax-Methode führt zu einer besseren inhaltlichen Interpretierbarkeit der gemeinsamen Faktoren. So legt das Beispiel, das in der Tabelle wiedergegeben ist, nahe, daß Faktor I die Fähigkeit zu Analogieschlüssen erfaßt, Faktor II die Fähigkeit zum verbalen Verständnis und Faktor III die Gedächtnisleistung. Da die Faktoren
außerdem unabhängig voneinander sind, lassen sie sich inhaltlich als eigenständige Intelligenzaspekte im Sinne Thurstones interpretieren. Thurstones Modell erfordert sogenannte faktorreine Tests, d.h. Tests, die nur eine bestimmte Intelligenzkomponente messen. Tests, die diesem Modell nahestehen, sind z. B. die Chicago Tests of Primary Mental Abilities (1941, 1962), das Leistungsprüfsystem LPS (1962), der Wilde-Intelligenz-Test (1963) und das
Prüfsystem für Schul- und Bildungsberatung PSB (1969). Auch der Intelligenzstrukturtest IST (1955, 1970, 1999) dient der Erfassung einiger Primärfaktoren.Die dargestellte Situation ist allerdings nur eine idealisierte. Die genannten Tests erfassen nicht nur jeweils eine Primärfähigkeit, sondern korrelieren hoch miteinander. Selbst Thurstone erreichte für seine Tests nur dadurch
Einfachstruktur, indem er die Forderung nach Unabhängigkeit der Primärfaktoren aufgab. Tatsächlich korrelieren seine Primärfaktoren in der Höhe von ca. r = 0,35 miteinander. Die Korrelationen zwischen den Primärfaktoren können allerdings benutzt werden, um Faktoren höherer Ordnung zu berechnen und sogar dazu, den Generalfaktor im Sinne Spearmans zu rechtfertigen (Eysenck, 1979, S. 42-49). Diese Situation bildete die
Ausgangslage für die Entwicklung sogenannter hierarchischer Intelligenzmodelle. zur Theorieübersicht Hierarchische IntelligenzmodelleDiese Intelligenzmodelle nehmen eine hierarchische Ordnung von Intelligenzkomponenten an. Auf der obersten
Ebene steht der Generalfaktor, der allgemeine Intelligenz erfaßt. Dieser läßt sich jedoch in Teilkomponenten aufspalten, z.B. in sprachliche Fähigkeiten und in räumlich-perzeptuell-praktische Fähigkeiten, wie es z. B. das Intelligenzmodell von Vernon annimmt. Drei bedeutende hierarchische Modelle werden näher beschrieben: Intelligenzmodell von Wechsler Intelligenzmodell von Vernon
Intelligenzmodell von Cattell Das Intelligenzmodell von WechslerWechslers Intelligenzmodell geht von der allgemeinen Intelligenz aus, die sich jedoch in zwei Intelligenzfaktoren aufspalten läßt: sprachliche (verbale) Intelligenz und Handlungs- (praktische) Intelligenz. Zur Erfassung dieser
beiden Gruppenfaktoren werden Untertests verwendet, die jeweils eine Teilkomponente der verbalen oder der praktischen Intelligenz messen sollen.
Auf dieser Theorie beruhen die Hamburg Wechsler Intelligenztests für Kinder (HAWIK) sowie für Erwachsene (HAWIE), die Adaptationen der von Wechsler in den USA entwickelten WISC- bzw. WAIS-Tests sind. Die Analyse von Daten, die mit diesen Tests gewonnen wurden, zeigen jedoch nur wenig theoriekonforme Resultate. So scheinen die Untertests keine eigenständigen Komponenten der Gruppenfaktoren zu erfassen. zur Theorieübersicht Das Intelligenzmodell von VernonDaraus, daß der Generalfaktor nicht alle Beziehungen zwischen Intelligenztests erklären kann, zogen die Intelligenzforscher der Englischen Schule den Schluß, daß neben dem Generalfaktor noch weitere Intelligenzkomponenten existieren müßten, die jedoch einen geringeren Allgemeinheitsgrad haben und nur Beziehungen zu einigen, nicht zu allen Intelligenztest aufweisen (Gruppenfaktoren
). Technisch erfolgte die Identifizierung der Gruppenfaktoren durch Faktorisierung der Restbeziehungen zwischen den Intelligenztests, nach dem der Anteil herausgerechnet worden war, der auf den Generalfaktor zurückgeht. Dieses Verfahren wurde so lange sukzessiv angewendet, bis keine systematischen Beziehungen mehr zwischen den Intelligenztests gefunden wurden (Top-Down-Faktorisierung). Dadurch entstanden hierarchische Modelle, mit dem
Generalfaktor an der Spitze, Hauptgruppenfaktoren auf der zweiten oberen Ebene, einer Gruppe von Untergruppenfaktoren auf der dritten Ebene und testspezifischen Faktoren auf der untersten Ebene. Das Modell von Vernon nimmt z.B. unterhalb des Generalfaktors die beiden Hauptgruppenfaktoren v:ed (für verbal-educational) und k:m ( kinesthetic-mechanical) an. v:ed spaltet sich in Untergruppenfaktoren wie „Kreative
Fähigkeiten“, „Flüssigkeit des Denkens“, “Wortflüssigkeit”, “sprachliche Fähigkeiten” und “Fähigkeiten zum Operieren mit Zahlen”. Der andere Hauptgruppenfaktor k:m läßt sich aufgliedern in Untergruppenfaktoren wie „Wahrnehmungsgeschwindigkeit“, „Räumliches Vorstellungsvermögen“, „Technisches Verständnis“ und “Physikalische Kenntnisse”. Zusätzlich steht dieser Hauptgruppenfaktor mit weiteren, i.a. nicht dem engeren
Intelligenzbereich zugeordneten Fähigkeiten wie psychomotorischen Fertigkeiten u.a. in Beziehung. Neben den beiden Hauptgruppenfaktoren wird noch ein dritter Faktor “schlußfolgerndes Denken” angenommen. Die unterste Ebene des Modells umfaßt schließlich eine Vielfalt von Faktoren, die ausschließlich die spezifischen Testvarianzanteile der jeweils verwendeten Einzeltests determinieren. Das Intelligenzmodell von Cattell
Der Persönlichkeitsforscher Raymond B. Cattell war ein Assistent von Charles Spearman und hat ein hierarchisches Intelligenzmodell formuliert, das als Synthese zwischen dem Primärfaktormodell Thurstones und dem Generalfaktormodell Spearmans angesehen werden kann. Cattell nutzt die Faktorenanalyse zunächst, um Intelligenzfaktoren zu gewinnen, die miteinander hoch korrelieren (Faktoren 1. Ordnung). Dazu zählen 6
Faktoren, die den Primärfähigkeiten aus Thurstones Modell sehr ähnlich sind, und ein siebenter Faktor, fluide Intelligenz. Da diese Faktoren stark miteinander korrelieren, erlauben sie es, weiter faktorisiert zu werden. Dadurch erhält Cattell Faktoren zweiter Ordnung: Zum einen handelt es sich um die allgemeine fluide Intelligenz gf1, die hauptsächlich mit der fluiden Intelligenz der 1. Ebene und zum geringen Teil nit den 6
Primärfaktoren zusammenhängt. Auf letzteren beruht in stärkerem Ausmaß der zweite Faktor 2. Ordnung, den Cattell allgemeine kristallisierte Intelligenz gc nennt. Die allgemeine fluide Intelligenz soll Cattell zufolge die von Lernerfahrungen weitgehend unabhängige, stark erblich bedingte Fähigkeit repräsentieren, neue Probleme zu lösen. Dagegen stelle die allgemeine kristallisierte Intelligenz die Repräsentanz aller bisherigen Lernerfahrungen
dar, die sich in einer Person zu intellektuellen Fertigkeiten “verfestigt” hätten. Da beide Intelligenzkomponenten intellektuelle Fertigkeiten beeinflussen, hängen Ergebnisse aus Intelligenztests von beiden Komponenten ab und bedingen, daß die Komponenten selbst hoch miteinander korrelieren (ca. r = 0,5). Dies ermöglicht die Durchführung einer weiteren Faktorenanalyse, um auf der dritten und höchsten Ebene den Generalfaktor gf(h) zu gewinnen. Cattell nimmt an, daß die allgemeine fluide Intelligenz stärker mit dem Generalfaktor zusammenhängt, da v.a. während der ersten Lebensjahre Intelligenz fast nur aus der fluiden Intelligenz bestehe und diese die
Voraussetzung für die Entwicklung der kristallisierten Intelligenz darstelle (Investment-Theorie). Er geht weiter davon aus, daß die Entwicklung der fluiden Intelligenz mit ca. 14 bis 15 Jahren abgeschlossen sei, während diejenige der kristallisierten Intelligenz abhängig von den Lebens- und Anregungsbedingungen erst viel später erreicht sein kann. Da die fluide Intelligenz relativ unbeeinflußt von Umweltbedingungen sein soll, nimmt Cattell an, daß Tests zur
Erfassung der fluiden Intelligenz in dem Sinne kulturfair sein sollten, daß sie keine Personengruppen aufgrund ihrer unterschiedlichen Entwicklungen in der kristallisierten Intelligenz durch unterschiedliche Lebensbedingungen benachteiligen sollten (kulturfaire Tests). In Studien, in denen Mitglieder der weißen und der schwarzen Bevölkerungsgruppen der USA mit diesen Tests untersucht worden sind, stellte sich allerdings heraus, daß der
Leistungsunterschied zwischen den Gruppen gerade in den vermeindlichen kulturfairen Tests größer ist als in den allgemeinen kognitiven Tests, die stärker durch die kristallisierte Intelligenz und damit durch eine von vorangegangenen Lernerfahrungen beeinflußte Intelligenzkomponente beeinflußt ist. Tests zur Erfassung der fluiden Intelligenz stellen die Grundintelligenztests CFT 1, 20 und 3 dar. Kristallisierte
Intelligenz kann z.B. mit dem Mehrfach-Wortschatz-Intelligenztest (Lehrl, 1977) gemessen werden. zur Theorieübersicht Das Intelligenzstrukturmodell von GuilfordIm Gegensatz zu Intelligenzforschern wie Thurstone, Vernon und Cattell verwendete J. P. Guilford die
Faktorenanalyse nicht, um aufgrund von Daten Intelligenzfaktoren zu finden, sondern entwarf anhand einer Theorie Intelligenztests, die verschiedene von der Theorie angenommene Intelligenzaspekte erfassen sollten, und überprüfte anschließend die Theorie anhand der mit diesen Tests gewonnenen Daten. Guilfords Modell geht in Anlehnung an Reiz-Organismus-Reaktions-Modelle (SOR-Modelle) davon aus, daß bestimmte Inhalte im
Organismus bestimmten Operationen unterworfen werden und zu bestimmten Resultaten (Produkten) führen: Inhalte: breite, grundlegende Arten der Information - figural
- symbolisch
- semantisch
- Verhalten
Operationen: Typen intellektueller Verarbeitungsprozesse - Kognition
- Gedächtnis
- Divergente Produktion
-
Konvergente Produktion
- Evaluation
Produkte: grundlegende Arten von verarbeiteten Informationen - Einheiten
- Klassen
- Beziehungen
- Systeme
- Transformationen
- Implikationen
Inhalte, Operationen und Produkte bilden nach Guilford voneinander unabhängige, fundamentale Modalitäten einer Intelligenzstruktur
, deren Bestandteile aus der Kombination jedes Inhalts mit jedem Prozess und jedem Produkt gebildet werden. Für jede der so gebildeten 150 Intelligenzaspekte wird die Entwicklung spezieller Tests angestrebt. Die Forschung, die von Guilfords Modell ausging, hat sich aufgrund der großen Zahl angenommener Intelligenzaspekte lange Zeit vorwiegend mit der Testentwicklung beschäftigt. Den grundlegenden theoretischen Annahmen wurde weniger Beachtung gezollt. zur Theorieübersicht Das Berliner Intelligenzstrukturmodell von JägerDer deutsche Psychologe Adolf Otto Jäger untersuchte die wichtigsten in der Literatur zu findenden Intelligenzmodelle, mit dem Ziel sie zu einem Strukturmodell der Intelligenz zu integrieren. Zu diesen Modellen zählten z.B. die oben dargestellten Modelle von Thurstone, Vernon, Cattell und Guilford. Jäger fand während
seiner Forschungsarbeit, daß alle Modelle eine gewisse empirische Gültigkeit beanspruchen können, solange man sich auf die Intelligenzaufgaben beschränkt, mit denen die Daten erhoben worden sind, auf denen die Modelle beruhen. Wenn man also z.B. Cattells Modell bestätigen möchte, dann sollte man die Art von Testaufgaben einsetzen, die Cattell benutzt hatte. Da Jäger allerdings ein die anderen Modelle umfassendes Obermodell
anstrebte, sammelte er alle in der Literatur auffindbaren Intelligenzaufgaben (ca. 2000 Items). Er extrahierte aus diesen 191 Aufgabenblöcke mit je 98 Aufgaben, die eine repräsentative Stichprobe aller Aufgaben darstellten, wobei er diejenigen Aufgaben beibehielt, die typisch für die wichtigsten Intelligenzmodelle sind. Diese Aufgaben ließ er von über 500 Probanden bearbeiten. Die Testung erstreckte sich über 3 Tage und nahm 15 Stunden reine
Testzeit in Anspruch. Die gewonnenen Daten analysierte Jäger auf der Basis eines hierarchischen, bimodalen Intelligenzmodells, das den Namen Berliner Intelligenzmodell erhielt. Das Berliner Intelligenzmodell nimmt 2 Modalitäten oder Facetten an. Die Modalitäten stellen Jäger zufolge zwei Aspekte dar, unter denen Intelligenzleistungen klassifiziert werden können. Die eine Modalität umfaßt die Art des Aufgabenmaterials - figural, numerisch und verbal. -
Verbale Aufgaben
messen den Grad der Aneignung und Verfügbarkeit von Sprache.- Numerische Aufgaben
erfassen den Grad der Aneignung und Verfügbarkeit von Zahlen.- Figural-bildhafte Aufgaben
messen die Fähigkeit, mit figural-bildhaftem Material umgehen zu können.
Die andere Modalität wird durch die kognitiven Prozesse - Operationen - gebildet, die während der Bearbeitung
der Aufgaben beansprucht werden: Bearbeitungsgeschwindigkeit, Gedächtnis, Einfallsreichtum und Verarbeitungskapazität. - Bearbeitungsgeschwindigkeit
: Arbeitstempo, Auffassungsleichtigkeit, Konzentrationskraft beim Lösen einfach strukturierter Aufgaben geringer Schwierigkeit.- Gedächtnis
: aktives Einprägen, kurz- und mittelfristiges Widererkennen oder Reproduzieren von verbalem, numerischem und figural-bildhaftem Material.- Einfallsreichtum
: flüssige, flexible und originelle Ideenproduktion, Verfügbarkeit vielfältiger Informationen, Reichtum an Vorstellungen, Sehen verschiedener Seiten, Varianten, Gründe und Möglichkeiten von Gegenständen und Problemen, wobei es um problemorientierte Lösungen und nicht um Phantasieren geht.- Verarbeitungskapazität
: Verarbeitung komplexer Informationen bei schwierigeren Aufgaben, die Heranziehen, Verfügbarkeit und Beziehungsstiften, formallogisch exaktes Denken und sachgerechtes Beurteilen von Informationen erfordern.
Testaufgaben können als eine Kombination der zwei Modalitäten klassifiziert werden. Oberhalb der beiden Modalitäten wird als übergeordnetes Konstrukt die allgemeine Intelligenz angenommen. Ein Intelligenztest, der auf dem Berliner Strukturmodell beruht, ist der BIS-4. zur Theorieübersicht zur ÜbersichtIntelligenztests
Die Erfassung von Intelligenz findet überwiegend durch Intelligenztests statt. Diese kann man in Tests für Kinder und Jugendliche sowie für Erwachsene unterteilen. Es gibt Tests, die vorwiegend auf sprachabhängige Leistungen abzielen, und Tests, die relativ sprachfern sind, Tests, die nur einen Intelligenzaspekt abdecken, und Tests, die verschiedene Aspekte messen, Tests, die in Gruppen appliziert werden können, und Tests, die einzeln
durchgeführt werden. Die Vielzahl der vorhandenen Tests macht eine vollständige Aufzählung jedoch unmöglich. Trotzdem sollen exemplarisch einige bedeutende Intelligenztests genannt und kurz beschrieben werden:Grundintelligenztest (CFT) von Weiss und Cattell: mehrere Versionen (CFT 1, CFT 20, CFT 3), für Kinder und Jugendliche sowie Erwachsene mit einfacher Schulbildung, sollen vorwiegend sprachunabhängige (fluide)
Intelligenz erfassen. Der CFT 20 enthält auch einen sprachabhängigen Untertest (Wortschatztest). Die Testzeit ist begrenzt. Hamburg Wechsler Intelligenztest für Kinder (HAWIK) von Tewes nach den WISC-Tests von Wechsler: Der HAWIK liegt inzwischen in der 2. Revision als HAWIK-III vor. Er enthält 10 Untertests, von denen 5 zum “Handlungsteil” und 5 zum “Verbalteil” zusammengefaßt werden: Allgemeines Wissen, Gemeinsamkeiten finden,
Rechnerisches Denken, Wortschatz-Test, Allgemeines Verständnis (Verbalteil) sowie Bilderergänzen, Zahlen-Symbol-Test, Bilderordnen, Mosaik-Test, Figurenlegen (Handlungsteil). Daneben existieren drei weitere Untertests: Zahlennachsprechen, Symbol-Test, Labyrinth-Test. Der HAWIK-III kann bei Kindern und Jugendlichen zwischen 6 und 16 Jahren eingesetzt werden. Die Berechnung von Handlungs-IQ, Verbal-IQ und Gesamt-IQ ist möglich. Hamburg Wechsler Intelligenztest für Erwachsene
(HAWIE) von Tewes nach den WAIS-Tests von Wechsler: Der HAWIE ist im Aufbau dem HAWIK sehr ähnlich. 1991 erschien eine revidierte Fassung, der HAWIE-R. Der Test ist für Jugendliche ab 16 Jahren und Erwachsene bis 74 Jahren geeignet. Die Bearbeitungszeit beträgt 1 - 1,5 Stunden. Intelligenz-Struktur-Test (IST) von Amthauer: Die aktuelle Version, der IST 2000, erschien 1999 und basiert
auf einem hierarchischen Intelligenzkonzept. 11 Untertests eines sogenannten Grundmoduls sollen an Thurstones Modell angelehnte Primärfaktoren erfassen: Verbale Intelligenz, Numerische Intelligenz, Figurale Intelligenz, Schlußfolgerndes Denken (Summe aus den ersten drei Faktoren) und Merkfähigkeit. Das Erweiterungsmodul dient der Messung der Cattellschen Generalfaktoren fluider und kristallisierter Intelligenz. Der IST 2000 ist für
Jugendliche ab 15 Jahren und Erwachsene geeignet. Die Bearbeitungszeit für das Grundmodul beträgt ca. 2 Stunden, für Grund- und Erweiterungsmodul 2,5 bis 3 Stunden. Kaufman Assessment Battery for Children (K-ABC): ein aus 15 Untertests bestehender Intelligenztest für Kinder im Alter zwischen 2 Jahren, 6 Monaten und 12 Jahren, 5 Monaten. Die Untertests sind zu drei Skalen
zusammengefaßt: Skala einzelheitlichen Denkens (SED), Skala ganzheitlichen Denkens (SGD), Fertigkeitenskala (FS). Die beiden ersten Skalen können zu einer Skala intellektueller Fähigkeiten (SIF) zusammengefaßt werden. Ein IQ wird nicht berechnet. Allerdings besteht die Möglichkeit, sprachferne Fähigkeiten auf einer sprachfreien Skala zu messen. Die Untertests der beiden Skalen zu einzelheitlichem sowie ganzheitlichem Denken lauten:
Zauberfenster (SGD), Wiedererkennen von Gesichtern (SGD), Handbewegungen (SED), Gestaltschließen (SGD), Zahlennachsprechen (SED), Dreiecke (SGD), Wortreihe (SED), Bildhaftes Ergänzen (SGD), Räumliches Gedächtnis (SGD), Fotoserie (SGD). Die Fertigkeitenskala umfaßt die Untertests: Wortschatz, Gesichter und Orte, Rechnen, Rätsel, Lesen / Buchstabieren, Lesen / Verstehen. Progressive Matrices von Raven
: mehrere Versionen für unterschiedliche Altersbereiche und Intelligenzniveaus (CPM - Coloured Progressive Matrices, SPM - Standard Progressive Matrices, APM - Advanced Progressive Matrices), sollen allgemeine Intelligenz erfassen, Tests ohne Zeitbegrenzungen. zur ÜbersichtDer Intelligenzquotient Bei der Beschreibung des
Stufenleitermodells der Intelligenz wurde bereits die Definition des klassischen Intelligenzquotienten (IQ) durch William Stern gegeben:IQ = Intelligenzalter / Lebensalter * 100. Aufgrund von empirischen Problemen bei der Verwendung dieses IQ wurde er im Laufe der Zeit durch den sogenannten Abweichungs-IQ ersetzt. Der Abweichungs-IQ ist nichts anderes als eine Lineartransformation der in
einem Test durch eine Person erzielten Punkte in eine Standardskala mit Mittelwert 100 und Standardabweichung 15: IQ = [X - M(X)]/SD(X) * 15 + 100 X: Punkte im Intelligenztest M(X): durchschnittliche Punkteanzahl von Personen, die den Test bearbeiteten SD(X): Standardabweichung der Punktezahl von Personen, die den Test bearbeiteten. Erreicht eine Person z.B. 20 Punkte im Test, während der Durschnitt bei 18 Punkten und die
Standardabweichung bei 6 Punkten liegt, so erhält diese Person einen IQ von 105.Mit Hilfe dieser sogenannten IQ-Skala kann die durch eine Person erreichte Leistung mit der Leistung verglichen werden, die andere Personen im Test gezeigt haben. Die Interpretation findet dabei über die Differenz (Abweichung) vom Durchschnitt statt (daher Abweichungs-IQ), die in Standardabweichungen ausgedrückt wird. Bei einem IQ von 105 beträgt die Abweichung vom Durchschnitt 5 IQ-Punkte, was 5/15 = 1/3
Standardabweichungen entspricht. Als zusätzliche Interpretationshilfe wird als Verteilung der IQ-Werte eine Normalverteilung angenommen. Beachtet werden muß, daß neben der IQ-Skala noch andere Standardskalen existieren, in der Intelligenzmessungen angegeben werden (z.B. die Z-Skala, die T-Skala, die C-Skala). zur ÜbersichtZur Erblichkeit von Intelligenz
In der Intelligenzforschung spielt u.a. die Frage der Erblichkeit der Intelligenz eine prominente Rolle. Erblichkeitsstudien wie z.B. Zwillingsstudien berichten von Erblichkeitskoeffizienten der allgemeinen Intelligenz in Höhe von ca. 0,7. Ein solcher Wert besagt nur, daß ca. 70% der Unterschiede in der allgemeinen Intelligenz zwischen Menschen auf genetische Unterschiede zwischen diesen Menschen zurückführbar sind. Er besagt
keineswegs, daß bei einer Person mit einem IQ von 100 Punkten 70 Punkte vererbt und 30 Punkte erlernt sind, oder gar, daß Intelligenz nicht durch Umweltereignisse beeinflußbar und deshalb nicht förderbar ist. Einige Intelligenzmodelle nehmen eine solche Beeinflußbarkeit der Intelligenz durch die Umwelt (Lernerfahrungen, Schulunterricht, Berufsausbildung) sogar explizit an, wie z.B. das Intelligenzmodell von Cattell.
Erblichkeitskoeffizienten geben auch keine absolute Gewißheit darüber, wie hoch die Erblichkeit von Intelligenz tatsächlich ist, da ein Wert von 0,7 aufgrund großer Schwierigkeiten, die Erblichkeit zu bestimmen, nur ein Anhaltspunkt sein kann, auch wenn inzwischen eine Reihe von Untersuchungen vorliegen, die eine Erblichkeit in dieser Höhe belegen. Diese Untersuchungen bestätigen allerdings die Auffassung, daß Intelligenz in gewissem
Ausmaß erblich bedingt ist und auch, daß das Ausmaß nicht vernachlässigbar ist. zur Übersicht |