J'espère cette fois ne pas m'être trop égarée dans les topics. Celui ci me semble différent de celui qui évoque d'autres tests de QI, car plus largement ce texte décrit les différentes types de mesures de l'intelligence.
C'est un texte de Lautrey "L’évaluation de l’intelligence :état actuel et tentatives de renouvellement ". Cet spécialiste met plusieurs publications à disposition sur son site
http://jacques.lautrey.com/psychologie- ... ection.php , dont ce texte qui est un chapitre de livre
http://jacques.lautrey.com/docs/pdf9_L_ ... igence.pdf
Il part d'une question qui me préoccupe mais que je peine à expliciter, et que lui décrit très intelligemment ainsi : "
Le phénomène curieux, sur lequel je voudrais m’arrêter aujourd’hui, est que ce renouvellement des théories sur l’intelligence ne se soit pas accompagné d’un renouvellement correspondant des instruments d’évaluation de l’intelligence. Pourquoi les évolutions théoriques n’ont-elles pas engendré de tests d’intelligence capables de supplanter les tests psychométriques classiques, c’est à dire les tests inspirés des idées de Binet et de Wechsler, ou de Spearman et de Thurstone. Il y a là un paradoxe qui servira de fil directeur à mon propos"
Son développement est fort intéressant, je n'ai pas le temps de le résumer mais il est aisément accessible dans son texte ,allez directement à la conclusion en page 22.
Et ici le résumé de sa réflexion : le fond du "problème" est que les approches utilisées sont relativement statiques, alors qu'il faudrait adopter une approche résolument dynamique
"
Toutefois, les approches stucturalistes jusqu’ici adoptées dans le domaine de l’intelligence, la théorie de Piaget et l’approche factorielle, ont décrit des structures qui sont statiques et qui, pour cette raison, ne sont pas appropriées pour trouver le chaînon manquant. Il faut en effet parvenir à comprendre comment les multiples processus mentaux qui entrent en jeu dans la performance interagissent pour former un système et comment ce système évolue au cours même de l’activité intellectuelle. C’est donc une sorte de structure dynamique qu’il faut tenter d’appréhender, du type de celles que forment les systèmes sdynamiques non linéaires. Ceci suppose une réorientation du cadre théorique de la recherche sur l’intelligence, mais aussi sans doute une réorientation des méthodes d’observation. La modélisation de la dynamique de la pensée exige en effet des observables appropriés, c’est à dire recueillis au niveau de l’individu, dans le décours même de l’activité intellectuelle, avec une très forte densité temporelle. Il est vraisemblable que l’analyse en temps réel de ces
observables, et leur comparaison à des modélisations permettant de les interpréter, dépasse les capacités de l’observateur humain et doivent être pris en partie en charge par un dispositif informatique. Quoi qu’il en soit, le paradoxe qui a servi de fil directeur à cet exposé laisse penser que seuls des instruments donnant les moyens d’évaluer à la fois la performance globale et la façon dont les processus cognitifs ont été orchestrés pour la produire, auront quelque chance de supplanter les tests d’intelligence classiques."
ci-dessous la fin de sa conclusion, pour vous donner envie de lire son texte
► Afficher le texte
En résumé donc, Binet ou Wechsler ont élaboré leurs échelles d’intelligence de façon très pragmatique, mais le fait que d’autres tests, élaborés à partir de cadres théoriques plus riches et assez diverses, mesurent à peu près la même chose, leur confère – a posteriori – une validité théorique qui leur faisait défaut au départ. Par leur démarche pragmatique, ils ont permis de réunir un ensemble de faits dont toute théorie de l’intelligence devra pouvoir rendre compte. Si la capacité d’adaptation cognitive que mesurent ces tests est assez générale, elle n’est sans doute pas pour autant toute l’intelligence. Ils n’évaluent probablement que ce que nous avons appelé plus haut l’intelligence académique, c’est à dire la forme d’adaptation cognitive en jeu dans des apprentissages explicites, comme ceux qui sont faits dans le système scolaire.
Mais même si ce n’est qu’une des formes de l’intelligence, il reste que dans des sociétés comme les nôtres, elle joue un rôle suffisamment crucial, pour les individus et pour les sociétés, pour que son évaluation soit un enjeu scientifique et social important.
Si les tests classiques mesurent au fond à peu près la même chose que ceux qui sont fondés sur des théories plus récentes, pourquoi les abandonner au profit de ces derniers ? Il faudrait pour cela que les tests fondés sur d’autres cadres théoriques apportent quelque chose
en plus. C’était bien l’objectif des recherches appuyées sur la psychologie cognitive, qui visaient à fournir une analyse des processus qui échappe aux tests classiques. Ces recherches ont apporté des éléments permettant d’enrichir l’interprétation des conduites observées, mais elle ont échoué à fournir de nouveaux instruments d’évaluation capables de renseigner à la fois sur la performance et sur les processus par lesquels celle-ci a été obtenue. Un détour par l’épistémologie de la psychologie peut aider à comprendre les raisons de cet échec. Reuchlin (1995) montre que depuis les débuts de son histoire, la psychologie a eu des difficultés à sortir d’une oscillation entre une approche qu’il appelle “ holiste ” et une approche qu’il appelle “ élémentiste ”. Le holisme considère les entités psychiques comme des totalités non décomposables, tandis que l’élémentisme les considère comme analysables en éléments indépendants les uns des autres et, donc, isolables.
Des notions comme celles de QI, ou celle de facteur, s’inscrivent dans la tradition holiste. Elles rendent compte d’une performance
globale, dont on ignore sur quels éléments elle repose. Les approches corrélationnelle et composantielle, qui se sont appuyées sur les méthodes de la psychologie cognitive pour analyser les processus en jeu dans les tests peuvent être interprétées comme un retour à
l’élémentisme (qui prévalait déjà, avant Binet, dans les tentatives de mesure de l’intelligence, par exemple chez Galton ou chez Cattell).
On a pensé pouvoir recomposer et comprendre les différences observées au niveau de la totalité -le QI ou le facteur- en mettant bout à bout les différences observées dans les différents processus élémentaires qui ont pu être isolés. Au point où nous en sommes, nous savons évaluer les différences individuelles au niveau de la totalité et au niveau des processus élémentaires. Le chaînon manquant est la
façon dont ces derniers sont “ orchestrés ” pour donner lieu à la totalité. Les modes de recomposition qui ont été envisagés (en général des modèles séquentiels et additifs) sont manifestement inadaptés. Comme le suggère Reuchlin (1995), la solution est probablement
dans une approche qui ne soit ni holiste ni élémentiste, mais structuraliste, c’est à dire capable de spécifier les relations entre éléments qui rendent les propriétés de la totalité irréductibles à celles des éléments.
Toutefois, les approches stucturalistes jusqu’ici adoptées dans le domaine de l’intelligence, la théorie de Piaget et l’approche factorielle, ont décrit des structures qui sont statiques et qui, pour cette raison, ne sont pas appropriées pour trouver le chaînon manquant. Il faut en effet parvenir à comprendre comment les multiples processus mentaux qui entrent en jeu dans la performance interagissent pour former un système et comment ce système évolue au cours même de l’activité intellectuelle. C’est donc une sorte de structure dynamique qu’il faut tenter d’appréhender, du type de celles que forment les systèmes sdynamiques non linéaires. Ceci suppose une réorientation du cadre théorique de la recherche sur l’intelligence, mais aussi sans doute une réorientation des méthodes d’observation. La modélisation de la dynamique de la pensée exige en effet des observables appropriés, c’est à dire recueillis au niveau de l’individu, dans le décours même de l’activité intellectuelle, avec une très forte densité temporelle. Il est vraisemblable que l’analyse en temps réel de ces observables, et leur comparaison à des modélisations permettant de les interpréter, dépasse les capacités de l’observateur humain et doivent être pris en partie en charge par un dispositif informatique. Quoi qu’il en soit, le paradoxe qui a servi de fil directeur à cet exposé laisse penser que seuls des instruments donnant les moyens d’évaluer à la fois la performance globale et la façon dont les processus cognitifs ont été orchestrés pour la produire, auront quelque chance de supplanter les tests d’intelligence classiques.