thèse

271
« Not that I will present a theory accounting for these data ; rather, I will mainly clarify the first datum by reflecting on the question that is at the root of Turing’s analysis and central for mathematical logic, as well as cognitive psychology and artificial intelligence. In its sober mathematical form the question simply asks “What is an effectively calculable fonction ?” » Wilfied Sieg

Upload: elyria11

Post on 27-Jun-2015

65 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Thèse

« Not that I will present a theory accounting for these data ; rather, I will mainly clarify the first datum by reflecting on the question that is at the root of Turing’s analysis and central for mathematical logic, as well as cognitive psychology and artificial intelligence. In its sober mathematical form the question simply asks “What is an effectively calculable fonction ?” »  

Wilfied Sieg

Page 2: Thèse

Table des matières

Table des matières......................................................................................................................................1

Introduction générale................................................................................................................4

Partie théorique........................................................................................................................14

Mise en évidence de deux systèmes similaires de computation : l’ordinateur numérique et l'être humain.....................................................................................................................................14

Chapitre 1 – Quelques éléments d’informatique théorique : machine de Turing, architecture Von Neumann.......................................................................................................................................................................15

1.1 – L’émergence du problème de la calculabilité et de l'indécidabilité.................................................151.1.1 - Le paradoxe de l’hôtel de Hilbert.............................................................................................151.1.2 - Ensembles infinis dénombrables, infinité non dénombrable et procédé diagonal...................161.1.3 - Kronecker, Dedekind et Frege..................................................................................................181.1.4 - Le programme de Hilbert.........................................................................................................191.1.5 - Gödel : théorèmes d'incomplétude, calculabilité et récursivité................................................211..1.6 - Church : équivalence entre fonctions récursives générales et calculabilité efficace (lambda – definissable).........................................................................................................................................231..1.7 - Post : une machine récursive ?................................................................................................24

1.2 - La machine de Turing.......................................................................................................................251.2.1 - L’analogie humaine..................................................................................................................251.2.1.1 – Analyse des conditions restrictives d'une procédure de calcul efficace et récursive............251.2.1.2 - La structure de la machine.....................................................................................................281.2.2 – L’importance de la syntaxe dans le programme d’instructions et la notion de calcul selon Turing...................................................................................................................................................321.2.2.1 – Exemple d’une séquence calculable et sa syntaxe................................................................321.2.2.2 – La démonstration négative de la calculabilité et du problème de la décision à l’aide du procédé diagonal..................................................................................................................................36

1.3 - L'architecture Von Neumann (Le processeur dans l’ordinateur).....................................................401.3.1 – Présentation générale de l’architecture....................................................................................401.3.2 - L’unité mémoire.......................................................................................................................411.3.3 - L’unité arithmétique.................................................................................................................421.3.4 - L’unité contrôle........................................................................................................................421.3.5 – Différences et ressemblances entre machine de Turing et architecture Von Neumann..........43

Chapitre 2 - La théorie computationnelle de l'esprit.....................................................................................452.1 - Le fonctionnalisme d'Hilary Putnam : l'équivalence esprit humain – machine de Turing...............45

2.1.1 - L'isomorphisme fonctionnel.....................................................................................................452.1.2 - L'indépendance esprit – cerveau et la syntaxe du langage machine et humain........................462.1.3 - Critique personnelle sur le fonctionnalisme d'Hilary Putnam..................................................482.1.4 - La critique du fonctionnalisme par Hilary Putnam..................................................................502.1.5 - La critique de Searle : l'argument de la chambre chinoise.......................................................52

2.2 – Le fonctionnalisme de Jerry Fodor : les modules cognitifs.............................................................542.2.1 – L'aspect syntaxique des représentations mentales humaines et leur calcul.............................542.2.2 – L'origine informatique du concept de module cognitif : les opérations subsidiaires de Turing..............................................................................................................................................................562.2.3 – La modularité de l'esprit selon Fodor.......................................................................................582.2.3.1 – Les systèmes périphériques...................................................................................................582.2.3.2 – Les systèmes centraux...........................................................................................................60

Chapitre 3 – L’impact de la machine de Turing et de l’architecture Von Neumann en psychologie cognitive.......................................................................................................................................................................61

3.1 - Le modèle de la mémoire de travail de Baddeley et Hick : copier – coller de l’architecture Von Neumann ?................................................................................................................................................61

3.1.1 - Les débuts de la comparaison des processus cognitifs humains avec les processus de l’architecture Von Neumann................................................................................................................613.1.2 - Présentation du modèle de la mémoire de travail de Baddeley et Hitch..................................623.1.3 – Comparaison mémoire de travail et Architecture Von Neumann............................................64

1

Page 3: Thèse

3.2 - Stratégies cognitives ou la métaphore des procédures efficaces de Turing.....................................673.2.1 - Présentation des stratégies........................................................................................................673.2.2 - Balayage « mental » de la machine de Turing, opérations d’addition et de multiplication de l’architecture Von Neumann comme base des stratégies de Bruner et al............................................71

3.3 - La théorie des modèles mentaux : procédure efficace, machine universelle de Turing et récursivité..................................................................................................................................................................74

3.3.1 – Définitions et caractéristiques fondamentales.........................................................................743.3.2 – Les références à Turing : procédures efficaces, récursivité et machine universelle...............76Résumé de la partie théorique..............................................................................................................79

Partie expérimentale................................................................................................................81

Les explications architecturale et computationnelle dans la recherche des informations sur Internet..............................................................................................................................................81

Chapitre 4 – Récursivité des étapes, fonctionnements acyclique, cyclique et désorientation dans la recherche des informations sur Internet........................................................................................................82

4.1 - Démonstration de l’équivalence machine de Turing / Internaute....................................................824.1.1 - Synthèse de l’apport de Turing.................................................................................................824.1.2 - Comparaison machine de Turing / Internaute..........................................................................854.1.3 - Application des conditions restrictives sur Internet.................................................................86

4.2 – L’explication architecturale dans la recherche des informations sur Internet.................................894.2.1 - Introduction..............................................................................................................................894.2.2 - Méthode....................................................................................................................................904.2.3 - Procédure..................................................................................................................................914.2.3 - Résultats....................................................................................................................................934.2.4 - Discussion.................................................................................................................................964.2.5 - Conclusion................................................................................................................................99

4.3 - Le problème de l’explication computationnelle au sens stricte dans la récupération des informations sur Internet.........................................................................................................................100

4.3.1 - Introduction............................................................................................................................1004.3.2 - Méthode..................................................................................................................................1044.3.3 - Procédure................................................................................................................................1054.3.4 - Résultats..................................................................................................................................1074.3.5 - Discussion...............................................................................................................................1134.3.6 - Conclusion..............................................................................................................................119

4.5 – Désorientation sur Internet et complexité des sites.......................................................................1204.5.1 - Introduction............................................................................................................................1204.5.2 - Méthode..................................................................................................................................1224.5.3 - Procédure................................................................................................................................1234.5.4 - Résultats..................................................................................................................................1244.5.5 - Discussion...............................................................................................................................1364.5.6 - Conclusion..............................................................................................................................138

Discussion générale...............................................................................................................140

Conclusion..............................................................................................................................149Références...............................................................................................................................................151

2

Page 4: Thèse

3

Page 5: Thèse

Introduction générale

«These machines are humans who calculate »

Wittgenstein

4

Page 6: Thèse

Il ne s'agit pas d'une thèse sur Turing mais sur l'interaction Homme – ordinateur, plus

exactement sur les stratégies de recherche des informations sur Internet. C’est une thèse de

psychologie cognitive orientée naturellement informatique : une adaptation de la thèse de

Turing au domaine de la recherche des informations sur Internet. Et parce qu’il s’agit de la

compréhension de l’interaction entre un être humain et quelque chose qui lui est extérieure, la

pensée de Turing est d’une importance capitale car la première exploration systématique de

l’interaction entre un agent et un environnement est la machine de Turing (Wells, 1998). Il se

trouve aussi que la quasi-totalité de ce que nous aurons à dire sur la cognition humaine dans

ce domaine, nous le devons à Turing : les théories cognitives sont soit dérivées de l’analyse de

Turing et/ou de l’ordinateur numérique (Fodor et Pylyshyn, 1988) soit elles sont une

alternative à la cognition selon Turing. Ce que nous proposons dans cette thèse est très

simple ; une explication du comportement cognitif de l’internaute à partir de l’analyse du père

de l’ordinateur.

L'interaction Homme – ordinateur est la discipline qui s'intéresse au design, à

l'évaluation et à l'implémentation des systèmes informatiques interactifs destinés à l'usage

humain ainsi qu'à l'étude des phénomènes majeures qui les entourent (Hewett et al,

1992/1996).

L'objectif de cette discipline est de mettre en correspondance les uns avec les autres les

aspects humains, techniques et de situation de travail pour faciliter l'apprentissage, la

tutorialité des systèmes, l'exécution des stratégies.

Les sciences cognitives sont la tentative de comprendre l’esprit humain en tant que

système de traitement de l’information. Elles utilisent les modèles computationnels de la

cognition pour expliquer comment les humains acquièrent, stockent et manipule l’information

et comment cette information guide leur comportement. L’hypothèse de base des modèles

computationnels est que les humains traitent l’information à travers des opérations cognitives

sur les représentations. (référence)

La psychologie cognitive est l’étude des processus mentaux supérieurs incluant la

mémoire, la perception, l’apprentissage, le raisonnement, le langage, l’intelligence,…

Le rôle de la psychologie cognitive au sein de l'interaction Homme – ordinateur

consiste à entreprendre l'analyse empirique du comportement des utilisateurs et surtout à

mettre en application sur les systèmes informatiques les théories des processus cognitifs.

5

Page 7: Thèse

La contribution de la psychologie cognitive dans ce champs d'études n'a pas encore

fait ses preuves ; l'importance de cette aide est pour l'instant modeste (Nickerson & Landauer,

1997), il n'y a pas beaucoup d'applications des théories cognitives dans l'interaction Homme –

ordinateur (Dumais & Czerwinski, 2001).

L'inefficacité de la psychologie cognitive s'expliquerait par l'idée que la plupart des

théories sont développées en examinant des phénomènes isolés et contrôlés en situation de

laboratoire avec peu ou pas du tout de référence sur les interactions complexes qui

surviennent avec interfaces (Dumais & Czerwinski, 2001). Par ailleurs, les théories de la

psychologie cognitive ne traitent jamais de l'être humain dans sa totalité mais plutôt à un de

ses aspects : mémoire, perception, attention, raisonnement... De fait, ces théories restent assez

inefficaces sur Internet parce que l'utilisateur fonctionne dans sa totalité et pas en faisant

intervenir seulement un aspect de sa cognition.

La difficulté de la mise en pratique des théories cognitives dans l'interaction Homme –

ordinateur peut donner raison à ceux qui pensent qu'ils ne peut exister des stratégies de

recherche des informations sur Internet ; la diversité apparente des patterns, le manque de

cohérence apparent dans le comportement de certains utilisateurs, la diversité dans

l'organisation des sites,... sont tels qu'il semble impossible de dégager des invariants. Et en

générale les stratégies proposées reflètent cette ambiguïté en restant assez vague ; faible et

haut niveau de navigation, novice – expert…

La question demeure : est- il possible d'extraire des stratégies claires, précises et sans

ambiguïtés à partir du comportement des utilisateurs dans la recherche des informations sur

Internet ?

Dans cette nous affirmons qu’il est possible de répondre à cette question en nous

appuyant sur Turing car dans chacune des composantes qui constituent l'interaction Homme –

ordinateur, Alan Turing joue un rôle majeur. Pour ce qui est de l'ordinateur, il en est le père à

travers la « machine » théorique qu'il conçoit en 1936 dont l'ordinateur numérique est

l'extension, à travers tous les efforts consentis dans la construction de la machine elle –

même ; architecture, modules informatiques..., et à travers ses prédictions ; machine capable

de jouer aux échecs, prédiction d'Internet en 1951 notamment dans un entretien à la BBC où il

évoque la possibilité de transmission d’instructions à un ordinateur à travers une ligne

téléphonique mais dont le projet n’aboutira pas par manque de financements. Pour ce qui est

de l'homme, les sciences cognitives dans leur ensemble et la psychologie cognitive plus

particulièrement ont pour ambition la réalisation ou l'application du programme

6

Page 8: Thèse

fonctionnaliste dont le postulat de base est que l'être humain à un niveau abstrait fonctionne

comme une machine de Turing.

Il serait paradoxal, « inconsistant », de ne pas trouver l'explication de l'interaction

Homme – ordinateur dans les travaux de Turing et plus particulièrement dans la modélisation

de sa célèbre analyse qu’est la machine de Turing.

Si la cognition selon Turing, ce qui est le propre d’une bonne partie des sciences

cognitives et de la psychologie cognitive, n'est pas capable d'expliciter le comportement

humain face à son invention d'où est dérivée une bonne partie de la compréhension de la

cognition humaine, alors nous seront confrontés à une grosse crise concernant soit la validité

de la machine de Turing et de l'ordinateur numérique soit sur celle des sciences cognitives

dans leur ensemble ou alors des deux à la fois. Nous savons que l’outil informatique n’a plus

à faire ses preuves et s’il y a un problème ce serait plutôt du côté de la psychologie cognitive

dans son appropriation des idées de Turing. Dans tous les cas, il y a une obligation

intellectuelle à revenir sur les travaux de Turing pour tenter d'élucider l'interaction Homme –

ordinateur dans ce qui concerne les stratégies de recherche des informations sur Internet.

Ce qui est surprenant dans les études concernant cette interaction et plus précisément à

propos des stratégies de recherche des informations sur Internet, c’est que ces travaux ne

partent jamais du travail de Turing lui – même.

L'erreur est d'avoir eu recours à des théories dérivées ou pseudo – dérivées de la

machine de Turing comme la théorie des modèles mentaux (Johnson - Laird, 1983) qui est

l’une des théories les plus utilisée d’une façon ou d’une autre dans l'interaction Homme –

ordinateur ou alors de faire appel à des théories alternatives supposant suppléer aux

insuffisances de la cognition à la Turing comme la théorie de l'énaction (Varela, 1988) et de la

cognition située. Une deuxième erreur est l'absence de distinction dans ces études entre

l’explication architecturale et l’explication computationnelle au sens stricte.

Une explication est computationnelle stricto sensu lorsqu'elle présente des dérivations,

des suites causales de représentations mentales, dont la dernière ligne est en générale une

spécification du comportement à expliquer (Fodor, 2003). Une explication est architecturale

lorsqu'elle répond à des questions qui portent sur la manière dont l'esprit à travers les

processus causaux passe d'une ligne à une autre. Et l'explication computationnelle au sens

stricte a besoin de l'explication architecturale (Fodor, 2003), il y a une ascendance de la

dernière sur la première. Cette distinction entre architecturale et computationnelle au sens

stricte n'est rien d'autre que le fonctionnement d'une machine de Turing par le biais de la

lecture et du traitement de chaque séquence d'instructions à travers la dérivation d’un

7

Page 9: Thèse

composant de la syntaxe à un autre (l'aspect computationnel au sens stricte) et le passage

d’une séquence d'instructions à une autre (l'aspect architectural).

Lorsqu’on s’inscrit dans le cadre d’une explication computationnelle combinant à la

fois les aspects architecturaux et computationnels au sens stricte, comme c’est le cas dans

cette thèse, c’est qu’on accepte le postulat selon lequel l’être humain à un niveau abstrait

fonctionne comme une machine de Turing. Par conséquent, nous sommes dans la théorie

computationnelle de l’esprit.

La théorie computationnelle de l’esprit affirme que l’esprit est une machine de Turing

(ou ordinateur numérique), un système d’états discrets qui manipule les représentations

symboliques selon des règles syntaxiques, que la pensée est constituée de représentations

symboliques et que les processus mentaux sont des dérivations causales conduites par les

propriétés syntaxiques des symboles (Horst, 1999; Fodor et Pylyshyn, 1988; Fodor, 2003).

Dans ce travail nous nous approprions l’affirmation des fonctionnalistes et nous

aurons l’occasion de constater que cette affirmation n’a, en soi, rien de révélatrice. La

machine de Turing n’est rien d’autre que la modélisation du comportement d’un être humain

idéalisé entrain d'effectuer des calculs à l’aide d’un papier – crayon (Turing, 1936 ;

Wittgenstein 1980 ; Gandy, 1988;  Sieg 1994), c’est la pensée humaine mécanisée. Et aux

dires du plus célèbre de ceux qui furent étudiants de Turing, Robin Gandy, dans le célèbre

article de Turing de 1936 On computable number with an application to the

entscheidungstproblem il ne s’agit à aucun moment de machines réelles bien que Turing

utilise le terme machine. Il est question dans cet article, du début jusqu’à la fin, de l’être

humain ; plus précisément d’un calculateur, de la modélisation de sa pensée. Cette machine

est la modélisation parfaite d’une activité cognitive humaine et c’est pour cette raison que

l’analyse de Turing est importante et reste pertinente à ce jour et c’est également pour cette

raison qu’elle a autant d’impact en sciences cognitives. On ne doit donc pas prendre au pied

de la lettre l’expression « machine de Turing ».

Cette machine a d’abord été le modèle de l’activité cognitive humaine traitant des

symboles (chiffres), modèle de la pensée humaine mécanisée, modèle des procédures

efficaces et récursives et ensuite modèle de l'ordinateur numérique et modèle de la pensée

humaine mécanisée en générale même si des discussions abondent sur ce dernier point

(Cleland, 2002). Et puisque dans une machine de Turing les actions sont locales et localement

déterminées, la machine de Turing est aussi le modèle de l’activité cognitive humaine face à

des actions locales. Ce point est crucial dans le transfert que nous ferons de l’analyse de

Turing au domaine d’Internet.

8

Page 10: Thèse

Bien que nous nous approprions l’affirmation triviale des fonctionnalistes selon

laquelle l’être humain à un niveau abstrait fonctionne comme une machine de Turing, nous ne

prendrons pas en compte les considérations ésotériques des fonctionnalistes et de tout un pan

de la psychologie cognitive selon lesquelles la cognition humaine porterait sur une

manipulation de symboles et que les représentations mentales se situent à un niveau

irréductible au biologique. Dans cette thèse nous prenons en compte l’analyse de Turing telle

qu’il l’avait élaboré et l’appliquons à Internet, tout simplement.

Nous ne ferons pas la même confusion que les fonctionnalistes et les sciences

cognitives consistant à passer indifféremment de la machine de Turing à l’architecture Von

Neumann ou l’ordinateur numérique. Bien que le second soit l’extension du premier, la

machine de Turing se situe dans une approche interactive / externaliste entre un agent et un

environnement alors que la l’architecture Von Neumann est une approche ou interprétation

internaliste de manipulation de symboles (et de représentations). Appliquer à l’être humain, la

cognition résultant de ces deux approches est très différente car dans le premier cas les coûts

cognitifs sont faibles, dans le second ils sont élevés.

Cette analogie fonctionnelle entre la machine de Turing et l’usage d’Internet n'est en

aucun cas une référence à la métaphore informatique ; l'être humain ressemblant de façon non

triviale à une machine de Turing. Cette métaphore est morte ; parce que en soi elle était

intenable (à cause du grand nombre de considérations ésotériques) et ensuite parce que le

coup de grâce a été porté par son propre père Hilary Putnam (Putnam, 1990). Cette analogie

renvoie plutôt à la théorie computationnelle de l'esprit dans la version de Jerry Fodor où l'être

humain « à un niveau abstrait » est supposé fonctionner comme une machine de Turing ou

comme son extension l'ordinateur numérique (dans ce dernier cas, uniquement au niveau du

processeur, de la structure des langages de programmation et des opérations subsidiaires).

En résolvant le problème de la calculabilité, Turing a définit les conditions qui

permettent de mettre en place une procédure efficace dans l'exécution d'un calcul par un être

humain. On entend par procédure efficace une procédure qui permet d'accéder de façon fiable

à un résultat (Cleland, 2002). Une stratégie est un ensemble de règles que l'on met en place et

que l'on suit dans le but d'atteindre un résultat. Stratégies et procédures sont la même chose

(Cleland, 2002). Par conséquent, les stratégies de recherche des informations sur Internet

peuvent être étudiées sous l'angle des procédures efficaces en respectant les conditions posées

par Turing.

Alan Mathison Turing étant le père de l’ordinateur numérique, Internet étant une

émanation de l’outil informatique dont la possibilité ne lui avait pas échappé, le

9

Page 11: Thèse

fonctionnement humain sur Internet devrait s’expliquer à partir de l’analyse du père de

l’ordinateur ; analyse qui a conduit à la naissance de l’outil informatique d’où est dérivé un

certain nombre de théories et modèles cognitifs. Par conséquent, la machine de Turing serait

aussi le modèle parfait pour la compréhension du fonctionnement cognitif des internautes.

La machine de Turing étant la modélisation d’une activité cognitive humaine

(effectuant des calculs), les stratégies de recherche des informations sur Internet si elles

peuvent être dérivées des procédures des machines de Turing ne pourront avoir du poids que

si cette analogie n’est pas isolée du contexte général de ces machines. Autrement dit, les

analogies entre le fonctionnement de l’internaute et les machines de Turing ne devront pas

s’arrêter aux types de procédures, elles devront intégrer aussi les différents aspects qui

caractérisent ces machines. Parmi ces aspects nous nous intéresserons à :

1 – L’analyse des conditions restrictives.

2 – La structure « physique » de la machine.

3 – Le fonctionnement acyclique et cyclique des machines.

4 – La conduction des inférences dans une machine de Turing.

Le premier aspect permettra d’identifier les différentes étapes d’une procédure efficace

et récursive dans le cas d’un calculateur humain entrain d’effectuer des opérations à l’aide

d’un papier – crayon qui est le point de départ de l’analyse de Turing.

Le deuxième aspect nous permettra de voir comment l’activité du calculateur humain

est modélisée sous forme de machine.

Le troisième aspect qui est le fonctionnement acyclique et cyclique des machines nous

permettra d’inférer les deux types de procédures utilisées dans le travail de ces machines :

procédure efficace lorsque la machine est acyclique et procédure inefficace lorsqu’elle est

cyclique.

Le quatrième aspect nous permettra d’établir que la conduction des inférences dans

une machine de Turing est l’application de ce qui avait toujours été affirmé par les spécialistes

de la calculabilité depuis la fin du 19ième siècle ; il s’agit de simples dérivations causales

nécessitant presque aucun coût cognitif.

Si l’être humain fonctionne comme une machine de Turing (qui est la modélisation

d’un être humain entrain de calculer), on s’attend à ce que l’activité de recherche d’une

information sur Internet soit semblable aux fonctionnements cyclique et acyclique des

machines de Turing ne nécessitant qu’un coût cognitif peu élevé.

10

Page 12: Thèse

Il ne s’agira pas d’accepter le postulat fonctionnaliste comme une parole divine, il

nous faudra au préalable établir exactement en quoi la situation d’un individu entrain de

chercher des informations sur Internet est assimilable à une machine de Turing.

L’objectif de la partie théorique consistera à montrer d’une part, l’émergence du

concept de calculabilité efficace à partir de la seconde moitié du 19 ième siècle jusqu’à la

démonstration de Turing en 1936. Le deuxième objectif consistera à montrer d’autre part que

la cognition, dans ses grandes lignes ou ses fondements, est essentiellement dérivée des

travaux de Turing et de l’extension de sa machine ; l’ordinateur numérique à travers

l’architecture Von Neumann (le processeur), ce qu’on tend trop souvent à ignorer en

psychologie cognitive. Cette tradition en psychologie cognitive consistant à recourir à la

machine de Turing et à l’ordinateur numérique justifiera aussi notre application de l’analyse

de Turing au domaine d’Internet.

Le premier chapitre est consacré essentiellement à la machine de Turing et à

l’architecture Von Neumann. Mais avant d’y arriver, nous esquissons d’abord le cadre

conceptuel dont sa machine est l’aboutissement. Nous parlerons du mathématicien Georg

Cantor et de ses paradoxaux infinis plus grands les uns que les autres ainsi que le procédé

diagonal qu’il met en place, de Frege avec la nécessité de conduire les inférences comme des

calculs. On abordera ensuite Hilbert dont la grande ambition était de sortir les mathématiques

de tout paradoxe notamment celui de l’infini actuel ; c’est le problème de la consistance, et de

toute situation indécidable ; c’est le problème de la décision ou Entscheidunsproblem. A cette

époque déjà, on affirmait que la résolution du problème de la décision nécessitait un aspect

calculatoire et qu’il fallait précisé ce qu’on entendait par calculabilité (efficace). On parlera

ensuite de Gödel qui, avec ses deux théorèmes d’incomplétudes, ruine le programme de

Hilbert.

On arrivera à Turing qui élabore sa machine à partir de l’analogie humaine, dresse les

conditions restrictives qui permettent d’élucider les différentes étapes d’un calcul et par

conséquent les propriétés d’une procédure efficace et récursive (thèse de Turing). Dans la

machine qu’il propose, les inférences seront conduites de façon calculatoire comme l’avaient

proposé Frege, Hilbert, Gödel… Turing démontre que ce qui est calculable efficacement par

un être humain en suivant les conditions restrictives, l’est également par sa machine

(théorème de Turing). A l’aide du procédé diagonal de Cantor, il montre également que tout

n’est pas calculable lorsqu’on s’en tient à ces conditions ou encore que les machines de

Turing ne peuvent pas tout calculer. On s’aidera de la notion de Cantor sur certains infinis qui

sont plus grands que les autres pour appréhender cette incapacité des machines de Turing.

11

Page 13: Thèse

L’analyse de Turing et la démonstration sur la calculabilité nous offriront deux patterns : ce

qui est calculable efficacement (procédure efficace) et ce qui ne l’est pas (procédure

inefficace). Avec sa machine, Turing apporte une solution négative et définitive au problème

de la décision.

Ce premier chapitre se terminera avec l’architecture Von Neumann ; passage de la

machine de Turing de son aspect théorique à sa réalisation concrète. Nous parlerons des trois

composantes de cette architecture et de leurs fonctions principales.

Dans le deuxième chapitre nous mettrons en évidence que c’est en puisant dans les

travaux de Turing que les fonctionnalistes ont jeté les bases de l’étude du comportement

cognitif humain. Nous traiterons de la modularité de l’esprit et montrerons au préalable que le

concept de modules cognitifs est directement inspiré des travaux de Turing à travers ce qu’il

appelait des opérations subsidiaires. Nous montrerons aussi dans ce deuxième chapitre que

l’idée selon laquelle les représentations mentales humaines sont structurées de façon

syntaxique et que des calculs s’effectuent sur elles s’appuie sur le traitement des séquences

d’instructions par une machine de Turing (la dérivation des inférences).

Le troisième chapitre illustrera l’idée que les modèles et théories en psychologie

cognitive sont dérivés des travaux de Turing, de l’architecture Von Neumann ou alors des

deux à la fois. Nous montrerons que le modèle originel de la mémoire de travail de Baddeley

et Hitch est inspiré de l’architecture Von Neumann. Dans les stratégies cognitives, nous

montrerons que la notion de balayage mental est dérivée également de la machine de Turing

et il en serait de même pour la théorie des modèles mentaux selon Johnson – laird lui – même

bien que la filiation entre machine de Turing et modèles mentaux ne soit pas convaincante.

Après avoir montré l’ancrage profond de la psychologie cognitive à la machine de

Turing, nous passerons à la partie expérimentale qui comporte trois expériences. La première

porte sur l’identification des procédures de recherche des informations sur Internet en se

basant sur l’analyse des conditions restrictives de Turing.

La deuxième expérience traite principalement du coût cognitif engagé dans une

activité de recherche des informations sur Internet avec comme idée de base que ce coût ne

peut être que faible de façon semblable à la dérivation des inférences sur une machine de

Turing.

La troisième expérience porte essentiellement sur l’équivalence pouvant exister entre

le problème de la désorientation sur Internet et le fonctionnement des machines de Turing.

S’il y a une similitude entre ces trois aspects (procédure, coût cognitif et

désorientation) entre le fonctionnement de l’internaute et celui des machines de Turing, alors

12

Page 14: Thèse

nous pourrons conclure que l’internaute fonctionne comme une machine de Turing et surtout

que l’analyse du père de l’ordinateur est la solution pertinente pour comprendre l’activité de

recherche des informations sur Internet.

13

Page 15: Thèse

Partie théorique

Mise en évidence de deux systèmes similaires de computation : l’ordinateur

numérique et l'être humain

« Le processus de la pensée dans son ensemble nous est encore relativement mystérieux, mais je crois que toutes les tentatives de création de machines pensantes nous seront d’une grande aide pour découvrir comment nous pensons nous – mêmes. »

Alan Turing

14

Page 16: Thèse

Chapitre 1 – Quelques éléments d’informatique théorique : machine de

Turing, architecture Von Neumann

1.1 – L’émergence du problème de la calculabilité et de l'indécidabilité

1.1.1 - Le paradoxe de l’hôtel de Hilbert

En mathématique, les paradoxes ou inconsistances sont inacceptables. Un paradoxe au

sein d'une théorie est la possibilité de démontrer une chose et son contraire (Delahaye, 2000).

En se basant sur les raisonnements fondés sur les axiomes de la théorie, on ne peut tirer une

affirmation A et l'affirmation contraire non A (¬ A). Une théorie est complète si elle arrive à

prouver soit A soit non A. Lorsque ni A ni non A ne sont prouvables, on dit que la théorie est

indécidable et par conséquent elle est incomplète.

Le problème de la calculabilité et de l’indécidabilité est apparu lorsque les

mathématiciens ont été confrontés au problème de l'infini actuel mise en évidence par Cantor

en utilisant notamment les correspondances bijectives : la capacité de mettre en relation un

par un, un ensemble infini avec une de ses propres parties. Le problème de l’infini actuel est

très bien illustré par ce qu’on appelle le paradoxe de l’hôtel de Hilbert (Delahaye, 2000;

Lombardi, 2005).

On imagine un hôtel infini dont les chambres numérotés par les entiers 0, 1, 2, 3, ...

affiche complet pour la nuit. Un client arrive, le responsable de l'accueil lui assure qu'il a une

chambre libre ; la chambre numéro 0. L'accueil dispose d'un téléphone spécial qui permet de

téléphoner simultanément à toutes les chambres en demandant au client de la chambre n de

passer à la chambre n + 1, ainsi le client de la chambre 0 passe dans la chambre 1, celui de la

chambre 1 dans la chambre 2 ainsi de suite. Dix minutes plus tard arrive un car infini avec de

nouveau clients qui demandent à passer la nuit dans l'hôtel. Le responsable de l'accueil assure

à nouveau qu'il a des chambres libres. Avec son téléphone, il demande au client de chaque

chambre de passer dans la chambre 2n. Il indique au chauffeur du car que le voyageur numéro

i peut disposer de la chambre 2i + 1 qui est effectivement libre puisque toutes les chambres de

nombres impairs ont été libérées. Une demi - heure plus tard arrive un groupe plus important

constitué d'une infinité de cars, chacun ayant à bord une infinité de passagers. Le responsable

de l'accueil assure à nouveau qu'il a des chambres disponibles pour l'infinité de nouveaux

15

Page 17: Thèse

clients. Avec son téléphone spécial il demande au client de la chambre i de passer dans la

chambre 2i + 1 ; ce qui libère toutes les chambres ayant un numéro pair. Il informe le

responsable du groupe d'autocars que le passager numéro i du bus j devra occuper la chambre

2 puissance j + 1. Tout se passe bien puisque les chambres à occuper ici seront toujours des

chambres aux numéros pairs qui viennent d'être libérées. Il n'y aura jamais deux voyageurs

différents qui se verront attribuer la même chambre.

Il y a paradoxe parce que l'hôtel affiche complet et à chaque arrivée de clients des

chambres sont attribuées. On arrive à tirer une affirmation A et son affirmation contraire non

A. L'étude des infinis de Cantor montre qu'il n'y a pas de paradoxes dans l'hôtel de Hilbert.

1.1.2 - Ensembles infinis dénombrables, infinité non dénombrable et procédé diagonal

A l’origine du paradoxe de l’hôtel de Hilbert se trouvent les travaux du mathématicien

Georg Cantor (1845 – 1918) qui s'était intéressé à l'étude des infinis. Il s’était tout simplement

demandé s'il y avait plus d'entiers naturels que de nombres pairs. Il avait soutenu que si deux

ensembles, fini ou infini, peuvent être mis en relation par une correspondance un par un, alors

ils ont le même nombre d'éléments. Les entiers naturels et les nombres pairs peuvent être

ordonné en fonction de leur grandeur de telle sorte qu'une correspondance bijective puisse

être établie entre eux et conclure qu'il y a autant de nombre pairs que d'entiers naturels. Le fait

que tous les nombres pairs sont contenus dans les entiers naturels ne signifie pas que

l'ensemble des entiers naturels est plus grand.

Cantor s'était aussi posé la question sur la relation de grandeur entre l'ensemble des

nombres rationnels et celui des entiers naturels. Les nombres rationnels (ensemble des

nombres qui sont le quotient de deux nombres entiers) sont denses, même entre deux nombres

rationnels qui sont proches, on en trouve toujours d'autres. Contrairement aux nombres entiers

et aux nombres pairs qui ont des successeurs, les nombres rationnels n'en ont pas. L'ensemble

des nombres rationnels semble avoir infiniment plus d'éléments que l'ensemble des entiers

naturels parce qu'on peut non seulement trouvé une infinité de nombre rationnels plus grands

ou plus petits qu'un nombre donné mais aussi parce qu'on peut trouver une infinité de nombre

rationnels dans chaque portion de ligne définie par deux nombres rationnels.

Par un procédé astucieux, Cantor arrive à montrer qu'il est possible d'effectuer un

appariement un par un entre les entiers naturels et les nombres rationnels.

16

Page 18: Thèse

Lorsqu'il y a une correspondance bijective entre deux ensembles infinis, Cantor dit

qu'ils ont la même puissance et la puissance des entiers naturels est appelée aleph 0, le plus

petit nombre transfini. Les ensembles infinis qui peuvent être mis en correspondance un par

un avec les entiers naturels sont dits dénombrables. Les problèmes surviennent lorsqu’on est

confronté avec des infinis non dénombrables.

En 1874, Cantor se rend compte de l'impossibilité de la mise en correspondance un par

un entre les entiers naturels et les nombres réels. L’ensemble des nombres réels est de taille

plus grande et il n'est pas dénombrable, les nombres entiers sont un sous – ensemble des

nombres réels. Plus tard, Cantor apportera une preuve de cette découverte en s'aidant du

procédé diagonal qu'il met en place et qui est devenue le prototype du raisonnement

permettant de démontrer les résultats d'impossibilité en mathématiques (Delahaye, 2000).

Le principe du procédé diagonal consiste à supposer que ce que l'on veut établir est

faux et on joue sur la diagonale du tableau ; le i -ième chiffre du nombre f(i), et on déduit une

contradiction.

Il s'agit d'affirmer qu'il existe une correspondance bijective entre l'ensemble des entiers

naturels et celui des nombres réels. De façon plus précise, il s'agit d'affirmer que la

correspondance un par un entre les entiers naturels et les nombres réels compris entre 0 et 1

est possible. Pour mettre en place le raisonnement diagonal, tous les nombres réels compris

entre 0 et 1 sont écrits de la façon suivante :

1 – 0.a11a12a13 …

2 – 0.a21a22a23 …

3 – 0.a31a32a33 …

L'objectif consiste à montrer qu'il est possible de générer un nombre qui n'est pas

inclus dans cette liste, un nombre de la forme 0.b1b2b3... Le chiffre b1 de ce nouveau nombre

devra être différent du premier chiffre de la première ligne, c'est – à – dire de a1.1. Le second

chiffre b2 du nouveau nombre devra être différent du deuxième chiffre de la ligne 2, c'est – à

– dire a2.2, ainsi de suite. Le nouveau nombre 0.b1b2b3 devra être différent de chacun des

nombres de la liste d'au moins un chiffre. Le chiffre bk ; le k – ième chiffre du nouveau

nombre, sera toujours différent du chiffre akk ; le k – ième chiffre du dernier nombre de la

liste obtenue à partir de la diagonale. Le nouveau nombre obtenu qui se situe juste après la

diagonale et qui est compris entre 0 et 1 conduit à une contradiction parce que les nombres de

la liste traversée par la diagonale sont supposés inclure tous les nombres compris entre 0 et 1 :

17

Page 19: Thèse

après la diagonale il y a génération d'un nouveau nombre qui ne fait pas parti de la liste et qui

pourtant est compris entre 0 et 1. Par conséquent, une correspondance bijective entre les

entiers naturels et les réels compris entre 0 et 1 ne peut pas être établie. Les entiers naturels

sont un sous – ensemble de l'ensemble des nombres réels, il s'en suit que les nombres réels

forment un ensemble non dénombrable. Cantor a appelé un tel ensemble c : la puissance du

continum.

Turing utilisera le procédé diagonal mis en place par Cantor pour effectuer sa

démonstration négative de la calculabilité ; tout ne peut pas être calculable de façon efficace.

Les infinis de Cantor servent aussi à démontrer que les machines de Turing ne peuvent pas

tout calculer. Pour l’instant ce qui est important, ce sont les problèmes que les infinis de

Cantor vont soulever en mathématiques : la décidabilité et la calculabilité que Turing résoudra

avec sa machine.

1.1.3 - Kronecker, Dedekind et Frege

Le mathématicien Kronecker admettait comme objet d’étude uniquement les nombres

naturels. La notion de nombres réels était rejetée à causes de deux conditions

méthodologiques auxquelles les considérations mathématiques devaient se conformer : les

concepts doivent être décidables en un nombre fini d'étapes et l'existence des preuves doit être

effectuée de façon à représenter les objets mathématiques appropriés. En conséquence, il ne

peut exister des objets mathématiques infinis.

Le mathématicien Dedekind souscrivait aussi à la condition de décidabilité, mais

considérait les ensembles infinis des nombres naturels comme des objets mathématiques

respectables. Dans une lettre de 1897 adressé à ce dernier, Cantor notait la nécessité de

distinguer deux types de totalités ; les absolument infinis et les complets. Dans une autre lettre

de 1899, les totalités du premier type sont appelés inconsistantes et celles du second type

consistantes. Pour sécuriser l'existence de tels objets, Dedekind a tenté de donner des preuves

purement logiques car pour savoir si l'ensemble des nombres réels existe vraiment et s'il est

consistant, il fallait une preuve logique.

Frege a été le premier à fournir les moyens nécessaires pour formaliser les preuves

mathématiques. Il fallait passer par le calcul logique, lister tous les énoncés et que chaque

étape dans une preuve soit exécutée en suivant les règles spécifiées dans l'étape précédente.

18

Page 20: Thèse

Avec l'enchaînement des inférences, on pourrait réussir à éclairer chaque axiome, énoncé,

hypothèse, tout ce qui demeure dans une preuve.

Cet éclairage ne peut être obtenue que si les inférences ne s’appuient pas sur des

connaissances contextuelles mais plutôt sur la forme des phrases ; c’est – à – dire de la

syntaxe, et si la dérivation des inférences est effectuée au moyen de la même logique de

signes utilisés pour le calcul. Le système logique des inférences devra être conduit comme un

calcul. Ce qui revient à dire qu'il y a un algorithme ; une totalité de règles qui gouvernent la

transition d'une phrase vers une nouvelle de telle manière que tout ce qui se passera dans

cette dérivation des inférences sera conforme à ces règles (Fege et McGuinness, 1984; cité par

Sieg 1997).

Avec Frege, c’est – à – dire à la fin du 19 ième siècle, se met déjà en place l’idée que le

raisonnement (logico – mathématique) devrait procéder par des dérivations d’inférences, que

ces dérivations seraient fonction de la syntaxe des phrases et qu’elles seraient effectuées

comme un calcul. Toutes ces idées mises en place par Frege, et qui seront reprises par

d’autres, sont à la base de la notion de computation selon Turing et du traitement des

instructions par une machine de Turing.

1.1.4 - Le programme de Hilbert

Les paradoxes avaient conduit Hilbert à s'interroger sur des problèmes de

« philosophie » notamment, comment il est possible de comprendre notre pensée par la pensée

elle – même et de la libérer de tout paradoxe. Ce problème était aussi la base de son travail en

logique mathématique et ceux sont certainement ces préoccupations qu’il appelait

philosophiques qui l'avaient conduit a formulé l'axiome de l'existence de l'esprit :

« I have the ability to think things, and to designate them by simple signs (a, b, ...X, Y, ...) in such a completely characteritic way that I can always recognize them again without doubt. My thinking operates with these designated things in certain ways, according to certain laws, and I am able to recognize these laws through self – observation, and to describe them perfectly. » (Hilbert, 1905; cité par Peckhaus 2003)

Autrement dit, derrières les préoccupations purement mathématiques se trouvaient

également une tentative de compréhension de la cognition humaine.

En 1899, à travers un article, Hilbert se donne comme objectif de sortir l’étude de la

théorie des ensembles des difficultés cantoriennes. Ce qu’il se proposait de faire c'était

19

Page 21: Thèse

d'apporter sur les ensembles infinis la sécurité et la puissance des théories mathématiques

traditionnelles de façon à ce que l'on puisse justifier l'usage des ensembles infinis par des

méthodes non controversées des mathématiques de type finis. Mais la tâche n’était pas aisée.

Hilbert finit par reprocher à Cantor de ne pas avoir donné un critère rigoureux pour

distinguer les totalités consistantes des inconsistantes. Et l'examen de la consistance était une

tâche inévitable pour les mathématiques. Pour la mener à bien, Hilbert avait pensé qu'il était

nécessaire d'axiomatiser (axiome = vérité admise sans démonstration) la logique elle – même

et de montrer que la théorie des nombres (ou calculabilité) aussi bien que celle des ensembles

ne sont que des parties de la logique.

Comme pour tout système axiomatique on peut poser aussi pour le système logique,

les questions concernant la consistance et la complétude. La question la plus importante est

celle qui concerne la complétude.

Le système d'axiome présenté sera complet si l'addition d'une formule improuvable, au

système des formules de base, conduit toujours à un système inconsistant. La première

formulation du théorème (énoncé dont on peut démontrer l’exactitude) de la complétude est

donnée en 1918 : Toute formule prouvable est une formule valide et vice versa. A la

complétude et à la décidabilité, il fallait aussi fournir une méthode pour établir la preuve.

Mais le problème jugé à l'époque comme étant le plus général des mathématiques et

qui est étroitement lié à celui de la consistance, était celui de la décision

(Entscheidungsproblem). Ce problème sera résolu lorsqu’on connaîtra une procédure qui

conduira à décider de la validité d'une expression logique donnée en un nombre fini d'étapes

(Hilbert et Ackermann, 1928; cité par Sieg 1994). Il fallait donc une méthode qui aboutisse à

une réponse efficace et une preuve finitiste qui établirait la terminaison de la méthode ; une

telle preuve devrait garantir la certitude et fournir une limite sur le nombre d'étapes requises.

Le problème de la décision nécessitait un traitement calculatoire à partir de la syntaxe des

formules logiques.

Pour Hilbert les mathématiques pouvaient être exprimées dans une théorie formelle

compréhensive et l'activité mathématique pouvait être réduite à la manipulation d'expressions

symboliques et les mathématiques elles – mêmes pouvaient être vue comme une formule de

jeu. Cette formule serait exécutée en fonction de certaines règles définies dans lesquelles la

technique de notre pensée est exprimée. Ces règles formeraient un système fermé qui peut être

découvert et définitivement établit. L'idée fondamentale de la théorie de la preuve ne serait

rien d'autre que la description de l'activité de notre compréhension, la formulation d'un

protocole de règles en fonction duquel notre pensée procède. Ce qui se passe dans la pensée

20

Page 22: Thèse

serait parallèle à ce qui se passe quand nous parlons et écrivons : nous formons des énoncés et

les plaçons les uns derrières les autres (Hilbert, 1925; cité par Sieg, 1994).

Hilbert pensait avoir démontré la consistance de l’arithmétique. Le système

arithmétique était donc supposé être complet. Etant donné un énoncé mathématique

quelconque, un système formalisé devrait permettre de savoir si cet énoncé est ou non

démontrable dans le système. S'il ne l'est pas à partir des axiomes, c'est sa négation qui devrait

l'être. Autrement dit, le système devrait rendre décidable la démontrabilité mécanique de

chaque énoncé ou de sa négation. Si Hilbert avait raison sur la consistance de l’arithmétique,

cela signifierait qu’il avait démontré cette consistance et la décidabilité du système

arithmétique à partir des axiomes et théorèmes de l’arithmétique.

Les idées de manipulation de symboles, de règles exprimant notre technique de pensée

ou de protocole de règles par lequel notre pensée procède, d’un nombre d’étapes fini, d’une

preuve finitiste seront présentes dans l’analyse et la machine de Turing.

1.1.5 - Gödel : théorèmes d'incomplétude, calculabilité et récursivité

En 1931 Gödel formule un théorème d'incomplétude qui est suivi en 1934 par un

deuxième. Ces théorèmes ruinent les efforts de Hilbert dans sa recherche de l'établissement de

la consistance dans les systèmes mathématiques, accélèrent les recherches sur la calculabilité

efficace en ouvrant la voie pour l'établissement d'une preuve calculatoire sur le problème de la

décision car il restait à démontrer l’exactitude des théorèmes de Gödel. Cette preuve,

conformément à ce qui avait été dit depuis la fin du 19 ième siècle, devrait s’effectuer sous

forme de dérivation d’inférences à partir de la syntaxe des formules, elle devrait se dérouler

en un nombre fini d’étapes, ces étapes devraient être récursives et cette preuve devrait établir

la terminaison de la méthode.

Gödel montre que le système d'arithmétique n'est pas complet et que sa consistance ne

peut pas être établie par des moyens finis. Gödel a formulé ses théorèmes en s'appuyant sur la

notion de récursivité primitive.

Pour arriver aux théorèmes d’incomplétudes, Gödel avait attribué aux formules et

séquences de formules des nombres naturels de façon à ce que toute séquence syntaxique soit

codée par ce qu’on appelle aujourd’hui nombre de Gödel. Ce procédé facilitait l’utilisation

des fonctions récursives primitives dans ses démonstrations.

21

Page 23: Thèse

Suite aux publications qui se font en 1936 sur la calculabilité, Gödel a donné une

version générale de ses deux théorèmes d'incomplétude :

« ... That is, it can be proved rigorously that in every consistent formal system that contains a certain amount of finitary number theory there exist undecidable arithmetic propositions and that, moreover, the consistency of any such system cannot be proved in the system. » (Gödel, 1986; p. 195, cité par Sieg 2006)

Mais avant 1936, les théorèmes d’incomplétude de Gödel n’apportent pas de solution

au problème de la décision puisque ce problème nécessitant un aspect calculatoire, il fallait

élucider d’abord ce qu’on entendait par calcul efficace, procédure finie…

L'instrument précis pour traiter du problème de la décision de façon calculatoire était

la notion de fonction récursive générale. Mais Gödel ne pensait pas que la récursivité générale

était une explication rigoureuse de la calculabilité efficace bien qu'il ait établit en 1934 une

équivalence entre procédure finie de calcul et procédure récursive. Ce que Gödel voulait,

c'était caractérisé de manière précise les étapes du calcul dans les fonctions récursives. Pour

que cet objectif soit accessible il fallait commencer par spécifier les règles systématiques dans

le calcul ou la dérivation des équations.

Il fallait que les règles d'inférences et les définitions de formules significatives et des

axiomes soient constructives afin que pour chaque règle d'inférence il existe une procédure

finie pour déterminer si une formule donnée B est la conséquence immédiate (par cette règle)

de formules données A1, ..., An, et qu'il devrait exister une procédure finie pour déterminer si

une formule donnée A est une formule significative ou un axiome. Pour Gödel, les règles

d'inférence devaient renvoyer uniquement à la structure des formules et pas à leur

signification de façon à ce qu'elles puissent être appliquées par quelqu'un qui ne connaît rien

aux mathématiques ainsi que par une machine. De cette manière il n' y aura pas de doute sur

la façon dont les règles d'inférence s'appliquent et on obtiendra ainsi le plus haut degré

d'exactitude.

En 1934, au cours d'une conversation entre Gödel et Church la question de

l'équivalence entre des fonctions récursives générales avec les fonctions calculables

efficacement avait été abordée. Gödel n'était pas convaincu par cette équivalence

22

Page 24: Thèse

1..1.6 - Church : équivalence entre fonctions récursives générales et calculabilité efficace (lambda – definissable)

Church annonce sa thèse en avril 1935 au cours du congrès de la société américaine de

mathématique. Il affirme que la notion de fonctions calculables efficacement devrait être

identifiée avec celle de fonction récursive. Dans cette même communication, Church donne

l'exemple d'un problème indécidable parce que ses valeurs ne sont calculables efficacement.

L’année suivante (Church, 1936a; Church, 1936b), il se propose de fournir une

définition de la calculabilité efficace et affirme à nouveau à l'aide d'un exemple qu'il existe

des problèmes indécidables. En insistant l’indécidabilité, Church cherche à identifier la classe

des fonctions efficacement calculables avec une classe précisément définie.

Les fonctions efficacement calculables sont récursives si le système logique satisfait

les conditions qui rendent possible le fait que le théorème de prédicat logique est

récursivement énumérable. Church formule les conditions que tout système logique doit

satisfaire pour rendre possible l'énumération récursive et suppose que ces conditions peuvent

être interprétées pour indiquer que, à travers une numérotation correcte de Gödel pour les

expressions de la logique on obtient :

1) Que chaque règle doit être une opération récursive.

2) Que la série de règles et d'axiomes (si infinis) doit être récursivement énumérable.

3) Que la relation entre un entier positif et l'expression qui le représente doit être

récursive.

La thèse centrale de Church est : les étapes de toute procédure efficace (gouvernant

les preuves dans un système logique symbolique) doivent être récursives. Church affirme que

si cette d'interprétation ou une autre du même type n'est pas conduite, il est difficile de voir

comment la notion d'un système symbolique logique peut fournir un sens exact. Mais il y a un

problème qui n'avait pas échappé à Church lui – même, c'est que l'étape interprétative cruciale

n'était pas du tout argumentée (Sieg, 1997; Shagrir, 2002). L’équivalence, à elle seule, entre

fonctions efficacement calculables et fonctions récursives ne suffisait pas.

Chez Church, le concept général de calculabilité est tout de même expliqué en terme

de dérivabilité dans un système logique et les trois conditions intègrent l'idée qu'à l'intérieur

d'un tel formalisme logique on opère avec une notion efficace de conséquence immédiate

(Sieg, 1997).

Il est admis aujourd'hui que si on accepte la thèse centrale de Church et si une fonction

est calculable efficacement si et seulement si elle est calculable en logique, comme l’avait

23

Page 25: Thèse

défini Church, alors l'argument étape par étape prouve que toutes les fonctions efficacement

calculables sont récursives (Sieg, 1994). Mais en 1936, le travail de Church ne paraît pas

convaincant à cause du manque d’argumentation de l’étape interprétative.

1..1.7 - Post : une machine récursive ?

Emil Post (Post, 1936) propose à travers un article une machine dotée d'un espace

infini comportant des carrés. Le problème du calculateur, que Post appelle le travailleur,

consiste à travailler dans cet espace de symboles et à faire des manipulations dans un carré à

la fois. Le carré admet deux conditions possibles ; soit il est vide ou non marqué, soit il

possède une barre verticale.

Le calculateur peut exercer un certain nombre d'actes primitifs (les étapes) : écrire la

barre verticale (V), l'effacer (E pour erase), se déplacer dans le carré immédiatement à droite

(Mr) ou à gauche (Ml) du carré dans lequel il se trouve, et enfin déterminer si le carré dans

lequel le calculateur se trouve est marqué ou non (D). Pour exécuter un calcul particulier le

travailleur doit commencer sa tâche dans un carré spécial (le point de départ) et ensuite suivre

les directives d'une séquence d'instructions. La i – ième direction, i étant compris entre 1 et n,

est dans l'une des formes suivantes : 1) exécuter les actes V, E, Mr, Ml et ensuite suivre la

direction jj, 2) exécuter l'acte D et, selon la réponse négative ou affirmative, suivre la

direction jj1 ou jj''. Il y a une instruction spéciale d'arrêt lorsque le nombre de la prochaine

direction est plus grand que n.

Post propose comme hypothèse de travail que les actes primitifs (les étapes) de ce qu'il

appelle formulation 1 sont suffisants pour la réduction de formulations plus larges et que cette

formulation et cette réduction sont équivalentes à l'identification faite par Church entre

calculabilité efficace et récursivité.

En assurant le reviewing de l'article de Post, Church (Church, 1937) reprochera à ce

dernier de ne pas avoir identifié sa formulation d'un processus fini avec l'efficacité dans le

sens ordinaire et de ne la considérer que comme hypothèse de travail qui dans ce cas n'a pas

de sens exact. Selon Church, l'hypothèse de travail a continuellement besoin de vérification.

Ce qui manque au travail de Post aussi bien qu'à celui de Church lui – même est l'absence de

précision dans ce qu'ils proposent.

La même année que la publication des travaux de Post et Church, un autre article sur

la calculabilité fera l'unanimité auprès de Gödel, Church et beaucoup d'autres :

24

Page 26: Thèse

« with this concept one has for the first time succeeded in giving an absolute definition of an interesting epistemological notion. » (Gödel, cité par Sieg, 1994).

L’auteur de cet article est Alan Mathison Turing. Dans ce travail, il n’a pas essayé de

prolonger une notion étroite de manière réductible comme Post le propose avec sa formulation

1 et la réduction de formulations plus larges, son travail apparaît plutôt comme un

approfondissement de l'argument étape par étape de Church mais en se focalisant uniquement

sur les opérations mécaniques sous- tendant les étapes et en formulant des conditions

restrictives qui garantissent leurs récursivités. Turing a analysé le large concept de

calculabilité et l’a réduit en un concept étroit une fois pour toutes (Sieg, 1994).

1.2 - La machine de Turing

1.2.1 - L’analogie humaine

1.2.1.1 – Analyse des conditions restrictives d'une procédure de calcul efficace et récursive

Ce serait au cours d’un après midi de l’été 1935, allongé sur un pré après un footing

alors qu’il reprenait haleine, qu’Alan Turing eut la révélation de sa « machine » (Gandy,

1988). Pour la mettre en place, il analyse le comportement d'un calculateur entrain d'effectuer

des opérations et modélise les étapes qu'il extrait de cette analyse. Deux aspects du

comportement du calculateur intéressent Turing.

Le premier aspect fait référence à un individu entrain d'effectuer des calculs dont le

comportement est à tout instant déterminé par les chiffres qu’il observe et par son « état

mental du moment » ou état interne. A chaque fois, ce calculateur humain ne peut observer

qu’un nombre limité de chiffres à la fois. S’il veut en consulter un plus grand nombre, il doit

faire plusieurs observations successives. Il est également nécessaire de prendre en

considération l’idée que le nombre d'états mentaux que ce calculateur peut posséder pendant

les calculs est fini.

Le deuxième aspect fait référence à un calculateur humain qui peut interrompre sa

tâche, quitter son lieu de travail et oublier tout ce qui s’y rapporte, pour revenir plus tard et

reprendre son calcul là où il l’avait laissé. Pour que cela puisse se faire sans problème, il doit

25

Page 27: Thèse

conserver une notice où se trouvent consigner un certain nombre d’instructions. Si ce

calculateur travaille de façon décousue au point de n’effectuer qu’une seule opération à

chaque fois, chaque notice qu’il établira lui permettra de mener à bien une opération suivante,

et d’écrire la nouvelle notice.

Pour ce qui est de la tâche elle – même, le calcul est supposé s’effectuer sur un papier

divisé séquentiellement en carrés comme l'étaient les cahiers d'arithmétiques des écoliers de

l'époque. Les chiffres susceptibles d’être inscrits sur ce papier sont en nombre finis.

Turing suppose que le travail du calculateur humain peut être divisé en une suite

d’ « opérations élémentaires », tellement simples qu’il serait difficile de les diviser davantage.

Une fois qu’une opération élémentaire est effectuée, elle est censée modifier l’état du

calculateur (l’humain qui doit passer à l’étape suivante) et du papier (ce qui correspond à

l’inscription du résultat intermédiaire). L’état général de ce système (calculateur + papier) est

entièrement décrit par trois aspects : l’ensemble des chiffres inscrits sur le papier (symboles),

la liste des règles observées par le calculateur (instructions) et son état mental.

Pour que le travail du calculateur soit efficace, trois caractéristiques doivent être

précisées : la distance entre deux cases observées, les changements provoqués par une

opération élémentaire et ce qui détermine la prochaine opération à effectuer.

Le calculateur doit pouvoir reconnaître immédiatement une nouvelle case à observer.

Par conséquent, chaque nouvelle case observée doit être à une certaine distance (pas trop

grande) des cases observées à l’instant précédent.

Chaque opération élémentaire devra provoquer chez le calculateur soit un changement

éventuel de chiffres soit un changement éventuel des cases observées. Chacun de ces

changements s’accompagnera d’un éventuel changement de l’état mental.

C’est l’état mental du calculateur et les chiffres qu’il observe qui déterminent

l’opération à effectuer et en particulier le nouvel état mental dans lequel il se retrouvera après

l’exécution de ladite opération.

Turing affirme qu’il est possible de construire une machine capable de faire le même

travail que ce calculateur humain.

Ce que Turing livre ainsi en vrac dans son article de 1936 sont les conditions et les

étapes nécessaires d'une procédure de calcul efficace et récursive. Ces étapes étaient

importantes à déterminer car la solution calculatoire au problème de la décision passait par

une clarification de ce qu'on entendait par calculabilité efficace et récursivité. Il a fallut

attendre 58 ans, soit plus d'un demi siècle après la publication de l'article de Turing, pour

qu'une clarification de cette analyse soit faite par un philosophe : Wilfried Sieg (Sieg, 1994;

26

Page 28: Thèse

Sieg, 2006).

Il y a trois conditions, elles tiennent compte des limites de la mémoire et du système

sensoriel humain : la condition du déterminisme, celle des limites et celle de la localité.

Déterminisme :

Le comportement d’un calculateur est déterminé à tout moment uniquement par deux

facteurs : les symboles de la configuration symbolique qu’il observe et son état mental ou état

interne. Cette condition implique que chaque opération suivante est déterminée par la

configuration symbolique actuelle.

Limite :

(1.1) Il y a un nombre limité de configurations symboliques qu’un calculateur peut

immédiatement reconnaître.

(1.2) Il y a un nombre limité d’états mentaux qui sont pris en compte.

Localité :

(2.1) Seuls les éléments des configurations symboliques observées peuvent être

changés.

(2.2) Après le changement, chacun des nouveaux carrés observés doit être à l’intérieur

d’une distance limitée des carrés observés précédemment.

Il y a récursivité dans les étapes parce que les modifications apportées par la condition

de localité font que les nouveaux carrés observés de 2.2 se situeront parmi les configurations

symboliques qu’un calculateur peut immédiatement reconnaître ; c’est – à – dire dans la

condition de limitation 1.1.

La thèse de Turing énonce qu’une personne qui exécute une procédure symbolique

efficace doit satisfaire les conditions de déterminisme, des limites et de localité.

Le théorème de Turing affirme que toute fonction numérique qui peut être calculée par

une procédure satisfaisant les conditions de déterminisme, des limites et de localité est une

fonction récursive.

La combinaison du théorème et de la thèse conduit à la conclusion que les fonctions

dont les valeurs numériques peuvent être trouvées par des procédures efficaces symboliques

sont des fonctions récursives. Avec cette analyse, Turing montre que chaque étape est

nécessairement récursive et que chacune d’elle peut être exécutée par une machine.

Cette analyse constitue la contribution majeure de Turing puisqu'il réussit là où

Church, Post et même Gödel avaient échoué : l'analyse pertinente et simple de la notion de

calculabilité efficace. Mais pour que cette contribution prennent tout son sens il restait une

27

Page 29: Thèse

dernière étape à franchir : la modélisation sous forme de machine des étapes d'une procédure

de calcul efficace et récursive. Pour modéliser ce comportement humain, quelques

ajustements avaient été nécessaires.

1.2.1.2 - La structure de la machine

Ce que Turing se propose de construire est une abstraction mathématique, une pure

démonstration de logique formelle qui n’existe que sur papier. Au niveau de la forme, les

choses se passeront dans cette machine comme cela s’est fait pour le calculateur humain.

A chaque état mental du calculateur correspondra ce qu’il appelle une m –

configuration (état interne de la machine). Cette dernière pourra conduire à l’inspection à tout

moment du même nombre de cases correspondant à celles observées par le calculateur

humain.

A chaque instant la m - configuration conduira soit à un changement de symboles dans

l’une des cases inspectées, soit à l'inspection d'une nouvelle case située à une certaine distance

des cases déjà inspectées.

Les symboles inspectés et la m – configuration détermineront d’une part le

mouvement que la machine aura à effectuer et d’autre part la nouvelle configuration (état

interne suivant) de la machine.

Il affirme qu’avec une telle procédure : m – configuration, inspection des cases,

changement de symboles, changement de cases, indication de la configuration suivante, il est

possible de construire une machine qui calculera la même séquence (nombre) que le

calculateur humain.

Turing laisse entendre que si une tâche est divisée en une suite d’étapes simples de

façon à pouvoir être exécutée par un être humain, il est possible de construire une machine

capable d’effectuer la même tâche. Autrement dit, un nombre est efficacement calculable si

les différentes étapes du calcul peuvent être effectuées aussi bien par un être humain que par

une machine. Dans son argumentation, il utilise l’expression « il existe une procédure

générale pour déterminer si … » comme l’équivalent de « il existe une machine qui détermine

si … ».

Dans un autre développement, Turing se débarrasse de la notion d’état mental mais

conserve l’analogie humaine. Pour que sa transposition de la procédure du calculateur humain

à la machine soit possible, quelques ajustements sont requis. On a vu que le calculateur

28

Page 30: Thèse

humain, après interruption de son travail, pouvait avoir une notice où se trouve consigner un

certain nombre d’instructions indiquant comment reprendre son calcul. L’état mental évoqué

précédemment est remplacé par la notice chez le calculateur humain.

Ainsi l’état d’avancement du calcul serait entièrement déterminé, à tout instant, par la

notice et le contenu du papier. Pour décrire l’état exact du système tel qu’il se présente à

chaque pas du calcul, il suffirait d’une seule expression. Cette expression pourrait s’appeler

formule d’état où à chaque pas, la nouvelle formule d’état dépendrait uniquement de la

précédente.

Turing affirme qu’il existe un axiome qui exprime les règles que doit suivre le

calculateur humain en face d’une formule d’état de n’importe quelle étape en vue d’obtenir la

suivante. Dans ce cas, affirme Turing, il est possible de construire une machine qui inscrit les

formules d’états successives et par là même calcule le nombre recherché.

Pour faciliter la compréhension de la machine que Turing se propose de mettre en

place, il faut garder présent à l’esprit les analogies qu’il établit entre cette supposée machine

et le calculateur humain. Le papier utilisé par l’humain deviendra une bande ou un ruban, les

chiffres seront désormais connus sous l’appellation générale de symboles, aux états mentaux

vont correspondre des m - configurations et les notices deviendront un ensemble de

séquences d’instructions ou formule d’état.

Tableau 1- Analogie entre un calculateur et une machine supposée

Calculateur humain

(Eléments nécessaires pour

un calcul)

Machine supposée

(éléments nécessaires pour

un calcul)

Papier et/ou mémoire Bande (ou ruban)

Chiffres Symboles

Etat mental m - configuration

Notice Séquence d’instructions

29

Page 31: Thèse

La machine abstraite de Turing dispose d'un automaton qui contient les états internes,

d'un ruban infiniment long (sa mémoire) divisé en sections appelées carrés ou cases sur lequel

l'automaton se déplace. Chacun de ces carrés peut porter un symbole, ce carré est le "carré

balayé" (scanned square). Le symbole porté par ce carré est le "symbole balayé" (scanned

symbol). La machine possède également une tête de lecture / écriture qui se positionne avec

l'automaton sur les carrés du ruban pour lire ce qui s'y trouve inscrit.

Fig. 1. Représentation artistique d’une machine de Turing.

Extrait de http://commons.wikimedia.org/wiki/Image:Turing_Machine.png

Le comportement possible de la machine à chaque instant est déterminé par l'état

interne (m - configuration) et le symbole balayé. Cette paire, état interne et symbole balayé,

est appelée configuration ou "état d'esprit". La machine a quatre comportements possible :

imprimer un symbole, effacer un symbole, se déplacer à gauche ou à droite. Turing affirme

que ces quatre comportements, dont sa machine est capable, inclus tous ceux qui sont utilisés

dans le calcul d'un nombre. Les symboles qui seront écrits sur la bande à la fin de la tâche

formeront la séquence de figures qui est la décimale du nombre réel calculé.

Pour résumer, la machine que Turing propose à un nombre d'états internes et de

symboles limités. La paire état interne et symbole balayé formant ce qu'on appelle une

configuration, il s'en suit que la machine de Turing à un nombre de configurations limités et

ce sont elles qui déterminent le comportement de la machine. Les états internes de la

machines, selon Turing lui – même, sont des « états mentaux ».

La structure « physique » d'une machine de Turing est donc constituée d'un

automaton, d'une bande infiniment longue divisé séquentiellement en carrés et d'une tête de

30

Page 32: Thèse

lecture / écriture. Cette structure n'est rien d'autre que l'adaptation de la situation du

calculateur humain entrain d'effectuer des opérations à l'aide d'un papier – crayon, papier

divisé en carrés comme l'était les cachiers d'arithmétique des écoliers de l'époque.

L'automaton qui contient les états internes correspond à l'esprit du calculateur, le ruban

infiniment long divisé en carrés au papier ou cahier du calculateur, la tête de lecture / écriture

dans son aspect écriture correspond au crayon du calculateur.

Il est donc évident que le contrôleur d’états finis ou automaton représente l’esprit du

calculateur humain, le ruban infini la feuille de papier et c’est le fonctionnement de cet

automaton qui requiert un nombre d'états internes limités. Mais si ce qui représente l’esprit est

limité dans son mode de fonctionnement, alors il constitue une entité complètement distincte

du ruban / mémoire infiniment long.

Il apparaît très clairement qu’à travers sa machine, Turing ne modélisait pas

uniquement les processus qui se passent à l’intérieur de l’esprit mais plutôt le processus

interactif impliquant à la fois l’esprit et un medium externe qui est le papier utilisé par le

calculateur humain pour les travaux intermédiaires et l’enregistrement des résultats (Wells,

1998). Ainsi, le contrôleur d’états fini ou automaton est l’équivalent du cerveau, le

mécanisme ruban / mémoire l’équivalent de l’environnement externe (Wells, 1998).

La machine de Turing dans son ensemble ; contrôleur d’états finis, mémoire / ruban et

tête de lecture / écriture, est le modèle d’un système interactif constitué d’un agent et d’un

environnement. Il s’en suit que la computation cognitive dans un tel cas est un processus

d’interaction organisme – environnement et que l’analyse de Turing constitue la première

exploration systématique de l’interaction agent –environnement (Wells, 1998). L’architecture

contrôle (les états internes) et l’architecture d’entrée (syntaxe des données) d’une machine de

Turing sont co – désignées et la fonction calculée est une propriété émergente de leur

interaction.

Une fois que la structure physique de la machine de Turing ait été dérivée de la

situation du calculateur humain entrain d'effectuer des opérations à l'aide d'un papier –

crayon, il restait à montrer que cette machine, conformément à l'analyse des conditions

restrictives, pouvait calculer tout ce qui est calculable.

31

Page 33: Thèse

1.2.2 – L’importance de la syntaxe dans le programme d’instructions et la notion de calcul selon Turing

1.2.2.1 – Exemple d’une séquence calculable et sa syntaxe

Les lignes d'un programme de la machine de Turing peuvent être écrites sous la forme

suivante :

Configuration-m symbole opérations configurations-finales

qi Sj PSk, G qm qi Sj PSk, D qm qi Sj PSk qm

Une séquence d'instruction s'écrit sous la forme qiSkClqm avec qi qui indique l'état

interne actuel de la machine, Sk le symbole inspecté, Cl pour le déplacement à gauche ou à

droite et qm le nouvel état interne.

Une machine de Turing peut donc être construite pour calculer (écrire) une séquence

comme 01. Pour que cela soit possible la machine doit avoir quatre configurations "q1", "q2",

"q3", "q4" et être capable d'imprimer "0" et "1". Le comportement de la machine est décrit

dans le programme ci-dessous dans lequel "D" signifie "la machine se déplace et balaie le

carré immédiatement sur la droite de celui qu'il avait précédemment balayé". Il en est de

même pour "G" pour ce qui est du côté gauche. "E", lorsqu'il y en a, signifie que le symbole

balayé est "écrasé" et "P" prêt pour imprimer. Ce programme signifie que les opérations de la

troisième colonne ne peuvent être exécutées que si les deux premières l'ont été.

Configurations – m Symbole Opérations Configurations finales

q1 S0 PS1, D q2 q2 S0 PS0, D q3q3 S0 PS2, D q4q4 S0 PS0, D q1

Quand la machine commence son travail dans la configuration - m q1 il n’y a aucun

symbole dans la case balayée, l’instruction demande d’imprimer d’abord 0 dans cette case et

32

Page 34: Thèse

ensuite de déplacer la tête de lecture dans la case de droite. A la fin de cette première

opération la machine se trouve dans la configuration q2.

Au début de la configuration q2 il n’y a toujours aucun symbole dans le carré inspecté,

l’instruction demande à la tête de lecture de se déplacer dans la case située à droite. A la fin

de la deuxième ligne la machine se trouve dans la configuration q3.

Au début de q3 il n’y a toujours aucun symbole dans la case balayée, l’instruction

demande d’abord d’imprimer 1 et ensuite de déplacer la tête de lecture vers la case située à

droite. A la fin de la troisième ligne la machine se trouve dans la configuration q4.

Au début de q4 il n’y a toujours aucun symbole dans le carré inspecté, l’instruction

demande à la tête de lecture de se positionner sur la case de droite. A la fin de la quatrième

ligne la machine se retrouve à nouveau dans la configuration q1. A la fin de ces quatre

configurations la machine aura inscrit sur sa bande les chiffres 0 et 1.

Une séquence calculable de ce type est donc déterminée par un programme ou une

série d'instructions et, toute séquence calculable peut-être décrite en terme de programme. Le

traitement des instructions obéissant à un ordre précis, une instruction dans une machine de

Turing possède donc une syntaxe constitué par l'état interne actuel de la machine, le symbole

balayé, les mouvements de l'automaton et de la tête de lecture / écriture et le nouvel état

interne.

Turing veut mettre ces programmes sous une forme standard ; mettre en place ce qu'il

appelle une description standard et un nombre descriptif. Autrement dit, opérer des

transformations sur les instructions de départ pour aboutir à la fin à un code numérique. Cette

description standard et ce nombre descriptif sont importants pour la démonstration qu’il veut

faire pour montrer l'indécidabilité de certaines situations.

La description standard est obtenue en mettant bout à bout l'ensemble des instructions

dans un premier temps et ensuite en remplaçant chaque composant de la syntaxe par des

lettres précises de l'alphabet. La description standard de la machine qui calcule 01 est :

DADDCRDAA ; DAADDRDAAA ; DAAADDCCRDAAAA ; DAAAADDRDA ;

Le nombre descriptif de la machine est obtenu en remplaçant chaque lettre par un chiffre

précis, ce qui donne :

31332531173113353111731113322531111731111335317

Le nombre descriptif de la machine peut être représenté aussi sous forme binaire. C'est en

s'aidant de la codification binaire de ce nombre descriptif qu'on montrera qu'une machine de

Turing ne peut pas tout calculer. La représentation binaire de la machine qui calcule 01 est :

100001011000000110001011100000011100111011110000001111000101000000

33

Page 35: Thèse

Ce nombre descriptif détermine uniquement la description standard et la structure de la

machine qui calcule la séquence 01. Si on veut calculer autre chose, il faut construire une

autre machine. Il existe donc potentiellement une infinité de machines de Turing, chacune

destinée uniquement à une tâche (calcul) particulière.

Ainsi, pour calculer par exemple 2 + 1 il faut une nouvelle machine à qui on

déterminera un nombre descriptif. Pour effectuer ce calcul, l’entier 2 et 1 doivent être

représentés sous la forme binaire. 2 devient 110 et 1 devient 10. Sur la bande, les données de

départ (2 + 1) seront représentées sous la forme 11010. Le résultat devra s’afficher sur la

bande sous la forme de 111 avec de part et d’autre 0 comme ponctuation. Le programme pour

effectuer le calcul se présente sous la forme suivante avec trois m - configurations :

m -configuration Symbole balayé Opération de la tête de lecture Configuration suivante

1 1 Remplacer le symbole par 0 1 1 0 Déplacer d’une case à droite 2 2 1 Déplacer d’une case à droite 2 2 0 Remplacer le symbole par 1 3 3 1 Déplacer d’une case à gauche 3 3 1 Déplacer d’une case à gauche 3 3 0 Déplacer d’une case à droite 4

Le fonctionnement de la machine (balayage et impression des symboles) peut être

représentée sous une forme plus simple comme ci -dessous (Johnson – Laird, 1983) avec

11010 comme données de départ sur lesquelles la machine doit effectuer son calcul, la flèche

indique le symbole actuellement balayé et le nombre dans le cercle l’état interne de la

machine ou sa configuration.

11010 01010 01010 01010 01110 01110 01110 01110

Balayage de la tête de lecture d’une machine de Turing pour le calcul de 2 + 1 (Johnson-Laird, 1983)

Ainsi lorsque la machine est lancée avec sa première configuration, le symbole balayé

est 1. L’instruction demande à la tête de lecture de remplacer ce chiffre par 0.

1 1 2 2 3 3 3 4

34

Page 36: Thèse

Lorsque ce remplacement est fait nous restons toujours dans la première configuration

mais cette fois le symbole balayé est maintenant 0. L’instruction demande à la tête de lecture

de se positionner sur la case de droite.

On passe ainsi à la configuration 2 avec comme symbole balayé le chiffre 1.

L’instruction demande à nouveau à la tête de lecture de se déplacer d’une case à droite.

On reste dans la configuration 2, cette fois le symbole balayé est 0. L’instruction

demande à la tête de lecture de remplacer celui - ci par 1.

Lorsque ce remplacement est fait, on passe à la configuration 3 avec comme symbole

balayé 1. L’instruction demande à la tête de lecture de se déplacer d’une case vers la gauche.

Après ce déplacement à gauche on reste toujours dans la configuration 3 avec comme

symbole balayé le chiffre 1. L’instruction demande à nouveau à la tête de lecture de se

déplacer d’une case vers la gauche.

On reste dans la configuration 3 mais le symbole balayé cette fois est 0. L’instruction

demande à la tête de lecture de se positionner sur la case située à droite. La machine s’arrête

là car cet état interne correspondrait à une configuration 4 qui n’a pas été définie. Après

exécution des instructions par la machine on obtient comme résultat sur la bande 01110 qui

correspond bien à 3 qui est le résultat de 2 + 1.

On peut avoir directement le nombre descriptif qui détermine la description standard

de cette machine qui s’obtient en codant sous la forme binaire les différentes étapes d’une

instruction et en juxtaposant les instructions ainsi codées les unes à côté des autres. Ce

nombre descriptif est :

10100100000100011100000110101110000011001111100000111011011100000

Dans ce calcul de 2 + 1, nous avons 3 m - configurations. Chacune d'elles est toujours

constituée en suivant le même ordre : l’état interne de la machine (m - configuration), le

symbole balayé, l’opération de la tête de lecture et le nouvel état interne de la machine. Une

séquence d’instruction comporte une syntaxe et le traitement des instructions par l'automaton,

la dérivation causale d'un composant de la syntaxe à un autre constitue ce que Turing appelle

calculs.

Sur cette histoire de syntaxe et de dérivation causale, Turing n'innove pas. Il respecte

scrupuleusement ce qui avait été dit avant lui par les spécialistes de la calculabilité à savoir

que les inférences devaient se porter sur la syntaxe des phrases ou des formules sans référence

à leur contenu ( Fege et McGuinness, 1984; Gödel) . Là où Turing innove c'est effectivement

35

Page 37: Thèse

que sa machine pour exécuter ses calculs procède exactement comme dans l'analyse qu'il a

faite du calculateur humain.

Il y a du déterminisme parce que l'état interne actuel de la machine et le symbole

balayé fixe la prochaine étape de computation. La condition des limites est respectée parce

que dans une machine de Turing le nombre de configurations symboliques possibles que

l'automaton peut reconnaître immédiatement est limité ainsi que le nombre des états internes

et enfin la condition de localité est respectée parce que seuls les symboles inspectés peuvent

être changés (imprimer 0 ou 1 ou les effacer) et après un changement (mouvement de la tête

de lecture à gauche ou à droite) les nouveaux carrés inspectés sont à l'intérieur d'une distance

limitée du carré observé précédemment.

Après avoir correctement modélisé le comportement du calculateur humain, qui est la

démonstration d’une procédure efficace et récursive, il ne restait plus qu'à montrer qu'il existe

des situations indécidables et pour cela, il fallait passer par la machine universelle.

1.2.2.2 – La démonstration négative de la calculabilité et du problème de la décision à l’aide du procédé diagonal

Après avoir décrit la machine « simple » Turing se consacre à la démonstration d'une

machine singulière qui se caractérise par sa capacité à copier, à simuler le fonctionnement de

n'importe quelle autre machine de Turing.

Pour que cette simulation soit possible on doit fournir à cette machine de Turing

singulière une bande au début de laquelle est écrite la description standard d'une machine de

Turing quelconque. La première effectuera chaque étape du calcul d’une séquence en se

référant aux règles de la description standard de la deuxième. La machine singulière calculera

ainsi la séquence que la machine de Turing quelconque calculerait si elle était construite.

Cette machine singulière a été dénommée machine universelle.

Une machine universelle lit les informations en nombre binaires (ou en chaîne de

caractères dans le cas de la démonstration de Turing) encodant les instructions d'une machine

particulière de Turing. Les instructions de la machine universelle la rendent capable

d'interpréter ces instructions binaires et de les exécuter sur les données.

Par ailleurs, pour la démonstration négative de la calculabilité et du problème de la

décision il convient de distinguer au préalable deux types de fonctionnement des machines ;

acyclique et cyclique. Une machine est acyclique lorsqu’elle est capable de calculer un

36

Page 38: Thèse

nombre ou une fonction en un nombre fini d’étapes récursives, une machine cyclique n’en est

pas capable.

D’autre part, une séquence calculable peut avoir plusieurs nombres descriptifs ; c’est –

à – dire qu’on peut construire différentes machines de Turing pour calculer le même nombre.

Mais, un nombre descriptif ne peut avoir qu’une séquence calculable ; c’est – à – dire, une

machine de Turing quelconque n’est conçue que pour calculer un unique nombre. Le nombre

descriptif étant le nombre qui détermine la structure de la machine (ce qu’elle est capable de

calculer). Le nombre descriptif d’une machine est une séquence calculable. Et un nombre est

dit satisfaisant s’il est le nombre descriptif d’une machine acyclique.

Lorsqu’on est confronté à des nombres réels par exemple, on peut penser que la limite

(le dernier chiffre) de la suite d’une séquence calculable est toujours calculable. Le problème

de l’énumération des séquences calculables est équivalent, selon Turing, à celui qui consiste à

déterminer si un nombre donné est le numéro descriptif d’une machine acyclique et Turing

affirme qu’il n’existe pas de procédure générale pour le faire en un nombre fini d’étapes

récursives.

Pour le démontrer, il utilise le procédé diagonal et pose l’existence d’une séquence

calculable β’ et suppose l’inverse (procédé diagonal oblige) ; il existe une procédure qui

comporte un nombre fini d’étapes récursives dans l’énumération des séquences calculables de

β’. Dit autrement, il existe une procédure pour déterminer en un nombre fini d’étapes

récursives que β’ est le nombre descriptif d’une machine acyclique. En suivant correctement

le raisonnement diagonal, on doit aboutir à une contradiction.

On suppose la construction d’une machine D à qui on fournit tour à tour le nombre

descriptif de machines de Turing quelconques N et K. Ces deux numéros descriptifs sont

supposés calculer la même séquence. La fonction de la machine D consistera à tester si N et K

sont satisfaisants. On combine ensuite la machine D avec une machine universelle pour

construire la machine N qui calcul la séquence voulue (soit β’).

Au cours des premiers actes de la machine N, les premiers entiers du nombre descriptif

de N seront inscrits sur la bande et testés par la machine D. Les premières chiffres des

différentes séquences seront identifiées comme étant des nombres descriptifs de machines

acycliques. Durant l’acte final N, le dernier chiffre de la dernière séquence est inscrit sur la

bande en tant que l’un des chiffres de la séquence β’ que calcul N. Ainsi, N est acyclique.

’ est satisfaisant puisqu’il est le nombre descriptif de la machine N et que cette

machine est acyclique parce que chaque acte s’achève en un nombre fini d’étapes et ceci est

conforme à l’hypothèse faite sur D où on suppose qu’il existe une procédure qui comporte un

37

Page 39: Thèse

nombre fini d’étapes récursives consistant à déterminer si un nombre donné est le nombre

descriptif d’une machine acyclique.

On suppose maintenant que K est le nombre descriptif de la machine N. Cela est

possible puisqu’une séquence calculable (β’ par exemple) peut avoir plusieurs nombres

descriptifs ou plusieurs machine de Turing pour la calculer (ici N et K). La machine D fera

comme précédemment, elle testera si K est satisfaisant. Mais puisqu’on vient de montrer que

N est acyclique et que K est un nombre descriptif de la machine N, le test ne peut pas être

négatif. Turing affirme qu’il ne peut pas être positif non plus. Si on part du principe que K est

satisfaisant, les premiers chiffres de la séquence générale seront calculées et le dernier chiffre

devra être inscrit comme étant l’un des chiffres de cette séquence.

Turing affirme que le calcul des premiers chiffres s’effectuerait sans difficultés mais

que les problèmes surgiraient pour le dernier terme de la séquence. Calculer le dernier chiffre

reviendrait à calculer les premiers chiffres de la séquence calculée par la machine N, ainsi de

suite si bien qu’il serait impossible de trouver le dernier chiffre. Ainsi N est cyclique

contrairement à ce qu’on a prétendu pour cette même machine avec la séquence ’. On a

aboutit à une contradiction ; avec N comme nombre descriptif la machine est acyclique, avec

K comme numéro descriptif la même machine est cyclique, ce qui oblige a rejeter l’hypothèse

de départ selon laquelle il existe une procédure qui comporte un nombre fini d’étapes

récursives et qui consiste à déterminer si un nombre donné est le numéro descriptif d’une

machine acyclique et à conclure d’une part que la machine D ne peut exister et surtout qu’il

n’existe pas de machine capable de déterminer si un nombre donné est le numéro descriptif

d’une machine acyclique.

Et c’est la démonstration parfaite d’une situation indécidable dont le point de départ

avait été l’analyse de la procédure efficace et récursive d’un calculateur humain, procédure

qui finit par être modélisée sous forme de machine. Cette démonstration de Turing sur

l’incapacité de ses machines à pouvoir déterminer si un nombre donné est le nombre

descriptif d’une machine acyclique constitue aussi la démonstration négative de la

calculabilité (tout n’est pas calculable efficacement) ainsi que la réponse négative au

problème de la décision et cela, de façon calculatoire. Cette démonstration de Turing est plus

connue sous l’expression de problème de l’arrêt.

Il y a une autre manière de mettre en évidence l’impossibilité des machines de Turing

à pouvoir tout calculer. Dans la mesure où chaque chaîne de caractères ou description

standard représentant une machine de Turing peut être correctement interprété comme un

nombre quand elle est codée en binaire, la série de descriptions standards de toutes les

38

Page 40: Thèse

machines de Turing possibles peut être mis dans un ordre numérique. Il y aura bien sûr une

infinité de descriptions standards, mais elles seront dénombrables ; l'ordre numérique des

descriptions standards de l'ensemble des machines de Turing possibles peut – être mis en

relation un par un avec les entiers naturels 1, 2, 3, ... jusqu'à l'infini parce que chaque

description standard est en réalité une représentation binaire d'un nombre entier.

A la différence du nombre de toutes les machines de Turing possibles qui peut être

énuméré, la série de toutes les fonctions possibles des nombres entiers n'est pas dénombrable ;

il y aurait plus de fonctions que de nombres, l'infinité des fonctions possibles est plus grande

que l'infinité des nombres entiers (Turing et Girard, 1995). Autrement dit, il n'y a pas de

correspondance bijective entre le nombre de fonctions et les nombres entiers. Il y a une

infinité de nombres entiers, mais cette infinité serait plus petite que l'infinité des fonctions des

nombres entiers. La preuve, entre autre, est obtenue lorsqu'on constate qu'en essayant d'établir

des listes de telles fonctions il y en a toujours qui ne sont pas prises en compte.

Puisqu'il y a plus de fonctions qui peuvent être listée qu'il n'y a de nombres entiers, il

s'en suit qu’il y a plus de fonctions que de machines de Turing puisque ces dernières peuvent

être dénombrées et qu’il n’y aurait pas de descriptions standards correspondant aux machines

qui devraient calculer ces fonctions supplémentaires.

Ce qui est intéressant pour nous, ce sont les deux types de fonctionnement des

machines de Turing : acyclique et cyclique. Lorsque le nombre ou la fonction est calculable à

l’aide d’une procédure efficace et récursive, la machine est dite acyclique. Lorsque le nombre

ou la fonction n’est pas calculable à l’aide d’une procédure efficace, la machine adopte un

fonctionnement cyclique, avec des retours fréquents sur le calcul des premiers termes de la

séquence à calculer.

Dès les débuts de son article, Turing donne une définition quelque peu déconcertante

et au premier abord assez floue de ce qu’il entend par machine cyclique :

« … une machine est cyclique si elle atteint une configuration à partir de laquelle plus

aucun mouvement n’est possible ; de même, si elle continue à fonctionner en imprimant plus

rien, ou seulement des symboles de la deuxième famille ; » (Turing et Girard, 1995)

Nous aurons l’occasion de mesurée la pertinence de cette définition lorsque nous

serons confrontés aux données expérimentales car elle reflète assez bien un aspect du

fonctionnement cognitif humain sur Internet.

39

Page 41: Thèse

1.3 - L'architecture Von Neumann (Le processeur dans l’ordinateur)

1.3.1 – Présentation générale de l’architecture

Dans deux rapports ; l’un accessible Preliminary discussion of the logical design of an

electronic computing instrument (Burks, Goldstine, Von Neumann, 1946) et l’autre plus

technique First draft of a report on the EDVAC (Von Neumann, 1945), Von Neumann

élabore un modèle d'architecture pour les ordinateurs qui est un descendant de la machine

universel de Turing et qui est toujours en usage à ce jour. L'un des problèmes majeurs est une

question de stockage des données et des programmes, en d'autres termes, c'est un problème de

mémoire. Il s’agit, entre autre, de résoudre la difficulté que présente le ruban infiniment long

de Turing. Cette architecture procède à un câblage de certains processus comme les 4

principales opérations (addition, soustraction, multiplication, division), elles sont parties

intégrantes du hardware. Tout modèle ou théorie psychologique qui s’inspirera de cette

architecture optera implicitement pour un câblage des processus cognitifs, au moins

partiellement.

La machine doit être capable de conserver aussi bien les informations nécessaires au

calcul de certaines valeurs, les résultats intermédiaires et finaux ainsi que les instructions des

programmes. Ces instructions sont également une partie intégrante du matériel et constituent

une partie de sa structure de conception.

Figure 2. L’architecture Von Neumann (Hartree, 1949)

D’un point de vue général il doit être possible de donner des ordres au dispositif pour

exécuter tout calcul qui peut être exprimé en terme numérique. Pour que cela soit possible il

faut qu’il existe un support capable de stocker les instructions des programmes : c’est l’unité

mémoire. Il faut également qu’il existe un support capable d’effectuer les opérations

40

Page 42: Thèse

arithmétiques élémentaires : c’est l’unité arithmétique. Il faut enfin un dispositif qui peut

comprendre ces instructions et ordonner leur exécution : c’est l’unité de contrôle.

Le modèle que propose Von Neumann est donc une architecture qui comporte trois

composants principaux : une unité mémoire, une unité arithmétique et une unité contrôle. La

machine doit également avoir un dispositif d'entrée-sortie par lequel l'opérateur humain et la

machine peuvent communiquer.

1.3.2 - L’unité mémoire

La principale contribution de l’équipe de Von Neumann est la résolution d'une

difficulté qui se situait au niveau de l'unité mémoire. Initialement il aurait fallu deux types de

mémoires, l'une pour le stockage des données et l'autre pour le stockage des instructions. Mais

puisqu’il est possible de transformer les instructions de la machine en code numérique et

puisque la machine est capable de faire la distinction entre les données stockées également en

code numérique et les instructions, alors l'unité mémoire de la machine sera utilisée pour

stocker à la fois les données et les instructions.

Dans ce modèle, les instructions sont placées en mémoire dans un endroit précis. Le

code de chaque instruction est composé d'un certain nombre de bits divisés en deux parties, il

y a une partie qui spécifie la localisation en mémoire et le reste indique la nature de

l'opération pour laquelle le code a été écrit. Autrement dit, chaque instruction à une adresse

dans l'unité mémoire.

Puisqu’il n’est pas possible de construire une mémoire infiniment grande, la solution

est dans la construction d’une hiérarchie de mémoires constituée à nouveau de trois

composants. Le premier d’entre eux est la mémoire qui constitue une partie de la structure de

conception de la machine, elle est intégrée à la machine et stocke les instructions vitales pour

son fonctionnement et ne peuvent pas être modifiées. (ce qu’on appelle aujourd’hui ROM =

read only memory)

Le second composant est également une partie intégrante de la machine. Ce support

est capable de stocker l’information pendant des périodes de temps assez longues de telle

sorte que seul un faible pourcentage du temps total de calcul est consacré au ré-

enregistrement de l’information qui se perd ou se fane. A partir de ce support il doit être

possible à un humain d’introduire des instructions et de les faire lire par la machine. Ce

41

Page 43: Thèse

second composant du stockage est donc une partie du système entréé-sortie. (Ce qu’on appelle

aujourd’hui RAM = random access memory)

Le troisième composant de stockage est un dispositif qui n’est pas intégré à la machine

et est capable de supporter une vaste quantité de stockage mort, les informations y sont

stockées dans le long terme. Une fois que ce dispositif est dans la machine, il passe sous la

direction du contrôle. (c’est le disque dur)

1.3.3 - L’unité arithmétique

L’unité arithmétique doit être capable d’effectuer les opérations arithmétiques

élémentaires comme l’addition, la soustraction, la multiplication, la division ainsi que des

opérations complexes et des opérations de logique. Cette unité comporte aussi divers

composants. Le premier est l’accumulateur, c’est un organe parallèle de stockage qui peut

recevoir un nombre et l’ajouter à ceux déjà présents, il est également capable de vider son

contenu et de transmettre des données. Un autre composant est le registre arithmétique, une

autre structure de stockage au sein de l’unité arithmétique.

Il existe deux types d’accumulateurs : ceux à charge statique et les dynamiques. Le

statique fonctionne comme un additionneur en s’appliquant simultanément des voltages

statiques à ses entrées, la dynamique à un fonctionnement successif.

L’unité arithmétique est le principal organe interne opérationnel du dispositif, les

connexions de transfert entre elle et l’unité mémoire sont très importantes. Il est nécessaire

que des transferts se fassent à partir de chaque partie de l’unité mémoire à l’unité

arithmétique ; dans l’accumulateur et le registre arithmétique, et inversement.

1.3.4 - L’unité contrôle

L’architecture contient une unité qui s’appelle le contrôle. La fonction de cette unité

est de recevoir des instructions, de les interpréter, de les exécuter ou de stimuler les organes

qui les exécutent. Le contrôle entretient une relation particulière avec la mémoire puisque

c’est dans celle-ci que sont stockées les instructions et c’est à partir d’elle que les instructions

sont envoyées au contrôle.

Pour le bon fonctionnement de la machine, une attention particulière est accordée aux

processus de transfert des instructions, des données et des résultats partiels. Les transferts

42

Page 44: Thèse

portent sur les trois entités qui constituent l’architecture : le contrôle, la mémoire et l’unité

arithmétique. Il y a principalement deux types de transfert, l’un concerne ceux qui sont

contrôlés par le système de commande de l’unité arithmétique et l’autre type qui se

partitionne en deux classes : les transferts de l’unité mémoire à l’unité arithmétique et les

transferts de l’unité arithmétique à la mémoire.

En principe le contrôle obéit aux instructions dans la séquence temporelle dans

laquelle elles apparaissent naturellement à la sortie de l’organe qui est connecté au contrôle.

Mais à des occasions exceptionnelles, il existe des instructions qui demandent au contrôle de

transférer sa connexion à un endroit désiré dans la mémoire.

Celle-ci doit être capable d'exécuter automatiquement les instructions stockées en

mémoire. Il doit connaître l'endroit où se trouve l'instruction à exécuter, conduire l'unité

mémoire à transmettre l'instruction à un registre de l'unité arithmétique et vice versa. Il doit

ensuite procéder à l'exécution de l'opération spécifiée. Pour ce faire, certaines instructions

commencent en provoquant le transfère du nombre qui est stocké dans un endroit spécifique

de la mémoire à un registre de l'unité arithmétique. Cette unité exécute certaines opérations

arithmétiques sur cette donnée et conserve le résultat dans la même unité arithmétique. Un

autre type d'instructions provoquent le transfère du nombre qui est maintenu dans le registre

de l'unité arithmétique et de là à un endroit spécifié de la mémoire. Le rôle principal du

contrôle, outre de faire exécuter automatiquement les instructions, consiste à synchroniser le

fonctionnement de l'unité mémoire et de l'unité arithmétique. L’unité de contrôle contient

plusieurs registres : le registre des tables de fonction utilisé pour décoder les instructions. Le

registre de contrôle qui est une mémoire temporaire. Le compteur de comptage nécessaire

pour se rappeler l’endroit où se trouve une instruction.

1.3.5 – Différences et ressemblances entre machine de Turing et architecture Von Neumann

Une machine de Turing est constituée d’un mécanisme de contrôle ou automaton qui

contient les états internes, d’une bande ou ruban infiniment long et d’une tête de lecture /

écriture qui les relient.

L’architecture Von Neumann est constituée d’une unité contrôle, d’une unité de

stockage de données et d’instructions et d’une unité arithmétique et logique. Dans un

43

Page 45: Thèse

ordinateur numérique les liaisons entre l’unité contrôle et l’unité mémoire se font à travers des

connexions câblées.

L’automation qui contient les états internes dans une machine de Turing devient

l’unité centrale chez Von Neumann. Le ruban infiniment long devient une mémoire

électronique finie. Le mécanisme d’adressage ou tête de lecture / écriture de la machine de

Turing ainsi que les déplacement du ruban deviennent les connexions câblées entre l’unité

contrôle et la mémoire.

Dans les ordinateurs numériques il y a maintient de la distinction fonctionnelle entre

contrôle et mémoire mais on occulte la distinction structurale en câblant le contrôle à une

mémoire finie et en incorporant le système résultant dans un unique cadre (l’architecture).

Alors que le mécanisme de contrôle (automaton) et le ruban mémoire sont des dispositifs

externes, ils deviennent internalisés dans un ordinateur numérique.

La conséquence est que, on transforme ce qui était une interaction entre un mécanisme

de contrôle et un medium externe ou entre un agent et un environnement dans la machine de

Turing en une interaction entre différentes parties d’un système interne (Wells, 1998). De

cette internalisation dans l’ordinateur Von Neumann on infèrera que le fonctionnement mental

résulterait d’une distinction fonctionnelle similaire implémentée quelque part dans

l’architecture du cerveau. Et aussi, que la computation mentale est un traitement interne de

symboles.

Chaque machine de Turing particulière imite une faculté particulière de l’esprit et elle

en est le modèle. La machine de Turing universelle imitant n’importe quelle machine de

Turing particulière, elle est le modèle des modèles. La machine de Turing universelle est donc

le modèle de l’esprit (Dupuy, 1994).

44

Page 46: Thèse

Chapitre 2 - La théorie computationnelle de l'esprit

2.1 - Le fonctionnalisme d'Hilary Putnam : l'équivalence esprit humain – machine de Turing

2.1.1 - L'isomorphisme fonctionnel

Le fonctionnalisme est le nom donné à la philosophie qui a fait de l'ordinateur le

modèle qui convient le mieux pour étudier l'esprit, c'est la philosophie qui sous – tend les

sciences cognitives, l'orthodoxie officielle (Putnam, 1990). Le fonctionnalisme a été mis en

place par Hilary Putnam, mais les contributions les plus importantes dans le domaine nous les

devons à un de ses anciens étudiants : Jerry Fodor.

Les états psychologiques ou les états mentaux sont des états computationnels du

cerveau. Autrement dit, les désirs et les croyances sont des traits définis en terme de calculs

au sens de Turing ainsi qu'en terme de relations à des entrées et des sorties caractérisées de

manière biologique. Le cerveau serait un ordinateur digital et notre psychologie le logiciel de

cet ordinateur (Putnam, 1990).

Le principe fondamental du fonctionnalisme est l'isomorphisme fonctionnel (Putnam,

1973). Deux systèmes sont fonctionnellement isomorphiques lorsqu'il y a une correspondance

entre les états computationnels de l'un et ceux de l'autre et que le même état interne conduit, à

travers des règles établies, à un autre état interne identique dans les deux systèmes.

Un ordinateur fait de composants électroniques peut être isomorphe à un autre fait de

rouages. Cela suppose que pour chaque état interne dans le premier, il y a un état interne

correspondant dans le second. Et dans les deux systèmes les relations de passage d'un état à

un autre sont identiques ; un état interne A par exemple, sera suivi par l'état interne B dans les

deux cas. L'isomorphisme fonctionnel ne concerne pas seulement les systèmes physiques

entre eux, cette relation est possible entre un système physique et un organisme biologique.

Ainsi, un ordinateur numérique peut avoir une relation fonctionnelement isomorphique avec

l'être humain. Pour que cette relation soit possible, il faut qu'on détermine un domaine

d'équivalence entre l'ordinateur et l'être humain. Le fonctionnalisme affirme qu'à un certain

niveau de fonctionnement, l'être humain est une machine de Turing (Putnam 1960, 1967,

1973). Il y a isomorphisme fonctionnel entre un ordinateur et un humain lorsque l'organisation

45

Page 47: Thèse

fonctionnelle est la même. La description ou organisation fonctionnelle est la description des

états discrets aussi bien du cerveau que de la table d'instructions d'une machine de Turing.

Il existe deux descriptions possibles du comportement de ce type de machine. Celle de

l'ingénieur qui ne concerne que la structure physique et celle du logicien qui concerne la table

d'instructions ou le programme. De la même manière, il y aurait aussi deux descriptions

possibles de la psychologie humaine. Il y a celle de l'approche comportementaliste qui vise à

fournir une description complètement physicaliste du comportement humain en établissant un

lien avec les aspects physiques et chimiques. Il existe aussi une description abstraite de la

psychologie humaine en termes d'états mentaux. Si une telle description pouvait être mise en

place, elle devra spécifier les lois contrôlant l'ordre dans lequel les états internes se succèdent

les uns aux autres et elle serait analogue à la table d'instructions d'une machine de Turing

(Putnam, 1960). Dans cet ordre d'idées, la description comportementaliste correspond à celle

de l'ingénieur sur l'aspect physique d'une machine de Turing. La description en terme d'états

mentaux correspond à celle du logicien à propos de la table d'instructions de la machine.

L'isomorphisme fonctionnel entre un ordinateur ou une machine de Turing et l'être

humain se situe au niveau de la table d'instructions pour la machine et de la description en

termes d'états mentaux pour l'être humain, leur organisation fonctionnel peut respectivement

être décrit en termes de séquences logiques et de séquences d'états mentaux. Autrement dit,

les états mentaux peuvent être définis comme les états et charges mémorielles du ruban d'une

machine de Turing. C'est du machinisme turingien pris à la lettre.

Appliquer plus précisément au domaine psychologique, le fonctionnalisme affirme que

deux systèmes sont fonctionnellement isomorphiques lorsqu'il y a une correspondance qui fait

de chacun d'eux des modèles de la même théorie psychologique ; ils sont ainsi des réalisations

isomorphiques de la même structure abstraite (Putnam, 1973).

2.1.2 - L'indépendance esprit – cerveau et la syntaxe du langage machine et humain

Du point de vue du fonctionnalisme, les états psychologiques ne sont pas des états du

cerveau dans le sens d'états physico – chimiques. Ce sont des états d'un autre type, des états

fonctionnels de l'ensemble de l'organisme à partir desquels on peut dériver des lois avec l'aide

des verbalisations (Putnam, 1960). Il y a une indépendance entre les premiers et les seconds.

46

Page 48: Thèse

Bien qu'il n'y ait aucune raison sérieuse de croire que le fonctionnement mental soit

explicable par des aspects physiques et chimiques, il y aurait cependant un isomorphisme

entre l'esprit et le cerveau. Mais la physique de l'esprit, si elle était découverte, sera tout à fait

différente de la physique du cerveau bien qu'au niveau de l'organisation fonctionnelle la

même description soit valable. Cette description serait formellement incompatible avec la

physique actuelle du cerveau (Putnam, 1973).

Cette indépendance entre l'esprit et le cerveau a conduit à des curiosités. Le

fonctionnalisme à ses débuts à affirmer que les descriptions des attitudes propositionnelles, ou

états fonctionnels, correspondent une à une à des états du cerveau et sont indépendants de

l'espèce. Autrement dit, un humain et un martien (s'il en existait) face à une situation donnée

pourraient se trouver dans le même état computationnel. Pour le dire encore autrement, les

états computationnels face à une situation donnée sont indépendants de la structure matérielle

de l'organisme et par conséquent de l'espèce. Croire aux fées, par exemple, est un état

computationnel en soi qui ne dépend pas de l'espèce qui a cette croyance : c'est l'autonomie de

la vie mentale.

Le problème philosophique de la relation entre le corps et l'esprit serait strictement

analogue au problème de la relation entre la structure matérielle et les états logiques d'une

machine de Turing. Bien que les deux problèmes ne soient pas identiques, la comparaison

prend du sens lorsque le fonctionnalisme se sert d'une analogie appropriée entre le langage

machine et le langage humain.

Si le langage machine est suffisamment complexe, alors il est possible de l'analyser

syntaxiquement en terme d'ensembles finis de blocs et de règles pour la construction d'un

ensemble potentiellement infini de phrases à partir de ces blocs. Il sera possible de distinguer

les phrases grammaticales des non grammaticales du point de vue du langage machine.

Là où veut en venir le fonctionnalisme c'est qu'à partir du moment où le langage

machine ou le langage de programmation à une syntaxe comme le langage humain, les règles

qui opèrent dans l'un seraient valables dans l'autre. Mieux encore, puisqu'il y a isomorphisme

fonctionnel entre la structure logique d'une machine de Turing et les états psychologiques, il

s'avère que les états mentaux ont une structure syntaxique et les règles qui opèrent aussi bien

dans le langage machine que dans le langage humain seraient valables pour l'études des

représentations mentales. Pour le fonctionnalisme, les représentations mentales ont une

structure syntaxique. Cette notion, empruntée à Turing, sera développée plus en détail par un

ancien étudiant d'Hilary Putnam : Jerry Fodor.

47

Page 49: Thèse

2.1.3 - Critique personnelle sur le fonctionnalisme d'Hilary Putnam

Il semblerait que l'erreur d'Hilary Putnam fût de s'être entêté à voir absolument dans

l'ordinateur numérique ou les machines de Turing une analogie ou l'illustration du vieux

problème philosophique sur les relations concernant l'esprit et le corps. En s'efforçant d'établir

une distinction entre le software d'une part et le hardware d'autre part et en établissant une

analogie entre l'esprit humain et le software et le reste de l'organisme avec le hardware, Hilary

Putnam y voyait la résolution du problème corps – esprit : l'ordinateur numérique fournissait

la preuve que l'esprit est distinct du corps par le biais de la relation entre le software et le

hardware. L'esprit serait au corps ce que le software est au hardware. Par conséquent l'esprit

est distinct du corps ou du cerveau, il affirme : « My conclusion is that we have what we

always wanted – an autonomous mental life. » (Putnam, 1973, p. 303)

La conséquence est que le fonctionnalisme a affirmé que les représentations mentales

(ce qui relève de l'esprit) sont irréductibles au biologique ou indépendantes de l'espèce, en

raison de l'autonomie de la vie mentale. Pourtant, cette affirmation de Putnam contraste avec

sa source d'inspiration : Alan Turing.

Le premier article sur le fonctionnalisme date de 1960, le dernier article de Turing sur

l'informatique date de 1954. Pendant toute sa vie d'adulte ou dans tous ses écrits sur

l'informatique, Turing s'est cantonné à une même ligne de pensée : la presque synonymie

entre hardware et software (Turing, 1945; Turing, 1948; Turing, 1950). Et à chaque fois que

l'occasion s'est présentée, la structure logique et son médium (software et hardware) sont

perçus comme une seule et même chose surtout lorsque l'analogie est faite avec l'être humain ;

le cortex est une machine de Turing, machine de Turing prise comme un tout (Intelligent

machinery, 1948), si on étudie bien l'esprit ce qu'on pourrait trouver à la fin sera uniquement

son support matériel (Computing machinery and intelligence, 1950).

Turing n'a jamais adhéré ou même pensé à l'idée d'une indépendance entre la structure

logique et le médium qui l'incarne. L'affirmation du fonctionnalisme à partir de 1960 selon

laquelle l'esprit est indépendant du corps ou que les représentations mentales sont

irréductibles au biologique sur la base de la relation entre software et hardware est totalement

et complètement erronée. L'ordinateur numérique, à travers la relation entre le hardware et le

software, ne fournit pas une analogie sur l'autonomie de la vie mentale des êtres humains.

Ce qui est surprenant c'est qu'on ait voulu faire du hardware quelque chose de très

différent du software ou encore faire de la structure logique quelque chose de très différent de

l'aspect matériel dans ce sens que le software correspondrait à l'esprit et le hardware au corps

48

Page 50: Thèse

ou au cerveau. Encore une fois, cette analogie n'a pas de sens parce qu'elle ne tient pas compte

de la réalité des faits. Ce fameux hardware, l'architecture Von Neumann, comporte des

processus qui sont cognitifs chez l'être humain. On y trouve encapsuler la mémoire, le

traitements des opérations arithmétiques sous forme de circuits. Mémoire et opérations

arithmétiques relèvent de la cognition. On voit bien que faire du hardware le correspondant du

corps ou du cerveau et quelque chose de distinct de l'esprit ne convient pas puisque ce

hardware comporte des processus qui relèvent de l'esprit. Et on comprend mieux ici

l'affirmation de Turing selon laquelle mécanisme (hardware) et écriture (software ou plus

précisément programmation) sont presque synonymes. Le hardware et le software sont tous

les deux capables d'intégrer des processus qui sont cognitifs chez l'être humain.

Il y a pire, la fameuse structure logique qui serait le propre du software se trouve

également encapsuler dans le hardware à tel enseigne qu'on parle de langage machine. Dans

l'architecture proposé par Turing (Turing, 1945), ce qui sera appelé plus tard des modules au

sens informatiques (des séquences d'instructions spécifiques à une fonction ou un ensemble de

fonctions) et qui inspirera la notion de modules cognitifs sont aussi encapsuler dans le

hardware alors qu'ils sont bel et bien constitués de structure logique. On ne voit pas comment

il pourrait avoir une distinction nette entre le hardware et le software au point de servir

d'analogie sur l'indépendance entre le corps et l'esprit et donc d'une irréductibilité des

représentations mentales au biologique. Si l'ordinateur numérique devait fournir une analogie

à travers la relation qu'il y a entre software et hardware, ce serait celle d'une encapsulation de

certains processus cognitifs au niveau biologique.

Et pour enfoncer le clou, dans une architecture comme celle proposée par Turing la

structure logique ou le programme de ce qui fait office de logiciel avait un lien étroit avec le

hardware :

« The earlier stages of the making of instruction tables will have serious repercussions on the design of LC and CA. Work on instruction tables will therefore start almost immediatly. » (Turing 1945, p. 26)

Autrement dit, la construction du programme qui doit tourner sur le hardware affecte

l'organisation de l'unité contrôle et de l'unité arithmétique. C'est dire à quel point les deux

structures sont intimement liées (hardware et software). Et enfin les langages de

programmation informatique, les langages dit de haut niveau, sont pensés, conçus, élaborés

pour fonctionner sur une architecture séquentielle ; l'architecture Von Neumann. Ils en sont

dépendants. Pour qu'il y ait de la souplesse au niveau de ces langages, il faudrait qu'ils soient

49

Page 51: Thèse

conçus pour fonctionner sur une architecture parallèle. Celle – ci n'existe pas encore. Or, ce

besoin de souplesse et l'impossibilité d'échapper à la contrainte d'une architecture séquentielle

est appelé le goulot d'étranglement Von Neumann. C'est la réalité informatique. Les langages

de programmation, la fameuse structure logique, sont trop dépendants du hardware pour servir

d'analogie pour une indépendance entre l'esprit et le corps.

Notons au passage que l'affirmation selon laquelle si une physique de l'esprit était

découverte celle – ci serait différente de celle du cerveau même si au niveau de l'organisation

fonctionnelle la description serait la même, est juste une transposition de ce que dit Von

Neumann à propos des codes complets et codes courts : les mathématiques et la logique

utilisées pour comprendre le systèmes nerveux correspondent à des codes courts qui sont

structurellement différents du réel langage que ce système utiliserait et qui correspondrait à un

code complet pour l'instant inconnu (Von Neumann, 1958).

S'il y avait vraiment une indépendance entre le corps et l'esprit, si les représentations

mentales étaient vraiment irréductibles au biologique, toute la cognition humaine

s'expliqueraient par cette approche syntaxique des représentations mentales irréductibles au

biologique. Or des modèles comme la théorie du cadre ou schéma ou encore scripts, les

modèles mentaux, ont vu le jour parce que ce type d'approche syntaxique ou reposant sur la

logique se sont avérées insatisfaisantes pour certains aspects de la cognition humaine.

2.1.4 - La critique du fonctionnalisme par Hilary Putnam

Le fonctionnalisme a affirmé plusieurs choses qui ont été soit réfutées soit revues et

corrigées :

1 - Que les états psychologiques sont identiques aux états d'une machine de Turing,

qu'ils peuvent être définis comme les états et charges mémorielles de cette machine.

Affirmation réfutée.

2 – Que la description des attitudes propositionnelles correspond une à une à des états

du cerveau et que les états mentaux sont indépendants de l’espèce. Affirmation réfutée.

3 – Que les états mentaux ne peuvent pas être simplement des états physico –

chimiques, se sont des états computationnels. Affirmation revue et corrigée.

Une machine de Turing est une machine à états discrets, elle ne peut être que dans un

état interne à la fois. La mémoire et l'apprentissage n'interviennent que comme l'acquisition de

50

Page 52: Thèse

nouvelles informations imprimées sur le ruban. Si les êtres humains ont des états qui

ressemblent à ceux des machines de Turing, alors il y a problème parce que les états

psychologiques des êtres humains ne sont pas isolés. Les êtres humains ont des états totaux et

instantanés déterminés à la fois par la mémoire et l'apprentissage et ces états spécifient la

présente condition de l'être humain. Eprouvé de la peine peut s'accompagner de beaucoup

d'autres choses chez des êtres humains (Putnam, 1973), ce qui contraste avec l'état interne

d'une machine de Turing. Par conséquent, aucun état psychologique ne peut être un état de la

machine de Turing. La description de cette machine et la description de l'être humain sont des

descriptions à deux niveaux d'organisation totalement différents (Putnam, 1973). Pour dire les

choses d'une façon simple, l'être humain fonctionne de manière parallèle et un ordinateur

numérique fonctionne de façon séquentielle. Toutefois, Hilary Putnam maintient l'importance

de l'analogie entre l'être humain et les machines de Turing parce que ces machines nous

auraient forcé à distinguer une structure abstraite de sa réalisation physique.

L'affirmation selon laquelle les descriptions des attitudes propositionnelles

correspondent une à une à des états du cerveau, est une version du fonctionnalisme que

personne n'aurait défendu (Putnam, 1990) bien qu'elle fasse partie du corpus initial. Mais

même au sein d'une espèce unique, il n'est pas possible de penser que l'organisation

fonctionnelle est exactement la même pour tous les membres. Il n'est pas juste de dire que

tous les êtres humains adultes passent par la même suite d'états quand ils fixent une croyance.

Les êtres humains diffèrent énormément les uns des autres et d'une culture à l'autre. Le

nombre de neurones que compte un cerveau n'est pas exactement le même que le nombre de

neurones que compte celui de n'importe qui d'autre et il n'y a pas deux cerveaux qui soient

câblés de la même manière. Il s'ensuit que les membres de différentes espèces physiquement

possibles capables d'avoir la même croyance, peuvent avoir des états computationnels

différents. Même si la manière de raisonner dans une situation donnée est semblable, cela

n'implique pas que les états ou les algorithmes sont les mêmes. L'idée selon laquelle il y

aurait un seul état computationnel dans lequel tout être qui a une croyance donnée doit se

trouver est fausse (Putnam, 1990).

Le fonctionnalisme soutenait que les états mentaux ne peuvent pas être simplement

des états physico – chimiques même s'ils sont émergents et survenants par rapport aux états

physico – chimiques. Le fonctionnalisme ajoute désormais que les états mentaux ne peuvent

pas être aussi des états computationnels ou des états computationnels et physiques même s'ils

sont, là encore, émergeants et survenants par rapport à nos états computationnels (Putnam,

1990).

51

Page 53: Thèse

Enfin, de l'aveu de Putnam lui même, l'équivalence qu'il entrevoyait entre l'être

humain et les machines de Turing (états et charges mémorielles du ruban) n'était pas correcte

parce que son analyse du fonctionnalisme prenait à la lettre le machinisme de Turing et cette

approche ne peut pas donner une représentation claire de la psychologie des êtres humains

(Putnam, 1990).

La sentance d'Hilary Putnam est sans appel : les modèles computationnels de l'esprit /

cerveau seront insuffisants en psychologie cognitive (Putnam, 1990).

2.1.5 - La critique de Searle : l'argument de la chambre chinoise

Caractère syntaxique des représentations mentales, calculs sur ces représentations...

bien que constituants les bases des sciences cognitives, John Searle n'adhère pas à ces notions.

Il pense le démontrer avec ce qu'il a appelé l'argument de la chambre chinoise (Searle, 1995).

Cet argument tend à montrer qu'un système peut mettre en oeuvre un programme qui simule

parfaitement une capacité cognitive comme la compréhension du chinois même si ce système

n'a aucune espèce de compréhension de cette langue. L'expérience de pensée consiste d'une

part à placer quelqu'un qui ne comprends pas du tout le chinois dans une pièce contenant plein

de symboles chinois et d'autre part à lui fournir un programme d'ordinateur pour répondre à

des questions qui lui sont posées en chinois. L'entrée du système est constituée par des

symboles chinois qui représentent les questions. La sortie du système est représentée par des

symboles chinois en réponse aux questions. On suppose que le programme est tellement bien

conçu qu'il est impossible de distinguer les réponses qui sont faites depuis la salle où se trouve

l'individu de celles que pourraient faire un locuteur dont le chinois est sa langue maternelle.

Pour Searle ni la personne qui se trouve à l'intérieure de la salle ni quelque autre partie

du système ne comprend le chinois et comme ce que possède le système est ce que possède

l'ordinateur programmé, alors celui – ci ne comprends pas non plus le chinois. Par ailleurs,

puisque le programme est purement formel ou syntaxique et comme les esprits ont des

contenus mentaux ou sémantiques, toute tentative visant à produire un esprit à l'aide

uniquement de programmes d'ordinateur laisse de côté les caractéristiques essentielles de

l'esprit : notamment l'intentionnalité. La syntaxe du programme ne garantit pas par elle –

même la présence de contenus mentaux et la syntaxe n'est pas la même chose que la

sémantique. Par conséquent, l'esprit n'est pas un programme d'ordinateur.

52

Page 54: Thèse

Les notions telles que calcul, algorithme et programme ne nommeraient pas des

propriétés physiques intrinsèques des systèmes parce que les états computationnels ne sont

pas découverts à l'intérieur de la physique, ils lui sont assignés. Un état physique d'un système

ne serait un état computationnel qu'uniquement parce que on assigne à cet état un rôle

computationnel, une fonction ou une interprétation computationnelle.

L’indépendance des états mentaux par rapport à leur support matériel est remise en

question. La réalisation de processus computationnels équivalents dans différents supports

physiques n’est pas simplement un signe que les processus sont abstraits mais plutôt qu’ils ne

sont pas du tout intrinsèques au système, ils dépendent d’une interprétation de l’extérieure.

La transposition au niveau humain de la notion de calcul est remise en question. Un

programme n'aurait pas de pouvoirs causaux autres que ceux du support qui le réalise parce

que, selon Searle, le programme n'a pas d'existence réelle, pas d'ontologie, au-delà de son

support. Il précise que physiquement parlant, il n'y a pas de niveau de programme distinct. Il

ne voit dans l'ordinateur du commerce aussi bien que dans le cerveau que des trames et ceux –

ci n'auraient pas de pouvoirs causaux. Par conséquent, il ne comprend pas comment le

cognitivisme pourrait donner une explication causale de la cognition.

Enfin pour Searle, contrairement à l'ordinateur numérique le cerveau ne traiterait pas

de l'information. Le sens dans lequel on utilise le traitement de l'information en science

cognitive serait à un niveau bien trop élevé d'abstraction pour appréhender la réalité

biologique concrète de l'intentionnalité. Ce qui se déroule dans le cerveau est toujours

spécifique à une modalité : vision, audition, toucher... alors que dans le traitement de

l'information des modèles computationnels de la cognition il s'agirait simplement d'obtenir

une série de symboles comme sortie en réponse à une série de symboles comme entrée.

Les considérations d’Hilary Putnam constituent la principale faille par laquelle

s’engouffrent les détracteurs de la théorie computationnelle de l’esprit. Des critiques comme

celles de Searle n’ont de sens que si on considère, comme l’avait fait Hilary Putnam au début,

que l’être humain possède dans son esprit / cerveau quelque chose comme un ruban / mémoire

infiniment long, un automaton et une tête de lecture / écriture.

53

Page 55: Thèse

2.2 – Le fonctionnalisme de Jerry Fodor : les modules cognitifs

2.2.1 – L'aspect syntaxique des représentations mentales humaines et leur calcul

Il y a une disctinction à établir entre Hilary Putnam et Jerry Fodor. Si pour tous les

deux l'ordinateur numérique est au centre des modèles qu'ils développent, l'analogie avec cette

machine universelle n'est pas exploitée de la même manière. Avec le premier on est dans la

métaphore informatique ; c'est le machinisme de Turing pris à la lettre, en somme l'être

humain serait constitué comme une de ces machines avec des états et des charges

émotionnelles sur ce qui peut faire office de ruban. Avec Fodor, ce qu'on retient de la machine

de Turing c'est son caractère computationnel sur des représentations. Avec Fodor, on est tout

simplement dans la théorie computationnelle de l'esprit.

Selon Fodor et Pylyshyn, il y aurait 4 aspects de la cognition qui serait explicables

uniquement par l’idée que les représentations mentales possèdent une structure interne. Il

s’agit de la productivité, de la systématicité, de la compositionalité et de la cohérence

inférentielle. Cette analyse s’appuie au premier abord sur une analogie linguistique.

Il y a une productivité de la pensée et ses capacités représentationnelles sont illimités,

le système pouvant encoder plusieurs propositions. Il est supposé que cette puissance illimitée

est atteinte par des moyens finis ; les représentations seraient composées à partir

d’expressions appartenant à un ensemble. Et la correspondance entre une représentation et la

proposition qu’elle exprime serait construite récursivement. A partir de cette productivité de

la pensée générée sur la base de moyens finis, les auteurs infèrent que les représentations

linguistiques et mentales constituent des systèmes de symboles.

Le deuxième argument est la systématicité de la représentation cognitive. La

systématicité est une propriété de la maîtrise de la syntaxe d’une langue et il y a un argument

qui milite en faveur de la structure syntaxique et sémantique des phrases : si on suppose que

les phrases sont construites au – delà des mots et des expressions et que différentes séquences

de mots peuvent être des phrases du même type, alors le fait qu’une formule est une phrase de

la langue impliquera souvent que d’autres formules doivent l’être aussi ; la systématicité en

découle à partir du postulat de la structure constitutive.

L’argument de la compositionnalité des représentations implique que certaines

expressions ont des constituants et par conséquent présuppose la structure syntaxique /

54

Page 56: Thèse

sémantique des phrases ; les représentations mentales doivent avoir une structure interne

comme c’est le cas des phrases.

Parce qu’il y a une systématicité de la pensée, il y aurait également une systématicité

des inférences qui s’expliquerait par l’idée que la sémantique combinatoire des

représentations mentales est sensible à leur syntaxe et que les processus mentaux s’appliquent

aux représentations mentales en vertu de leur structure constituante.

L’argument de la productivité de la pensée qui indique que les représentations

mentales constituent des systèmes de symboles, celui de la systématicité qui indique que ces

représentations ont une structure syntaxique et sémantique et celui de la compositionnalité qui

indique une sensibilité des processus mentaux à la syntaxe des représentations mentales,

plaident en faveur d’une structure interne des représentations et cette dernière serait

importante dans la manipulation, la production et la compréhension de la pensée.

Cette importance accordée à la structure interne des représentations mentales, à leur

organisation syntaxique, fait penser à celle de la structure interne des instructions dans une

machine de Turing. Dans ce type de machines une configuration est une séquence

d’instructions possédant une structure interne constituée de : l'état interne actuel de la

machine, le symbole balayé, le symbole remplacé, le mouvement de la machine et son nouvel

état interne. Ce sont les relations causales d’un constituant à un autre de la séquence

d’instructions et la transition d’une séquence d’instructions à une autre qui déterminent l’acte

de calcul. Une configuration ou une séquence d’instructions a donc une syntaxe et du point de

vue de Turing, une configuration est l’équivalent d’un état mental. Par conséquent, toujours

selon Turing, les états mentaux ont une syntaxe.

L’affirmation selon laquelle les représentations mentales humaines ont une structure

syntaxique ne serait rien d’autre qu’une réappropriation de l’idée de Turing des états mentaux

ayant une structure syntaxique. Selon les auteurs, Fodor et Pylyshyn, les théories classiques

supposent d’une part l’existence d’un langage de la pensée et d’autre part que les

représentations mentales ont une syntaxe combinatoire et sémantique. Elles reconnaîtraient

également non seulement des relations causales à travers des objets sémantiquement

évaluables mais aussi un ensemble de relations structurales dont la constitution est

paradigmatique. Parallèlement, elles attribuent un contenu sémantique aux type de choses

(séquence d’instructions) qui sont écrites sur les rubans de la machine de Turing et qui sont

stockées à des adresses dans les machines Von neumann.

Deux idées se dégagent, l’une est que la supposée structure syntaxique des

représentations mentales est bien inspirée de la structure interne que constitue le langage

55

Page 57: Thèse

utilisé dans les machines de Turing (Fodor, 2003), l’autre idée est que cet enchaînement de

symboles est porteur de sens (le calcul selon Turing). Il est donc possible pour les processus

mentaux de s’appliquer aux représentations mentales par référence à leur forme.

Les représentations mentales auraient donc une syntaxe, une sémantique et une

structure sensible aux traitements effectués par les processus mentaux.

Ce n’est pas seulement l’idée des représentations mentales organisées de manière

syntaxique et ayant des relations causales à travers ses constituants qui est inspirée des

travaux de Turing, l’ensemble des modèles classiques de l’esprit aurait été dérivé de la

structure des machine de Turing et de Von Neumann bien que n’étant pas soumis aux détails

de ces machines comme elles furent élaborées dans leur formulation originale de Turing ou

dans un ordinateur du commerce (Fodor et Pylyshyn, 1988).

2.2.2 – L'origine informatique du concept de module cognitif : les opérations subsidiaires de Turing

Turing n'a pas utilisé le terme de module, il parle plutôt d'opérations subsidiaires

(Turing 1945, 1947). La mise en place de ce type d'opérations répondaient à deux nécessités :

le besoin de flexibilité dans la lecture des instructions par la machine et celui d'éviter

l'écriture de programmes trop longs qui comportent la répétition des mêmes séquences

d'instructions à différents endroits ou encore éviter de ré-écrire à chaque fois une séquence

d'instructions dont on aura besoin dans des programmes différents.

Une forme simple du fonctionnement de l'unité contrôle (appelée contrôle logique

dans l'architecture proposée par Turing) serait une liste d'opérations exécutée dans l'ordre

dans lequel elle est donnée. Mais pour obtenir de la flexibilité, on doit pouvoir prendre les

instructions dans un ordre différent de leur ordre naturel. D'autre part dans la mesure où

certains processus sont utilisés de façon répétée dans toute sorte de connexions différentes, il

est souhaitable d'utiliser à chaque fois la même instruction à partir du même endroit de la

mémoire :

« We also wish to be able to arrange for the splitting up of operations into subsidiary opérations. This should be done in such a way that once we have written down how an operation is to be done we can use it as a subsidiary to any other operations. » (Turing 1945, p. 15)

56

Page 58: Thèse

Turing donne un exemple basé sur l'interpolation (Turing, 1947) en tant qu'opération

subsidiaire. L'interpolation est utilisée pour le calcul d'un grand nombre de fonctions, il est

possible d'utiliser le même et unique programme d'interpolation pour le calcul des différentes

fonctions qui en ont recourt. Ce qu'il faut, c'est de trouver comment cela peut être fait en une

fois. C'est - à - dire écrire le programme d'interpolation et le stocké en mémoire dans une

adresse bien précise. Et à chaque fois qu'on voudra recourir à l'interpolation on aura

seulement à se souvenir de l'endroit en mémoire où ce programme est stocké et de faire la

référence appropriée dans le programme principal qui est entrain d'utiliser l'interpolation.

De façon générale lorsqu'on écrit un programme et qu'on a recourt à une opération

subsidiaire, on a juste besoin d'écrire une note de l'endroit où nous laissons l'opération du

programme principal et de demander l'application de l'instruction subsidiaire. Lorsque la

subsidiaire est terminée, on referme la note et on continue avec l'opération du programme

principal.

Ce principe des opérations subsidiaires qui consiste à écrire une séquence

d'instructions, de la stockée quelque part en mémoire et à la réutiliser au sein du même

programme à différents endroits ou dans des programmes divers en lui faisant appel à l'aide

d'une instruction particulière est appelé module dans les langages de programmation actuel.

Plus précisément, un module est un fichier qui regroupe des ensembles de fonctions ; les

fonctions permettent de décomposer un programme complexe en une série de sous -

programmes plus simples. Un logiciel est composé d'un programme principal auquel s'ajoute

un ou plusieurs modules contenant chacun les définitions d'un certain nombre de fonctions.

Modules et fonctions sont ré – utilisables. Si nous disposons d'une fonction capable de

déterminer une stratégie, on peut l'utiliser dans divers programmes sans avoir à la ré – écrire à

chaque fois. Les fonctions, à travers les modules qui les intègrent, constituent des sortes de

sous – programmes autonomes qu'on active à chaque fois qu'on n'en a besoin par une

instruction.

C'est ce principe de module informatique qui a été repris par les sciences cognitives

même si le concept de modules cognitifs est beaucoup plus complexe que celui de modules au

sens informatique. Ce serait David Marr qui aurait été le premier à utiliser le concept de

modules dans les sciences cognitives et aurait indiquer dans quel sens il fallait comprendre ce

mot :

« any large computation should be split up into a collection of small, nearly independent, specialized subprocess. » (Marr, 1982, p. 325)

57

Page 59: Thèse

Ce que dit Marr à propos des modules est bel et bien dans le même esprit que ce

qu'avait dit Turing à propos des opérations subsidiaires et est conforme à la notion de modules

telle qu'elle est utilisée aujourd'hui en informatique. Le concept de module cognitif prendra de

l'ampleur avec le travail de Jerry Fodor.

2.2.3 – La modularité de l'esprit selon Fodor

2.2.3.1 – Les systèmes périphériques

On appelle module un système cognitif dont l'application est spécifique à un domaine ;

le caractère domaine – spécifique est une condition nécessaire pour l'application du terme

'modulaire' (Coltheart, 1999). Fodor (Fodor, 1986) dresse une liste d'éléments qui peuvent

déterminer la modularité d'un système cognitif tout en précisant qu’aucun d'eux ne constitue

une condition nécessaire pour l'application du terme modulaire. Cependant, il considère le

cloisonnement de l'information comme étant l'essence de la modularité. Coltheart soutient que

c'est la spécifité à un domaine qui constitue l'aspect le plus important des modules.

Sont modulaires, les systèmes que Fodor appellent périphériques. Ces systèmes ont

pour fonction de fournir de l'information aux systèmes centraux en élaborant des

représentations mentales pouvant être comprises par les systèmes centraux. Il s'agit de

systèmes qui effectuent des inférences. Un système périphérique est un mécanisme

computationnel qui projette et confirme un certain type d'hypothèses à partir d'un certain type

de données.

Les systèmes périphériques sont modulaires parce qu'ils possèdent toutes ou presque

toutes les propriétés suivantes : ils sont propres à un domaine, ils sont informationnellement

cloisonnés, ils sont obligatoires, rapides, associés à une architecture neuronale fixe, leur

ontogenèse à un certain rythme et une séquence d'étapes caractéristiques, les systèmes

centraux n'ont qu'un accès limité aux représentations calculées par les systèmes périphériques,

ils présentent des défaillances caractéristiques et enfin leur sortie est superficielle.

Un système périphérique est propre à un domaine lorsqu'il existe une seule classe

assez restreinte de stimuli qui peut déclencher son opération. Les processus psychologiques à

l'oeuvre dans ce domaine devraient correspondre à des systèmes computationnels assez

spécialisés.

58

Page 60: Thèse

On peut illustrer l'appartenance à un domaine de certains systèmes avec la vision et

l'audition. Dans le premier cas on a les mécanismes responsables de la perception de la

couleur, de l'analyse des formes, de l'analyse des relations dans l'espace. Il y a aussi les

systèmes qui effectuent des tâches spécialisées comme la reconnaissance des visages. Pour

l'audition, il y aurait les systèmes qui assignent des descriptions grammaticales aux énoncés,

les systèmes qui détectent la structure mélodique ou rythmique des séquences accoustiques.

Les données qui peuvent intervenir dans la confirmation d'hypothèses ne constitue en

général qu'une toute petite partie du savoir de l'organisme. Ces systèmes ne prennent en

considération qu'une partie de l'information qui pourrait en principe être pertinente pour la

résolution d'un problème donné. Le cloisonnement informationnel ne consiste pas seulement à

réduire la taille de la mémoire que le système périphérique doit consulter pour trouver

l'information pertinente mais aussi d'accélérer l'identification, par exemple perceptuelle, en

réduisant le nombre de relations de confirmation qu'il doit évaluer.

Dans la mesure où le cloisonnement informationnel est la clé de la modularité, il

s'ensuit une association intime entre les systèmes modulaires et le câblage neuronal. Les

connexions câblées correspondraient à des voies privilégiées de circulation de l'information,

elles contribuent à la facilitation du flux de l'information d'une structure neuronale vers une

autre.

Les mécanismes neuronaux qui sous – tendent les systèmes périphériques se

développeraient en suivant un ordre spécifique, déterminé de manière endogène et déclenché

par l'environnement. Ces mécanismes s'appuient sur des processus neuronaux spécifiques et

câblés et une bonne partie de l'information dont disposent ces systèmes est spécifiée de

manière innée.

Les traitements des systèmes périphériques sont automatiques et obligatoires ; on ne

peut s'empêcher de voir les objets comme ayant des propriétés tri – dimensionnelles. Les

relations calculées par ces systèmes sont assez complexes. A chaque fois que l'occasion se

présente, il n'y a pas d'autres alternatives que d'effectuer la tâche computationnelle qui

s'impose. Et si l'opération des systèmes périphériques est obligatoire c'est parce qu'elle est

l'unique voie par laquelle les informations peuvent parvenir aux processus centraux.

Nous ne sommes plus dans les considérations d’Hilary Putnam d’une indépendance

entre le corps et l’esprit et d’une irréductibilité des représentations mentales au biologique.

Avec la modularité de l’esprit, la cognition est incarnée, neuronalement câblée.

59

Page 61: Thèse

2.2.3.2 – Les systèmes centraux

Fodor distingue deux familles de systèmes cognitifs : les modules qui sont propres à

un domaine et sont informationnellement cloisonnés et les processus centraux qui ne sont pas

propre à un domaine mais qui utilisent des données d'origine variée pour prendre des

décisions et qui sont sensibles aux propriétés globales des systèmes de croyance.

Les systèmes périphériques fournissent des représentations qui doivent être corrigées à

la lumière de l'arrière plan des connaissances et des résultats fournis simultanément par les

processus périphériques dans d'autres domaines.

Le fonctionnement des systèmes centraux repose sur ce que leur donne les systèmes

périphériques, ce qui se trouve en mémoire et utilise cette information pour restreindre le

calcul des meilleures hypothèses sur le monde.

Si on accepte l'idée que les processus centraux utilisent des données d'origine variée

pour prendre des décisions et qu'ils sont sensibles aux propriétés globales des systèmes de

croyance, alors des problèmes se poseront à chaque fois que l'on essayera de construire des

théories psychologiques simulant ces processus ou cherchant à les expliquer. Il y aura

notamment le problème posé par la caractérisation des mécanismes computationnels non

locaux. Autrement dit, il est peu vraisemblable que la fixation de la croyance soit réalisée par

des calculs sur des informations limitées et locales. La difficulté de prendre en compte des

informations non limitées et non locales est illustrée par ce qu'on appelle le problème du cadre

(frame problem).

Pour les systèmes centraux, contrairement aux systèmes périphériques, ce qui prévaut

c'est peut - être la connectivité instable, ponctuelle. On aurait une connectivité qui varie d'un

moment à l'autre, d'une façon qui est dictée par l'interaction entre le programme qui est

exécuté et la structure de la tâche.

Sans Turing, le fonctionnalisme n’existerait pas et les sciences cognitives telles que

nous les connaissons aujourd’hui n’existeraient pas non plus. Les philosophes fonctionnalistes

ont puisé dans les travaux de Turing les bases conceptuelles de leur théorie. Et la contribution

la plus importante du fonctionnalisme est incontestablement l’idée de modules cognitifs

dérivée des opérations subsidiaires de Turing.

Comme Fodor et Pylyshyn l’avaient affirmé ; les théories et modèles classiques en

psychologie cognitive ont été élaborés en s’inspirant de la machine de Turing ou de

l’architecture Von Neumann, nous allons montré dans les pages qui suivent qu’effectivement

60

Page 62: Thèse

parmi les modèles, théories et même vocabulaire les plus utilisés en psychologie cognitive se

cache la machine de Turing et son extension la machine Von Neumann.

Chapitre 3 – L’impact de la machine de Turing et de l’architecture Von

Neumann en psychologie cognitive

3.1 - Le modèle de la mémoire de travail de Baddeley et Hick : copier – coller de l’architecture Von Neumann ?

3.1.1 - Les débuts de la comparaison des processus cognitifs humains avec les processus de l’architecture Von Neumann

Dans la mesure où l’ordinateur numérique, ou les éléments le constituant, peut servir

de modèle pour comprendre les organismes vivants (Von Neumann, 1948), ce point de vue

sera illustré pour ce qui est de la cognition humaine à l’aide d’un de ses composants majeur :

le processeur. Cette illustration est la comparaison entre les processus mis en œuvre par le

calculateur humain et ceux d'un ordinateur numérique : les processus de la cognition humaine

seraient présents dans l'architecture Von Neumann ou alors on en trouverait l’équivalence.

Figure 3. Processus d’un calcul qui se fait à la main (Hartree, 1949)

Un humain effectuant un calcul par une méthode papier-crayon avec l'assistance d'une

calculatrice utilise 4 types d'équipements : la machine à calculer pour les opérations

arithmétiques, du papier pour écrire les résultats intermédiaires et pour garder une trace des

séquences des opérations de calculs, une liste de programmes et son propre esprit pour

contrôler la séquence des opérations (Hartree, 1949). Les quatre rectangles de la figure 3

représentent les quatre sortes d'équipements, les lignes indiquent les transferts possibles entre

61

Page 63: Thèse

eux et les cercles représentent des « portes » au travers desquels l'information peut être

transférée sous le contrôle du calculateur central ou esprit du calculateur.

On peut penser qu'un ordinateur numérique à la même organisation fonctionnelle

(Hartree, 1949) : l'unité arithmétique, l'unité mémoire pour le stockage des données et des

instructions, un système d'entrée - sortie pour la réception des données et la livraison des

résultats, un système de transfert des nombres ou des instructions d'une partie de la machine à

une autre et enfin l'unité de contrôle.

Une simple comparaison montre que la machine à calculer utilisée par l’humain

correspond à l’unité arithmétique et logique d’un ordinateur, le papier sur lequel est écrit les

résultats intermédiaires et la séquence des opérations correspond à l’unité mémoire et enfin

l’esprit du sujet correspond à l’unité contrôle. L'architecture de l'esprit, pour ce qui est du

traitement des opérations arithmétiques, ressemblerait à celle d'un ordinateur numérique.

Sous réserve d’inventaires, la comparaison que fait Hartree entre le comportement

d’un humain entrain de faire un calcul et le processeur d’un ordinateur est la première

utilisation de l’architecture Von Neumann pour illustrer un aspect de la cognition humaine, et

ce ne sera pas la dernière. Cette comparaison serait à la base de tous les autres travaux en

psychologie cognitive qui se sont inspirés de l'architecture Von Neumann.

3.1.2 - Présentation du modèle de la mémoire de travail de Baddeley et Hitch

Dans les années soixante, la mémoire à court terme était perçue comme une unité de

stockage unitaire. Cette conception fut remise en question et remplacée par un concept

apparenté et plus complexe : la mémoire de travail à composantes multiples (Baddeley 1993).

Le concept de mémoire de travail met en valeur le rôle du stockage temporaire de

l’information dans les tâches cognitives comme le raisonnement, la compréhension et

l’apprentissage.

La remise en question de l’unicité de la mémoire à court terme s’est faite à l’aide des

résultats obtenus avec ce qui est appelé des doubles tâches. Lorsqu’on demande à des sujets

d’effectuer simultanément une tâche de raisonnement ou d’apprentissage et une tâche de

rappel de chiffres où le sujet continue de répéter sans cesse des chiffres à haute voix, on

constate qu’il n’y a pas un effondrement des performances. L’augmentation de la latence des

temps de réponse et le taux d’erreurs, par rapport à une tâche simple, restent relativement

faibles. Il fallait admettre d’une part que la limite de la mémoire des chiffres était fixée par un

62

Page 64: Thèse

sous – système dont le fonctionnement n’affecte pas les autres composantes de la mémoire de

travail et d’autre part, il fallait élaborer un nouveau modèle.

Les auteurs ont proposé un modèle à trois composants dans lequel il y a une unité de

contrôle de l’attention qui supervise et coordonne deux autres systèmes esclaves auxiliaires.

Le contrôleur d’attention est appelé processeur ou administrateur central (Baddeley, 1993).

Dans les systèmes esclaves auxiliaires, il y a d’abord la boucle articulatoire ou phonologique

qui est responsable de la manipulation des informations provenant du langage. Le deuxième

système esclave est le calepin ou ardoise visuo – spatial qui est responsable de l’établissement

et de la manipulation des images visuelles.

Le premier sous – système esclave, la boucle phonologique, est constitué à son tour de

deux composants ; une unité de stockage phonologique et un processus de contrôle

articulatoire.

L’unité de stockage phonologique est capable de contenir les informations provenant

du langage. Elles sont uniquement phonologiques et non sémantique et les éléments n’y sont

pas représentés au niveau du mot. Il est possible de convertir un élément visuel en un code

phonologique. Cette unité de stockage ne conserve les informations que pendant environ deux

secondes.

Le deuxième composant de la boucle phonologique, le processus de contrôle

articulatoire, repose sur le langage intérieur. Les traces mnésiques contenues dans l’unité de

stockage phonologique pouvant s’effacer et devenir irrécupérables au bout de deux secondes,

le processus de contrôle articulatoire a pour fonction de les rafraîchir par un procédé de

lecture qui les réactive et les maintient à nouveau dans l’unité de stockage. Ce processus de

contrôle articulatoire est à la base de l’auto – répétition subvocale. Il peut également prendre

un élément écrit et le convertir en un code phonologique et de l’enregistrer dans l’unité de

stockage.

Le sous – système esclave appelé boucle phonologique jouerait un rôle important dans

l’apprentissage de la lecture et un rôle secondaire dans la compréhension. Il serait le centre

aussi bien de la répétition de non – mots que de l’acquisition de la langue maternelle. Par

ailleurs il y aurait un lien entre la langue, la boucle phonologique et les mathématiques ainsi

qu’un rôle de la boucle phonologique pour le comptage et le calcul mental. Toutefois, la

compréhension de l’unité de stockage reste pour l’instant limitée ; on ne sait rien de ses

caractéristiques temporelles, de la façon dont l’information y est lue et récupérée et de la

façon dont s’établit le lien avec les processus intervenants dans la perception et la production

du langage.

63

Page 65: Thèse

Le deuxième sous – système esclave, le calepin ou ardoise visuo – spatiale, serait utile

lorsqu’il est nécessaire de manipuler des images mentales notamment lorsque celles – ci

interagissent de façon nouvelle. Il pourrait opérer lors de tâches à court terme sans

répercussion sur l’apprentissage. Ce sous – système est approvisionné directement par la

perception visuelle et indirectement par la formation d’une image mentale. Et il est probable

que l’image mentale soit à la fois spatiale et visuelle. Dans ce sous – système esclave, le

système visuel aurait deux composants séparables ; l’un qui s’occupe du traitement des

formes et de la détection du quoi, l’autre traite des localisations et de l’information concernant

le où.

Dans le calepin visuo – spatial, le système spatial jouerait un rôle dans l’orientation

géographique et la planification des tâches spatiales. Ce calepin pourrait également jouer un

rôle dans le maintien des chiffres en mémoire.

Quant à l’administrateur central, on en sait moins de choses que les deux sous –

systèmes esclaves. Néanmoins, outre la fonction de contrôle de l’attention et la régulation de

l’ensemble du système, l’administrateur central jouerait un rôle dans la concentration,

l’organisation et la planification de l’activité. Il serait impliqué aussi dans l’activation des

représentations à l’intérieure de la mémoire à long terme.

3.1.3 – Comparaison mémoire de travail et Architecture Von Neumann

La mémoire de travail, telle qu’elle est définie par Baddeley et Hitck, a souvent été

comparée à un aspect du fonctionnement de l’ordinateur. La mémoire de travail humaine

ressemblerait à la RAM. La mémoire de travail sert à retenir temporairement des informations

et à les manipuler pour d’autres tâches en cours de traitement. La RAM (random access

memory) est une unité de stockage temporaire des données pendant l’exécution des tâches.

Dans Preliminary discussion… Von Neumann en parle comme organe servant au

rafraîchissement de l’information qui se perd. On a en effet dans les deux cas, des systèmes de

maintien temporaire de l’information pendant le traitement des tâches.

Le rapprochement entre mémoire de travail humaine et RAM est inexact. En faire état

c’est méconnaître d’une part la totalité du système dont la RAM fait partie (l’architecture Von

Neumann) et d’autre part méconnaître le modèle de la mémoire de travail de Baddeley et

Hitck. S’il y a un lien entre ce modèle et l’informatique, il se situe à un autre niveau plus

global.

64

Page 66: Thèse

Tableau 2 - Comparaison du modèle de la mémoire de travail de Baddeley et Hitch avec l'architecture Von Neumann

Mémoire de travail de Baddeley et Hick

Architecture Von Neumann et mémoire selon Turing

Nombre de composants

3 composants : calculateur central, cash phonologique, calepin visuo-

spatial

3 composants : contrôle, unité arithmétique et logique, unité de

stockage

Composant principal Administrateur central (ou processeur)

Unité contrôle

Rôle du composant principal

synchronisation des deux sous – système esclaves

Synchronisation de l’unité arithmétique et de l’unité mémoire

Structure interne des composants

Plusieurs sous – composants dans la boucle phonologique et le calepin

visuo - spatial

Plusieurs registres dans l’unité mémoire et arithmétique

Codage Capacité de codage dans la boucle phonologique

Organe de codage dans l’unité arithmétique

Maintien de l’information

Rafraîchissement de l’information qui se fane par auto répétition

Rafraîchissement de l’information qui se perd par un petit organe de l’unité

mémoire

Mémoire (1) Verbale (boucle phonologique) Verbale (Turing, 1950)

Mémoire (2) Impressions visuelles Impressions visuelles (Turing, 1950)

Mémoire (2 bis) Calepin Calepin (Turing, 1950)

S’il faut résumer le modèle de la mémoire de travail, on peut dire qu’il est constitué

essentiellement de trois composants dont un principal et deux systèmes auxiliaires. La

fonction du composant principal, entre autre chose, est la coordination des deux autres

systèmes. L’un de ces systèmes auxiliaires, la boucle phonologique, se subdivise en plusieurs

autres sous – composants comme l’unité de stockage phonologique et le processus de contrôle

articulatoire. Le deuxième système auxiliaire se subdivise également en plusieurs autres sous

65

Page 67: Thèse

– composants ; spatial et visuel, le visuel se subdiviserait encore. Les deux systèmes

auxiliaires ont la capacité de procéder à du codage de l’information. Le processus de contrôle

articulatoire, inclus dans la boucle phonologique, permet le rafraîchissement de l’information

qui se perd par auto – répétition.

En 1945 nous avons eu l’élaboration d’un modèle, d’une architecture pour le

fonctionnement de l’ordinateur. La création de cette architecture répondait à la nécessité de

matérialiser la machine universelle. Et l’une des principales préoccupations consistait à

remédier au problème du ruban / mémoire infiniment long.

L’architecture proposée contient trois composants principaux : un calculateur central,

une unité mémoire et une unité arithmétique. La fonction du calculateur central, entre autres

choses, consiste à synchroniser le fonctionnement des unités mémoire et arithmétique. Enfin,

au sein de l’unité mémoire existe un petit composant de stockage qui est consacré au ré-

enregistrement de l’information qui se perd ou se fane (autrement dit : de l’auto-répétition).

Dans Intelligent Machinery Alan Turing, mathématicien spécialisé en logique formel,

fait des supputations sur le fonctionnement de la mémoire humaine. D’une part il pense que la

majorité de celle-ci est probablement employé à la rétention d’impressions visuelles et d’autre

part que la mémoire, notamment chez l’enfant, est une sorte de calepin comme on en trouve

dans les papeteries. Par ailleurs, en s’inspirant de l’être humain pour vouloir construire sa

machine-enfant, Turing fait la supposition qu’une partie de la mémoire serait verbale, elle

serait faite de définitions et de propositions (dans la machine-enfant).

Nous retenons de l’architecture Von Neumann et des supputations de Turing les idées

suivantes : il y a trois composants dont le principal à un rôle de synchronisation des deux

autres, une partie de la mémoire serait constituée d’impressions visuelles, elle serait aussi

constituée comme un calepin. Une autre partie de la mémoire serait verbale et enfin il y a un

petit composant qui sert au rafraîchissement de l’information qui se perd.

Lorsqu’on compare l’architecture Von Neumann (le processeur dans l’ordinateur) et le

modèle de la mémoire de travail de Baddeley et Hitck (tableau), on constate plusieurs points

communs. D’un côté comme de l’autre, on a le même nombre de composants ; c’est-à-dire 3.

Dans les deux cas, le principal composant a pour fonction la coordination des deux autres

systèmes. Dans l’architecture Von Neumann comme dans le modèle de Baddeley et Hitck,

chacun des composants auxiliaires possède plusieurs organes internes. Dans l’architecture

Von Neumann, l’unité de stockage des données et des instructions possède une petite unité (la

RAM) qui sert au rafraîchissement de l’information qui se perd. Dans le modèle de Baddeley

et Hitck, le système auxiliaire appelé boucle phonologique possède aussi un petit organe ; la

66

Page 68: Thèse

boucle articulatoire, qui sert aussi au rafraîchissement de l’information qui se perd. L’unité

mémoire dans une architecture Von Neumann possède une capacité de codage des données et

des instructions. La boucle phonologique du modèle de la mémoire de travail possède

également une capacité de codage. Par ailleurs, les deux types de mémoires que représentent

les systèmes auxiliaires sont d’une part verbale (boucle phonologique) et d’autre part visuo –

spatial ou calepin. Cette subdivision de la mémoire en aspect verbale, visuel et sous forme de

calepin, on la retrouve chez Turing dans Intelligent Machinery.

Le modèle de la mémoire de travail de Baddeley et Hick n’évoque pas dans sa

globalité la RAM dans l’ordinateur. Dans ce modèle, ce qui se rapproche ou est équivalent de

la RAM est le sous système appelé boucle articulatoire car les deux servent au maintien de

l’information qui se perd.

Il apparaît clairement que dans sa structure (nombre de composants principaux) et

dans des aspects de son contenu (mémoire verbale, visuelle et calepin), le modèle de la

mémoire de travail de Baddeley et Hitck est inspiré de l’informatique. C’est une réplication au

niveau humain de l’architecture Von Neumann ajouté aux supputations de Turing sur la

mémoire. Par ailleurs, le deuxième nom que Baddeley donne au composant principal est

processeur. Il n’y a donc rien d’étonnant que ce processeur soit inspiré de celui de

l’ordinateur.

La conséquence directe est que le modèle qui rend compte de la mémoire de travail a

été élaboré en s’inspirant de l’architecture Von Neumann et des travaux de Turing. Quiconque

utilise ou fait référence à ce modèle adhère, en le sachant ou pas, à la théorie

computationnelle de l’esprit : l’être humain fonctionne comme une machine de Turing ou

comme un ordinateur numérique (architecture Von Neumann).

3.2 - Stratégies cognitives ou la métaphore des procédures efficaces de Turing

3.2.1 - Présentation des stratégies

Le but de Bruner et ses collaborateurs (Bruner, Austin et Goodnow, 1956) avaient été

d’externaliser à partir d’observations les décisions prises par des participants pour effectuer

des inférences pendant la formation de concepts. Les régularités que les sujets présentent dans

leurs prises de décisions sont appelées stratégies.

67

Page 69: Thèse

Une stratégie est un modèle des décisions prises dans l’acquisition, la conservation et

l’utilisation des informations qui servent à atteindre certains objectifs.

La procédure expérimentale consistait à présenter d’abord aux sujets tous les exemples

montrant les diverses combinaisons de quatre attributs. Ces derniers étaient placés sur des

cartes qui variaient en fonction de la forme des figures, du nombre de figures, de la couleur de

la figure et du nombre de bordures. Les expérimentateurs expliquaient aux sujets ce qu’ils

entendaient par conjonction de concepts : un ensemble de cartes qui partagent certaines

valeurs d’attributs telle que « toutes les cartes rouges », ou « toutes les cartes contenant des

carrés rouges et deux bordures ». La tâche des sujets consiste à déterminer le concept que

l’expérimentateur a en tête. L’objectif du sujet consiste à choisir des cartes à tester, une par

une, et après chaque choix les expérimentateurs disent si la carte est positive ou négative :

positive si la carte choisie à un lien avec le concept que l’expérimentateur a en tête, négatif si

la carte n’a aucun lien avec ce concept. Il est demandé aux sujets d’atteindre le concept le plus

rapidement possible. Les résultats de cette recherche ont donné lieu à quatre types de

stratégies : le balayage simultané, le balayage successif, la référence conservatrice et la

tactique du risque.

Dans le balayage simultané le sujet doit envisager, en même temps, quelles sont les

hypothèses acceptables et celles qui sont à éliminer à chaque fois qu’on lui présente un

exemple. Le sujet doit traiter plusieurs hypothèses indépendantes et garder en mémoire celles

qu’il considère être les bonnes.

Dans le balayage successif, contrairement au balayage simultané, la personne évalue

une hypothèse à la fois. Si le sujet fait l’hypothèse que le rouge est le caractère commun à

toutes les cartes correctes, il choisira des exemples contenant le rouge pour examiner s’ils sont

des exemples positifs. Il continuera à évaluer ainsi les hypothèses jusqu’à ce qu’il touche le

concept correct. Le sujet qui a une stratégie de balayage successif typique limite ses choix aux

exemples qui fournissent un test direct de son hypothèse. L’avantage d’un essai direct se

situerait au niveau de l’économie cognitive car ce type de test épargnerait au sujet une

transformation supplémentaire de sa connaissance. Le recours au balayage successif

s’expliquerait aussi par l’évitement de la contrainte cognitive ; la stratégie exige une inférence

limitée et la principale contrainte sur la mémoire est la conservation d’une trace des

hypothèses déjà évaluées et de ce qu’on veut trouver. Et puisqu’on teste une hypothèse à la

fois, le nombre d’étapes sera nécessairement plus élevé que dans le balayage simultané.

Dans la stratégie de la référence conservatrice, l’objectif consiste à découvrir un

exemple qui sera jugé positif par l’expérimentateur et le sujet l’utilisera comme point focal.

68

Page 70: Thèse

En faisant une séquence de choix dont chacun modifie seulement une valeur d’attribut de

cette première carte, le sujet cherche à voir si ce changement conduit à un exemple positif ou

négatif. Dans le cas d’un exemple positif, cela signifie que les attributs de valeur modifiés ne

font pas partie du concept. Dans le cas d’un exemple négatif, cela signifie que les attributs de

valeur qui ont été modifiés appartenaient au concept. La technique du sujet consiste à

examiner la pertinence des attributs. Ainsi face à une carte focale initiale, le sujet prendra en

considération une par une les quatre valeurs d’attributs de la carte pour voir quelles sont celles

qui peuvent être éliminés. Un des avantages de cette stratégie est que, en choisissant un

exemple positif particulier comme point focal, la personne diminue la complexité et

l’abstraction de la tâche en gardant en mémoire une trace de l’information qu’il a rencontrée.

Dans la stratégie de la tactique du risque, le sujet utilise aussi un exemple positif

comme point focal et change plusieurs valeurs d’attributs à la fois. Cette stratégie ressemble à

la référence conservatrice mais cependant, elle en est différente. La tactique du risque est une

manière d’atteindre le concept en peu d’essais. Mais il y a un risque, la stratégie peut exiger

aussi beaucoup plus d’essais que prévus. Les problèmes surgissent lorsque le changement de

plus d’un attribut ne conduit pas à un exemple positif mais négatif. Dans ce cas, la seule

manière d’utiliser l’information contenue dans l’exemple est de retourner à la stratégie du

balayage simultané en utilisant l’exemple comme une aide pour éliminer des hypothèses

possibles. Lorsqu’il faut procéder à un tel détour, la tactique du risque perd toute efficacité

économique. La stratégie ne garantit pas que des exemples superflus seront évités. Tant que la

personne n’utilise pas l’information contenue dans les exemples négatifs, il aura tendance à

choisir des exemples qui contiennent une information qui aurait pu être assimilée à partir

d’exemples négatifs antérieurs.

Dans toutes ces stratégies on procède étape par étape. Dans le balayage simultané tout

ce que fait le sujet ; conserver et traiter en mémoire des hypothèses indépendantes, constitue

une étape qui a pour objectif de déterminer la meilleur prochaine étape. La répétition de ce

même processus que le sujet effectue sur un matériel différent à chaque fois constitue les

différentes étapes de la stratégie. Dans le balayage successif où le sujet évalue une hypothèse

à la fois et qui porte sur chacune des valeurs d’attributs, les différentes étapes sont clairement

constituées par chacune des hypothèses faites. Il y aura autant d’étapes que le sujet aura fait

des essais avant d’atteindre le bon concept. Dans la référence conservatrice où il s’agit de ne

modifier à chaque fois qu’une valeur d’attribut, les différentes étapes seront constituées par le

nombre de fois que le sujet changera de valeur d’attribut avant d’atteindre le bon concept.

69

Page 71: Thèse

Dans la tactique du risque, avec le changement de plusieurs valeurs d’attributs à la fois, les

étapes seront constituées par le nombre de changement de plusieurs valeurs d’attributs en

même temps avant d’atteindre le bon concept.

La présence de ces différentes étapes ne suggère, en tant que telle, aucune référence à

l’informatique. Mais dans les stratégies trouvées par Bruner et al. il n’y a pas que l’existence

de ces différentes étapes qui interpelle, il y a aussi la gestion des contraintes imposées en

mémoire.

La gestion des ressources concerne un type de mémoire particulière. Si la mémoire de

travail est la capacité à traiter des informations pendant qu’on en maintient d’autres en

mémoire, alors toutes ces stratégies font appel à la mémoire de travail. La stratégie la plus

contraignante est le balayage simultané car l’utilisateur de ce processus doit traiter à la fois

plusieurs hypothèses indépendantes, maintenir celles qu’il juge pertinentes, tout cela en vue

d’évaluer la meilleure prochaine étape.

A l’inverse, le balayage successif en raison du traitement d’une hypothèse à la fois ne

peut mobiliser autant de ressources que le balayage simultané. La principale contrainte, selon

les auteurs, est la conservation d’une trace des hypothèses déjà évaluées et de ce qu’on veut

trouver.

Le coût en mémoire dans la stratégie de la référence conservatrice est proche de ce qui

se fait dans le balayage successif. En ne modifiant qu’une valeur d’attribut de la première

carte focale, les ressources sont mobilisées essentiellement pour garder une trace de

l’information déjà rencontrée.

La stratégie de la tactique du risque, dans ce qu’elle représente comme coût au niveau

de la mémoire, est un mélange de la référence conservatrice et du balayage simultané. D’une

part elle ne peut nécessiter que peu de ressources en mémoire en gardant une trace de

l’information déjà vue, d’autre part elle peut recourir à un traitement simultané de différentes

hypothèses selon l’évolution de la tâche.

Présence de différentes étapes et gestion de la mémoire, il n’y a à cela toujours rien

d’étonnant surtout lorsque l’étude porte sur une tâche cognitive qui s’apparente à une tâche

de résolution de problèmes. Chercher à déterminer les différentes étapes effectuées par les

personnes pour aboutir à la solution et s’intéresser à ce que représente en mémoire le coût du

traitement de la tâche, est dans l’ordre naturel des choses. Mais le contexte intellectuel de

l’époque ne permet pas de se limiter à ce point de vue. L’idée de Turing de procédures

efficaces (algorithme) ou de la description d’un problème en nombre d’étapes finies pour

aboutir à sa résolution a fait son chemin. Von Neumann et ses collaborateurs ont élaboré une

70

Page 72: Thèse

architecture qui rend fonctionnelle la machine universelle et résout le problème du ruban /

mémoire infiniment long de la machine originelle. La présence de différentes étapes et

l’intérêt porter à la gestion des ressources en mémoire ne sont pas anodins.

3.2.2 - Balayage « mental » de la machine de Turing, opérations d’addition et de multiplication de l’architecture Von Neumann comme base des stratégies de Bruner et al.

L’étude de Bruner et ses collaborateurs a été publiée en 1956. Nous savons qu’au

cours des années cinquante Bruner est intéressé par les innovations qui se font en

informatique et en théorie de l’information. Il a été dit au moment de la publication de cette

étude (Johnson-Laird, 1988; Gardner, 1993) que les stratégies trouvées par ces auteurs

ressemblaient aux algorithmes informatiques. La présence de différentes étapes, les bénéfices

et surtout les coûts liés à la mémoire dans ces stratégies nous font dire sans risque d’erreurs

que ces procédures sont effectivement inspirées non seulement des algorithmes d’une

machine de Turing mais aussi au fonctionnement de l’architecture Von Neumann bien au-delà

du simple problème de la mémoire. Il en va ainsi jusqu’au vocabulaire utilisé pour désigner

certaines de ces stratégies qui serait d’une part un emprunt aux processus qui se déroulent

dans une machine de Turing et d’autre part à différents types de fonctionnement d’une unité

de l’architecture Von Neumann.

La moitié des stratégies décrites par les auteurs (le balayage simultané, le balayage

successif) se fait par balayage mental comme ce que fait une tête de lecture dans une machine

de Turing. Ce type de machine est, grossièrement, constitué d’un ruban et d’une tête de

lecture. En fonction des configurations de la machine (ou états mentaux selon Turing), la

machine effectue un balayage « mental » qui consiste à se déplacer soit vers la droite soit vers

la gauche ou même à ne pas bouger et accomplit comme travail au cours de ce balayage de

conserver, d’effacer ou d’écrire un autre symbole sur le ruban / mémoire.

Dans le cas de la machine, ce qui est balayé ce sont les symboles. Transposé aux

stratégies de formation de concepts, ce qui est balayé dans l’esprit du sujet ce sont les

différentes hypothèses.

Ce que fait un utilisateur de la stratégie du balayage simultané ressemble à ce qui se

déroule avec la multiplication dans une architecture Von Neumann.

La multiplication pour obtenir un produit xy, dans cette architecture, passe par

plusieurs étapes où le multiplicande y est multiplié par les chiffres successifs du

71

Page 73: Thèse

multiplicateur. Chaque étape fournit un résultat partiel qui est momentanément maintenu dans

l’accumulateur. La somme des produits partiels, ainsi conservé, est graduellement augmentée

jusqu’à fournir le résultat final xy.

La ressemblance entre la stratégie du balayage simultané chez l’être humain et la

multiplication dans une architecture Von Neumann se situe dans le maintien et le traitement

simultané de plusieurs hypothèses indépendantes pour le sujet humain et le maintien en

mémoire de plusieurs résultats partiels pour la machine. Le but du jeu dans les deux cas est

toujours de conserver, en même temps, en mémoire plusieurs éléments qui seront utilisés

ultérieurement pour atteindre un objectif.

Les similitudes avec les données informatiques de l’époque ne s’arrêtent pas là. Le

fonctionnement de la stratégie du balayage simultané ressemble encore à ce qui se fait dans la

multiplication selon le type d’accumulateur. Il existait deux types d’accumulateurs : statiques

et dynamiques. Dans un accumulateur statique on ordonne simultanément une addition du

multiplicande avec ou sans son signe, une retenue complète et un décalage pour chacune des

39 étapes. On retrouve toujours l’idée d’un traitement de plusieurs éléments en même temps

(addition, signe et retenue). S’il n’y avait qu’un seul type d’accumulateur avec un traitement

simultané des tâches on aurait pu dire que cette ressemblance est fortuite, ce qui n’est pas le

cas puisque d’une part il existe un autre type d’accumulateur dit dynamique qui effectue un

traitement successif des tâches et il existe une stratégie appelée balayage successif.

Dans First draft of a report on the Edvac, Von Neumann se pose la question de la

représentation d’un nombre réel dans l’accumulateur. Il y a deux possibilités : soit ils sont

représentés simultanément par des stimuli situés à différentes positions de l’accumulateur soit

tous les chiffres du nombre sont représentés par des stimuli au même point et apparaissent

durant un nombre successif de fois. Il est question de faire le choix soit de placer des

événements multiples dans une succession temporelle soit dans une juxtaposition spatiale

simultanée. Von Neumann choisit l’aspect successif.

Il apparaît que l’opposition successif/simultané dans l’unité arithmétique a eu une

grande importance pour ses concepteurs puisqu’on la retrouve dans différents aspects :

fonctionnement dans différents types d’accumulateur et représentation des nombres. Si les

stratégies définies par les auteurs ont quelque chose à voir avec les algorithmes informatiques,

la simultanéité et la succession des balayages sont aussi liées à ce qui se passe dans l’unité

arithmétique d’une architecture Von Neumann.

Ce dont on est certain est que la stratégie du balayage simultané, bien que construites à

partir de données expérimentales sur la formation de concepts, est inspirée des données

72

Page 74: Thèse

informatiques notamment sur la notion de balayage mental, de procédures efficaces d’une

machine de Turing ainsi que de la multiplication avec un accumulateur statique dans une

architecture Von Neumann.

Il en est de même pour la stratégie du balayage successif où la ressemblance des

processus ne porte plus sur l'opération de multiplication mais sur celle de l'addition. Selon les

auteurs, la stratégie du balayage successif a pour contrainte la conservation d’une trace des

hypothèses déjà évaluées. Dans le cas de l'addition et lorsqu'il s'agit de deux éléments à

additionner, le processus s’effectue en additionnant successivement terme à terme chaque

chiffre des deux nombres. La principale contrainte est la gestion de la retenue s'il y en a une.

Si c'est le cas, le chiffre de la retenue est formé. Les deux nombres qui s’additionnent et la

retenue active à nouveau l’additionneur et la somme est émise.

La ressemblance entre la stratégie du balayage successif et de l'opération de l'addition

dans une architecture Von Neumann porte sur la gestion des contraintes et sur l'aspect

successif des traitements. Dans la stratégie du balayage successif la contrainte est la gestion

des hypothèses déjà traitées qu'il faut maintenir en mémoire et en tenir compte pour qu'ils ne

perturbent pas le bon déroulement général de la procédure. Dans l'addition la contrainte est la

gestion de la retenue qu'il faut maintenir en mémoire et récupérer pour la formation de la

somme finale. La ressemblance porte essentiellement au niveau du coût en mémoire : dans les

deux cas il est faible et la gestion est simple.

Le deuxième élément de ressemblance entre la stratégie du balayage successif et

l'opération d'addition est le caractère successif des traitements. Le balayage successif se

caractérise par un traitement des hypothèses les unes après les autres. Pour l'addition,

l'opération s'effectue en additionnant successivement terme à terme les chiffres des deux

nombres. L'aspect successif est intégré dans le circuit de l'addition et il est aussi une

caractéristique d'un type d'accumulateur.

La stratégie du balayage successif par son faible coût au niveau de la gestion de la

contrainte cognitive et par son caractère successif est inspirée des données informatiques et

plus précisément du circuit de l'opération de l'addition dans une architecture Von Neumann.

Dans la mesure où les deux autres stratégies, la référence conservatrice et la tactique

du risque, ont des contraintes cognitives qui ressemblent à celles du balayage simultané et du

balayage successif on conclu qu'elles sont également inspirées de cette architecture. La

référence conservatrice en raison de sont faible coût cognitif est inspirée de l'opération de

l'addition comme le balayage successif. La tactique du risque, en raison de son coût cognitif

qui devient très élevé lorsque le changement de plus d'un attribut conduit à des exemples

73

Page 75: Thèse

négatifs et recourt à un traitement simultané, est inspirée dans ce cas de l'opération de

multiplication dans une architecture Von Neumann.

Les stratégies les plus importantes, dans leur gestion de la contrainte cognitive, sont le

balayage simultané et le balayage successif. Les deux autres stratégies, la référence

conservatrice et la tactique du risque pour ce qui est de la gestion de la contrainte cognitive,

ne sont qu'une adaptation des deux premières.

Dans une architecture Von Neuman, parmi les quatre opérations que sont l’addition, la

multiplication, la soustraction et la division, les plus importantes sont les deux premières.

Dans cette architecture, la soustraction est une addition modifiée. La division est un processus

qui implique la multiplication et la soustraction. La soustraction et la division sont des

adaptations de l'addition et de la multiplication.

Les stratégies trouvées par Bruner et collaborateurs, qui inspireront d'autres

notamment à travers la notion de balayage, sont une application de la notion de procédure

efficace. Le vocabulaire utilisé ; balayage, simultané, successif, sont un emprunt au

fonctionnement de la machine de Turing et à l’architecture Von Neumann. La gestion des

contraintes dans ces stratégies fait penser aux fonctionnements des circuits de l’addition et de

multiplication dans une architecture Von Neumann.

3.3 - La théorie des modèles mentaux : procédure efficace, machine universelle de Turing et récursivité

3.3.1 – Définitions et caractéristiques fondamentales

Un modèle mental se définit comme une représentation interne d’un état de chose

(states of affairs) du monde extérieur. Il s’agirait d’une forme de représentation des

connaissances qui émergerait lorsque l’esprit humain est en interaction avec le monde. A

partir de cette représentation il reconstruit la réalité, conçoit des alternatives et vérifie des

hypothèses.

La fonction d’un modèle mental est de rendre explicite les objets, les propriétés et les

relations au sein d’une situation en les rendant mentalement disponible pour faire des

inférences et prendre des décisions.

74

Page 76: Thèse

On distingue trois caractéristiques fondamentales dans un modèle mental (Gineste et

Indurkhya, 1993) : la structure provisoire, la structure dynamique et l’isomorphisme au

monde.

Un modèle mental à une structure provisoire qui se construit dans la tête de l’individu

dès qu’il agit ou traite de l’information sur le monde. Les constituants de cette structure

mentale provisoire se situent en mémoire de travail et proviennent à la fois des informations

en cours de traitement et d’autres matériaux stockés en mémoire à long terme et sont

constitués par les conceptions et les connaissances antérieures. Un modèle mental à une durée

limitée qui correspond au temps de traitement requis pour la tâche.

Ces modèles, bien que provisoire, ont des structures dynamiques car ils évoluent

pendant le traitement de la situation en cours. Le modèle mental permet de « voir » en pensée

ce qui arrive quand on le fait « tourner » qu’on en modifie les éléments. La structure

dynamique permet la simulation mentale des actions envisagées et la représentation des

conséquences liées à ces actions.

Dans un modèle mental il y a correspondance terme à terme entre les éléments du

monde et les entités du modèle. On parle d’homomorphisme ; une correspondance entre le

monde et le modèle dans une relation globale d’ensemble d’éléments à ensemble d’éléments.

La structure du modèle mental correspond à la structure de la situation telle que les

humains la conçoivent.

La construction d’un modèle mental nécessite trois étapes (Legrenzi, Girotto, Johnson

- Laird, 1993). La première correspond au processus de perception et de compréhension basé

sur l’évidence du sens et des connaissances générales pertinentes : on obtient ainsi une

représentation d’un état du monde ou des choses. La seconde étape consiste à formuler une

conclusion juste qui correspond au processus normal de la description. La troisième étape

consiste à évaluer la conclusion établie. Le succès de cette évaluation dépend de la

vérification des modèles alternatifs. S’il n’y a pas de modèles alternatifs qui falsifient la

conclusion, alors cette dernière est par déduction valide.

Les modèles mentaux remplaceraient les règles formelles d’une hypothétique logique

mentale. Le raisonnement humain ne serait donc pas un processus formel ou syntaxique, il

relèverait plutôt de la compréhension de significations et de la manipulation de modèles

mentaux fondés sur ces significations et sur les connaissances générales. Autrement dit, c’est

la manipulation des modèles mentaux dans nos esprits qui faciliterait notre quotidien.

75

Page 77: Thèse

3.3.2 – Les références à Turing : procédures efficaces, récursivité et machine universelle

Fidèle à la philosophie fonctionnaliste Johnson – Laird s’inspire non seulement de

Kenneth Craik (1943) pour qui les êtres humains sont des processeurs d’informations mais

aussi il considère que la notion de procédure efficace est le critère par lequel les théories

cognitives devraient être décrites. Il s’appuie explicitement sur les travaux d’Alan Turing pour

rendre compte de sa théorie : la construction des modèles mentaux, la communication de leurs

contenus et le raisonnement sur la base de telles représentations ne seraient rien d’autres que

des processus calculatoires, informatiques. Par conséquent, une théorie cognitive exprimable

en terme de procédure efficace peut être implémentée sous la forme d’un programme

informatique (Johnson - Laird, 1983).

Il s’appuie sur trois aspects fondamentaux des travaux de Turing : procédure efficace,

récursivité et machine universelle.

On appelle procédure efficace toute procédure mise en place par un expert humain et

exécutable en un nombre d’étapes fini et qui peut être traitée par une machine de Turing.

On appelle fonction récursive une fonction qui peut s’appeler elle – même durant le

processus de son exécution, dans la notion de récursivité il y a l’idée que la construction d’une

nouvelle fonction se fait à partir d’une ancienne.

Une machine de Turing universelle est une machine capable de simuler le

fonctionnement de n’importe quelle machine de Turing particulière. La machine universelle

de Turing, par sa faculté de simulation, est le modèle de l’esprit.

Un modèle mental est une reconstruction de la réalité à partir des éléments situés en

mémoire de travail, de ceux provenant des informations en cours de traitement, ceux stockés

en mémoire à long terme et des connaissances antérieures. Un modèle mental contient donc

des éléments qui sont des représentations de la réalité ; dans un modèle mental l’esprit

procède à une simulation de la réalité comme une machine universelle de Turing simule le

fonctionnement d’une machine de Turing particulière.

76

Page 78: Thèse

Tableau 3 - Eléments de comparaison entre la machine de Turing et la psychologie cognitive

Machine de Turing Psychologie cognitive

Configuration – m ou état mental Etat mental (ou représentation mentale)

Structure d’une configuration(séquence d’instructions)

Syntaxe de la représentation mentale

Procédure effective Stratégies qui procèdent étape par étape

Balayage des symboles Notion de balayage dans les stratégies cognitives

Récursivité Dynamisme des modèles mentaux ( ?)

Machine universelle(simulation de n’importe quelle

autre machine de Turing)

Esprit humain : simulation de la réalité

En construisant des représentations mentales basées sur des éléments de simulation,

l’être humain se comporterait comme une machine de Turing universelle. La ressemblance de

fonctionnement entre les deux systèmes porte sur l’acte de simulation.

La réalité et les connaissances antérieures chez l’être humain sont l’équivalent de la

description standard d’une machine de Turing particulière qu’on insère dans la machine

universelle.

L’idée de récursivité de la machine de Turing trouverait son écho dans un modèle

mental par le fait que la construction d’une nouvelle représentation s’effectue non seulement à

partir de la réalité mais aussi à partir d’éléments déjà existants notamment en mémoire à long

terme et aussi à partir des connaissances antérieures et l’idée de récursivité se manifesterait à

partir de la structure dynamique propre aux modèles mentaux : engendrement de nouveaux

modèles à partir d’anciens.

Qu’il s’agisse de représentation mentale et de leur structure syntaxique avec des

calculs s’effectuant sur eux, de procédures efficaces, de modules cognitifs, du modèle de la

77

Page 79: Thèse

mémoire de travail, du balayage dans les stratégies, des modèles mentaux, de récursivité…

derrière ces notions et concepts se trouvent Alan Mathison Turing à travers sa machine et son

extension. La psychologie cognitive, conformément à la philosophie fonctionnaliste, a puisé

dans les travaux de Turing.

La question qui se pose est la suivante : si on a directement eu recours à la machine de

Turing et à l’ordinateur numérique pour élaborer des modèles et théories pour comprendre la

cognition humaine, pourquoi ne pas recourir directement à Turing pour comprendre ce qui se

passe lorsqu’on interagit avec l’extension de sa machine ?

78

Page 80: Thèse

Résumé de la partie théorique

Dans la seconde moitié du 19ième siècle, les mathématiciens ont eu pour ambition de

sortir les mathématiques de toutes situations paradoxales. On a appelé consistance le fait que

dans une situation donnée avec des éléments A et non A, on a soit la démonstration de A soit

celle de non A. Au début du 20ième siècle et à partir du problème de la consistance, celui de la

décision a émergé. Le problème de la décision est la situation où A et non A sont

démontrables (ou non démontrables) tous les deux. Le problème de la décision était une autre

manière d’aborder celui de la consistance et on affirmait que la solution au problème de la

décision nécessiterait un aspect calculatoire. Il fallait clarifier la notion de calculabilité et plus

précisément celle de calculabilité efficace.

En 1936, Turing propose une machine à travers laquelle il clarifie la notion de

calculabilité efficace, apporte une solution négative au problème de la décision et lègue à

l’humanité les bases conceptuelles de l’ordinateur numérique. Le plus important pour nous est

l’analyse qu’il a faite sur les propriétés d’une procédure efficace et récursive pour clarifier la

notion de calculabilité et qui a aboutit d’une part aux trois conditions restrictives ;

déterminisme, limites et localité, à sa thèse selon laquelle une personne qui exécute une

procédure efficace doit satisfaire les trois conditions et d’autre part, à son théorème selon

lequel il existe une machine de Turing capable d’exécuter chacune de ces étapes. La

démonstration sur la calculabilité aboutit à deux patterns. Soit une fonction, ou un nombre, est

calculable par une machine de Turing à l’aide d’une procédure efficace ; c’est – à – dire en un

nombre fini d’étapes, soit elle n’est pas calculable de façon efficace et dans ce cas la machine

adopte un fonctionnement cyclique.

A travers sa machine et ses travaux ultérieurs, et certainement sans en être vraiment

conscient, Turing a posé les grandes lignes de l’étude de la cognition humaine. La pensée

humaine serait organisée de façon syntaxique et des calculs s’effectueraient sur elle. Par

calcul ou computation, Turing entend des processus causaux qui sont à l’origine de la

dérivation d’un composant de la syntaxe à un autre. La cognition selon Turing a une

caractéristique importante, elle est incorporée dans le cerveau. Les travaux de Turing, surtout

l’article de 1936 ont eu des répercussions profondes notamment en philosophie et en

psychologie cognitive.

Le fonctionnalisme (fodorien) empruntera beaucoup de concepts à Turing. D’abord

son postulat de base selon lequel à un niveau abstrait l’être humain fonctionne comme une

machine de Turing. Le concept de modules cognitifs et des traitements qui s’y opèrent sont

79

Page 81: Thèse

empruntés aussi à Turing à travers ce qu’il appelait des opérations subsidiaires. L’idée que les

représentations mentales sont structurées de façon syntaxique et que des calculs s’effectuent

sur elles est également un emprunt à Turing à travers l’organisation syntaxique d’une

séquence d’instructions. Il en est de même de l’idée que la cognition (à la Turing) n’est

capable que de traiter les processus mentaux locaux, ce qui correspond à la troisième

condition restrictive. Enfin, la distinction de Fodor entre explication architecturale et

explication computationnelle au sens stricte est également inspirée du fonctionnement de la

machine de Turing.

La psychologie cognitive a pour rôle d’appliquer ou de réaliser le programme

fonctionnaliste, qui est dérivé des travaux de Turing. En somme, la psychologie cognitive se

doit d’être fidèle à la pensée de Turing.

80

Page 82: Thèse

Partie expérimentale

Les explications architecturale et computationnelle dans la recherche des

informations sur Internet

« The main thing to be noted about this operation is that it is not so much a piece of reasoning as a mechanical, or strictly mathematical, operation for which a rule has been given. No ‘mental’ operation is involved except that required to recognize a previous proposition followed by the main implication sign, and to set off what follows that sign as a new assertion.

Lewis

81

Page 83: Thèse

Chapitre 4 – Récursivité des étapes, fonctionnements acyclique, cyclique et

désorientation dans la recherche des informations sur Internet

4.1 - Démonstration de l’équivalence machine de Turing / Internaute

4.1.1 - Synthèse de l’apport de Turing

Pour apporter une réponse aux problèmes de la calculabilité et de la décision, Turing

avait commencé par analyser le comportement d’un calculateur humain entrain d’effectuer

des opérations à l’aide d’un papier – crayon et dont le papier était divisé en carrés comme

l’étaient les cahiers d’arithmétiques des écoliers de l’époque. Dans cette analyse, il s’agit de

calculabilité humaine mécanique ou de procédures mécaniques sur des configurations

symboliques. Il ne s’agit à aucun moment d’une analyse sur la computation des machines

proprement dites ni sur les processus mentaux humain en général (Sieg, 1997). Cette analyse

avait abouti à trois conditions restrictives : le déterminisme, les limites et la localité.

La condition de déterminisme implique que l’état interne du calculateur ainsi que la

configuration symbolique observée fixe la prochaine étape de calcul. La condition des limites

indique qu’il y a un nombre limité de configurations symboliques qu’un calculateur peut

immédiatement reconnaître et qu’il y a un nombre limité d’états mentaux qui doivent être pris

en compte. Dans la condition de la localité, seuls les éléments des configurations observées

peuvent être changées et les carrés observés peuvent également être changés mais chacun des

nouveaux carrés à observer devra se situer à une distance limité du carré immédiatement

observé précédemment. Le déroulement des étapes de ces conditions restrictives est récursif.

La thèse de Turing affirme qu’une personne qui exécute une procédure symbolique

efficace doit satisfaire les conditions de déterminisme, des limites et de la localité.

Le théorème de Turing affirme que toute fonction numérique qui peut être calculée par

une procédure satisfaisant les conditions de déterminisme, des limites et de la localité est une

fonction récursive. Les étapes des conditions restrictives peuvent être exécutées par une

machine.

La machine de Turing est constituée d'un automaton qui contient les états internes,

d'un ruban / mémoire infiniment long divisé séquentiellement en carrés et d'une tête de lecture

/ écriture.

82

Page 84: Thèse

A ce niveau, il y a bien une correspondance entre la situation du calculateur entrain

d’effectuer des opérations et la structure physique de la machine. L’esprit du calculateur qui

contient ses états mentaux correspond à l’automaton qui contient les états interne de la

machine, le cahier ou papier du calculateur correspond au ruban de la machine, les carrés du

cahier ou papier aux carrés du ruban, les chiffres contenus dans les carrés du cahier aux

symboles contenus dans les carrés du ruban, les actions du calculateur sur les chiffres aux

opérations d’impression / suppression des 1 et 0 de la tête de lecture / écriture, au crayon du

calculateur correspond cette même tête de lecture / écriture.

La machine est capable d’inspecter seulement un carré à la fois et d’exécuter l’une des

4 opérations que sont l’impression des 0, l’impression des 1, le déplacement de l’attention à

gauche ou à droite du carré immédiatement observé. L’opération de la machine est gouvernée

par une liste d’instructions de la forme qiSkClqm qui expriment l’état interne (qi), le symbole

dans le carré que la tête de lecture balaie (Sk), l’opération à exécuter (Cl) et le changement de

l’état interne (qm). Cette machine, selon Turing, est capable de calculer tout ce qui est

calculable.

Lorsque le problème de la calculabilité a émergé, il avait été convenu que l’application

du raisonnement inférentiel en mathématique devait se faire en fonction de la forme des

phrases (syntaxe), que ces inférences ne devaient pas porter sur des connaissances

contextuelles et devaient être conduites comme un calcul (Fege et McGuinness, 1984).

L’utilisation appropriée des règles de transition pouvait être faite avec les mêmes signes

logiques qui servent pour le calcul (Lewis, 1918).

Ainsi les inférences peuvent être représentées sous forme symbolique, et l’activité

mathématique réduite à la manipulation de symboles et être perçue comme une formule de jeu

en fonction de certaines règles qui définissent notre manière de penser : placé des énoncés les

uns derrière les autres (Hilbert, 1925).

Les règles se référant uniquement à la structure extérieure des formules et non à leur

signification, leur application peut être exécutée par quelqu’un qui ne connaît rien aux

mathématiques ou même par une machine (Gödel 1933, Gödel 1939). Autrement dit, aucun

effort computationnel n’est requis pour l’exécution de ces règles.

Par conséquent, pour que la dérivation des inférences soit bien conduite la principale

chose à noter est qu’aucune opération mentale n’est exigée à part celle nécessaire pour

l’identification de la proposition précédente suivie du signe principal d’implication et de ce

qui suit ce signe pour indiquer une nouvelle proposition (Lewis, 1918).

83

Page 85: Thèse

Turing a respecté ces recommandations. Les configurations dans sa machine ont une

syntaxe (qiSkClqm) et leur traitement par la machine se fait à travers des calculs. Calcul est

compris ici en tant que processus causal dirigé de manière syntaxique. C’est une conduction

des inférences telle qu’elle avait été envisagée par Frege et d’autres (Hilbert, Gödel, ...). Par

conséquent, un processus mental en tant que calcul est une opération formelle effectuée sur

des informations syntaxiquement structurées.

Lorsqu'une machine de Turing est construite pour calculer un nombre, on constate

qu'effectivement elle le fait en respectant les conditions restrictives. Il y a du déterminisme

parce que l'état interne actuel de la machine et le symbole balayé fixe la prochaine étape de

computation. La condition des limites est respectée parce que dans une machine de Turing le

nombre de configurations symboliques possibles que l'automaton peut reconnaître

immédiatement est limité ainsi que le nombre des états internes qu’il possède et enfin la

condition de localité est respectée parce que seuls les symboles inspectés peuvent être changés

(imprimer 0 ou 1 ou les effacer) et après un changement (mouvement de la tête de lecture à

gauche ou à droite) les nouveaux carrés inspectés sont à l'intérieur d'une distance limitée du

carré observé précédemment. Puisque même une machine peut effectuer ces calculs en

suivant les règles prescrites (le programme), c'est que la dérivation des inférences dans de tels

cas nécessite peu d'efforts cognitifs, raison pour laquelle elle peut être effectuée par une

machine.

La démonstration de l'indécidabilité est faite de façon calculatoire en ayant recours au

procédé diagonal. Turing met en évidence une situation indécidable à travers l’incapacité de

ses machines à pouvoir tout calculer. Il montre d’abord qu’une machine est acyclique parce

qu’elle calcule un nombre en un nombre fini d’étapes récursives. Il montre ensuite que

lorsqu’on demande à la même machine de calculer un nombre ou une fonction qui n’est pas

calculable de façon finie, la machine se met à boucler. Après un certain nombre d’étapes, la

machine revient à son point de départ : le calcul des premiers chiffres de la séquence. La

machine aura un fonctionnement cyclique et par conséquent il n’y a pas de procédure pour

calculer un tel nombre en un nombre fini d’étapes. L’indécidabilité de la situation tient à ce

que, auparavant, la machine s’était avérée acyclique mais on se retrouve au final avec une

machine qui est en même temps acyclique et cyclique. Acyclique lorsqu’elle est capable de

calculer un nombre en un nombre fini d’étapes récursives, cyclique lorsqu’elle n’en est pas

capable. Ce qui est intéressant pour nous, ce sont ces deux fonctionnements des machines de

Turing.

84

Page 86: Thèse

4.1.2 - Comparaison machine de Turing / Internaute

Tableau 4 - Comparaison de la machine de Turing avec Internet

Si

l’analyse de Turing est vraiment applicable sur Internet, les correspondances que la machine

entretient avec le calculateur humain en situation de travail doivent se retrouver entre la

machine et la situation de l’internaute entrain de rechercher des informations (tableau 4).

Ainsi on peut constater que l’automaton correspond à l’esprit de l’internaute, le ruban de la

machine au world wide web, les carrés du ruban aux pages Internet, les symboles contenu

dans les carrés aux liens hypertextes, les opérations de la tête de lecture / écriture à aux

actions de l’internaute à travers l’activation des liens, la fonction de balayage des carrés dans

la machine peut être comparée au rôle de téléchargement des pages par le navigateur.

Le fonctionnement d’une machine de Turing possède donc des similitudes avec le

fonctionnement humain sur un espace hypertexte. On peut penser que le symbole balayé dans

une machine de Turing correspond à un lien sur une page Internet car l’action effectuée sur ce

symbole conduit à un nouvel état interne et à une nouvelle configuration symbolique ; le lien

activé sur une page Internet conduit au téléchargement d’une nouvelle page.

Tableau 5 - Fonctionnement local et récursif dans une machine de Turing et sur Internet

Machine de Turing

q1 Sk1 Cl1 qm2 q2 Sk2 Cl2 qm3 q3 Sk3 Cl3 qm4 …Configuration 1 Configuration 2 Configuration 3

Machine de Turing Internet

Esprit du calculateur Automaton Internaute

Cahier du calculateur Ruban World wide web

Carrés du cahier Carrés du ruban Pages Internet

Contenu des carrés Symboles Liens hypertextes

Actions du calculateur Tête de lecture / écriture Activation des liens (clics)

? Tête de lecture Navigateur

85

Page 87: Thèse

Pages InternetLiens hypertextes 1 Liens hypertextes 2 Liens hypertextes 3 …Page 1 Page 2 Page 3

Une autre analyse plus profonde consiste à considérer que c’est plutôt une

configuration symbolique dans une machine de Turing qui correspond à un lien sur la page

Internet (tableau 5). Dans ce cas, ce qui est pris en compte c’est l’interaction de l’utilisateur

avec le lien en notant qu’une configuration symbolique dans une machine de Turing est

déterminée par l’interaction entre l’automaton (états internes) et le ruban (symboles balayés).

Ainsi, l’individu au début de sa recherche sur Internet est dans un certain état interne (qi),

chaque lien observé (Ski) pourra conduire à une action (Cli) au terme de laquelle l’internaute

sera dans un nouvel état interne (qm).

Il en ressort que le lien avec lequel l’internaute interagit correspond bien à ce qui est

une configuration symbolique dans une machine de Turing puisqu’on retrouve les différentes

parties qui composent la syntaxe d’une configuration symbolique : état interne, symbole

balayé, action sur le symbole, changement d’état interne et déplacement de la tête de lecture /

écriture pour démarrer la nouvelle configuration. Ainsi le passage d’une configuration

symbolique à une autre à travers l’action exercée sur le symbole balayé dans une machine de

Turing correspond au passage d’une page à une autre sur Internet à travers le lien activé. Dans

les deux cas les actions sont locales et localement déterminées. Et puisque le passage d’une

configuration symbolique à une autre est récursif, le passage efficace d’une page à une autre

dans la récupération d’une information cible sur Internet sera aussi récursif.

4.1.3 - Application des conditions restrictives sur Internet

Bien que l’analyse de Turing sur les conditions restrictives portait uniquement sur la

calculabilité et que la question de savoir si cette analyse peut être généralisée reste, à ce jour,

ouverte (Cleland, 2002), nous pensons qu’elle peut être appliquée aux sites Internet et que le

principe cognitif général qui rend compte de la récupération efficace des informations sur ces

sites est la récursivité et cela pour plusieurs raisons. D’abord parce que l’esprit humain semble

avoir un fonctionnement profondément récursif (Nelson, 1987). Ensuite, à cause de la thèse

Church – Turing qui laisse penser également que l’être humain à un fonctionnement

86

Page 88: Thèse

profondément récursif (Turing 1936, Church, 1936a). Enfin, à cause de la structure

hypertexte.

Avec le format hypertexte, cliquer sur un lien dans une page nous conduit sur une

autre. La page actuellement vue dépend toujours d’un lien de la page vue précédemment, ainsi

de suite.

La structure hypertexte des pages Internet, comportant notamment plusieurs niveaux

de profondeur, contribue au fonctionnement récursif. Pour que celui – ci soit efficace et

démontrable, il faut que l’analyse des conditions restrictives des propriétés d’une procédure

efficace soit transférable sur Internet ; c’est- à – dire, montrer que les étapes au sein d’une

hypothèse de récupération d’une information cible sont nécessairement récursives. Il faut

donc reprendre cette analyse en procédant à deux substitutions : à une configuration

symbolique va correspondre un lien sur la page Internet, les actions de l’utilisateur étant les

clics. La condition de déterminisme devient : le comportement de l’internaute est déterminé à

tout moment par les liens de la page qu’il observe et par son état mental ou, il existe un

axiome qui exprime les règles que doit suivre un internaute face à une page dans n’importe

quelle étape de sa navigation en vue d’obtenir la suivante.

Et puisqu’il est important que les liens pertinents qui déterminent l’action d’un

internaute soient immédiatement reconnaissables, la condition des limites devient :

1.1 – Il y a un nombre limité de liens qu’un utilisateur peut immédiatement

reconnaître.

1.2 – Il y a un nombre limité d’états mentaux qui sont pris en compte.

La condition de la localité devient :

2.1 – Seuls les liens vues actuellement peuvent être actionner.

2.2 – Après une action les nouveaux liens observés doivent être à l’intérieur d’une

distance limitée (c’est – à – dire d’un clic) des liens de la page précédente.

Il y a récursivité dans les étapes parce que les résultats du 2.2 ; les nouveaux liens

observés, se situeront dans la nouvelle page et parmi les liens qu’un utilisateur devra

reconnaître immédiatement, c’est – à – dire 1.1. La récursivité concerne les étapes sur les

pages Internet.

La thèse de Turing devient : toute personne qui exécute une procédure mécanique sur

Internet doit satisfaire les conditions de déterminisme, des limites et de la localité.

Cette thèse est l’aboutissement d’une analyse de la pensée humaine mécanisée portant

sur des dérivations mécaniques des inférences. L’application de l’analyse de Turing sur

87

Page 89: Thèse

Internet ainsi que l’approche externaliste auront des conséquences sur la manière dont les

dérivations causales y sont conduites.

En tenant compte de l’analyse d’une procédure mécanique, la récursivité apparaît

clairement comme un processus local et mécanique et par conséquent nous pouvons nous

permettre d’harmoniser l’explication du processus cognitif humain à l’œuvre sur Internet avec

l’analyse du calcul à la Turing.

Nous affirmons donc que ; que nous fassions une recherche à partir du menu d’un site

Internet, à partir de son moteur de recherche aussi bien qu’à partir des moteurs de recherches

« conventionnels » externe au site, le principe cognitif de base est la récursivité.

La récursivité sur Internet implique qu’il y a bien une computation de type classique

qui se fait à chaque étape, que le résultat d'une étape est réinvesti pour accéder à l'étape

suivante et que les informations rencontrées sur chaque page conduisent à deux cas de figure

possibles : soit la recherche se fait sur la base d’une procédure mécanique (comme dans une

machine acyclique) et cela aboutit directement à l’information cible, soit il y a absence d’une

procédure mécanique et l’internaute s’engage dans une navigation cyclique (comme une

machine cyclique).

Il est important de ne pas perdre de vue que chez le calculateur de Turing, les étapes

récursives sont sur le papier et non dans son esprit bien que médiées par ses actions. Dans la

machine, la récursivité des étapes est également sur les configurations du ruban et non dans

l’automaton. Ici aussi la récursivité des étapes est médiée par les actions de la tête de lecture /

écriture sur le ruban. Aussi bien sur Internet, la récursivité des étapes se situera sur les pages

Internet et non dans l’esprit de l’internaute bien que cette récursivité soit médiée par les

actions de l’internaute.

4.1.4 - Le problème des procédures non mécaniques

La machine de Turing (acyclique) est la modélisation d’un calculateur humain entrain

de calculer un nombre réel en respectant les trois conditions restrictives. Cette machine est le

modèle de la pensée humaine mécanique.

Le problème avec cette machine, dans l’étude de la cognition humaine, c’est qu’elle ne

rend pas compte de toutes les procédures. Turing n’a pas modélisé les procédures humaines

non mécaniques.

88

Page 90: Thèse

La machine cyclique de sa démonstration n’est en aucun cas une modélisation de la

pensée humaine non mécanique, elle juste l’illustration d’une procédure non mécanique dans

le cadre de son théorème. Un être humain sain d’esprit ne peut pas se comporter comme une

machine cyclique de Turing ; recommencer sans arrêt les mêmes étapes d’un algorithme.

Gödel faisait remarquer très justement que les êtres humains sont capable d’utiliser un

raisonnement non finitaire (non mécanique) pour calculer des fonctions non calculables par la

machine de Turing.

Ce problème de la limitation des machines de Turing à des procédures uniquement

mécaniques n’avait pas échappé à Turing lui – même. Dans sa thèse de doctorat, il avait

envisagé l’existence d’une machine, o – machine, capable de calculer une fonction par des

procédures non mécaniques. Turing n’a pas réalisé ce projet de o – machine. De fait, on n’en

sait pas grand-chose.

Il a été suggéré que certains processus physiques peuvent avoir seulement quelques

points auxquels l’intervention causale est physiquement possible, de ce fait permettre

d’indiquer une relation d’entrée et sortie mais ne pas permettre un compte rendu mécaniste de

ce qui se passe entre l’entrée et la sortie ; un oracle pourrait être un tel processus (Cleland,

2002). Autrement dit, dans les processus non mécaniques, le déterminisme n’est présent qu’à

certains endroits alors que dans les procédures mécaniques il est présent du début jusqu’à la

fin.

La machine cyclique de la démonstration de Turing nous donne une indication sur les

processus non mécaniques. Lorsqu’une procédure n’est pas mécanique, elle tend à être

cyclique.

S'il y a des stratégies sur Internet, et puisque la situation d’un individu entrain de

chercher des informations sur Internet correspond à la machine de Turing, alors ces stratégies

devront ressembler aux deux patterns de la machine de Turing et le coût cognitif dans la

conduction des inférences devrait être faible.

89

Page 91: Thèse

4.2 – L’explication architecturale dans la recherche des informations sur Internet

4.2.1 - Introduction

Le fonctionnement cyclique des utilisateurs a déjà été signalé de façon générale dans

l’interaction homme – ordinateur sans données expérimentales (Monk, 1998; Monk, 1999;

Ryu et Monk, 2004), plus rarement de façon spécifique associé à Internet avec des données

expérimentales (David, Song, Hayes, Fredin, 2007).

Cet aspect cyclique n’a pas été lié aux travaux de Turing bien qu’on parle d’itération

(Monk, 1999). Pourtant, ces patterns d’accès rapide à l’information (en un nombre fini

d’étapes) et processus en boucle correspondent aux deux cas de figures du calcul des fonction

récursives partielles avec une machine universelle de Turing. Une fonction récursive partielle

est une fonction au cours de laquelle le calcul peut soit fournir le résultat exact en un nombre

fini d’étapes, soit diverger ; c’est – à – dire ne pas donner de réponse (Turing et Girard, 1995).

Cette correspondance conduit à s’interroger sur les liens pouvant exister entre le

fonctionnement des machines de Turing et les stratégies de recherche des informations sur

Internet.

L’analyse de Turing du calculateur humain entrain d’effectuer des opérations l’avait

conduit à extraire trois conditions : le déterminisme, les limites et la localité. Chacune de ces

conditions pouvant être exécutée par une machine : la machine de Turing composé d’un

automaton, d’une tête de lecture et d’un ruban / mémoire infiniment long. Cette machine a

deux comportements possibles : soit acyclique lorsqu’elle exécute une procédure efficace et

récursive, soit cyclique lorsque la procédure est inefficace.

La situation de l’internaute entrain de chercher des informations correspond point par

point à la structure d’une machine de Turing. Et d’autre part, les trois conditions restrictives

peuvent être appliquées sur Internet. Dans ce cas la thèse de Turing devient : toute personne

exécutant une procédure efficace dans sa recherche des informations sur Internet doit

satisfaire les conditions de déterminisme, des limites et de la localité.

90

Page 92: Thèse

A partir des recherches des participants, nous nous attendons à trouver deux patterns :

accès rapide à l’information cible en un nombre fini d’étapes (machine acyclique) et échec ou

accès tardif à l’information s’accompagnant d’un fonctionnement cyclique (machine

cyclique). Dans ce dernier cas, il y a un retour fréquent aux pages perçues comme pages de

référence ; revenir sans arrêt au point de départ et amorcer à chaque fois une nouvelle

computation (comme dans la démonstration de Turing avec le procédé diagonal) et cela aussi

bien quand on utilise le menu d’un site que lorsqu’on utilise le moteur de recherche.

Si l’application de l’analyse de Turing sur Internet est pertinente, nous devrions

trouver un fonctionnement cyclique et acyclique sur Internet ainsi qu’une relation linéaire

entre les temps de recherche d’une information cible et le nombre de cycles. Cette relation

serait dépendante du niveau de complexité du site qui est indiquée par la qualité de la

distribution de la variable temps. Lorsque les deux distributions tendront vers une allure à peu

près normale ; c’est – à – dire lorsque le site sera de complexité moyenne, on pourra

s’attendre à une corrélation forte, positive et significative. Tous les autres cas possibles

renverront à des corrélations moyenne, faible et même nulle.

Par ailleurs, si la mémoire de travail joue un rôle dans l’efficience des sujets sur

Internet alors on doit s’attendre à une corrélation forte et négative entre le temps d’exécution

de la tâche et les performances en mémoire de travail. Plus on est fort en mémoire de travail et

moins élevé sera le temps d’accès à l’information cible.

Pour vérifier ces hypothèses, nous ne nous intéresserons pas aux intentions du sujet ni

à la cohérence ou pas des liens sur lesquels il clique par rapport à la consigne. Nous nous

intéressons tout simplement à l’interaction du sujet avec le système qui se fait à travers

l’inspection de chacune des pages visitées (condition des limites), au clic effectué sur ces

pages (condition de localité), au passage d’une page à une autre (condition du déterminisme)

et à l’arrêt de la recherche. Cet arrêt marque soit l’accès à l’information cible soit la fin du

temps consacré à la recherche. En d’autres termes, nous nous intéressons au temps

d’exécution de la tâche, au nombre de cycles et à ce que nous appelons des pages de

référence.

4.2.2 - Méthode

Participants et matériel

91

Page 93: Thèse

Participants. 28 étudiants en L2 (licence deuxième année) ont participé à l’expérience

dont 20 femmes et 8 hommes. La moyenne d’âge est de 20.8 ans avec un écart type de 3.9.

Le site sur lequel les étudiants effectuent la recherche est le site officiel de l’UNESCO

dans sa version française. Aux extrémités droites et gauches de la page d’accueil se trouvent

des liens regroupés en grandes catégories. Dans le cadre de gauche, on a les catégories

Thèmes, Dans le monde, Communautés. Dans celui de droite on a les catégories Organisation

et Services. Entre ces deux cadres il y a des informations concernant l’actualité de l’UNESCO

avec divers liens. En haut du site, sur un cadre horizontal se trouvent les liens contenus dans

la catégorie Thèmes. Entre ce cadre horizontal et le reste de la page, il y a le moteur de

recherche. Il n’est présent que sur la page d’accueil. La voie la plus rapide pour accéder à

l’information cible en passant par le menu consiste à cliquer sur Sciences sociales et

humaines, Ethique, Bioéthique et Brochure de la déclaration Français.

Le logiciel utilisé pour l’enregistrement vidéo pendant toute la durée de la recherche

de l’information cible est Hypercam 2.

Nous utilisons également une version informatisée du test d’empan verbal de

Daneman et Carpenter. Ce test consiste à présenter au sujet 6 blocs de phrases, chaque bloc

contient 3 essais. Le principe du test est de faire lire au sujet des phrases à haute voix et lui

demander de rappeler le dernier mot de chaque phrase à la fin de chaque essai. Le nombre de

phrases au sein de chaque bloc augmente de deux à 6.

Un questionnaire portant sur l’état civil, le nombre d’années d’utilisation d’Internet, la

fréquence d’utilisation, le type de sites visités… est proposé aux sujets.

La consigne pour la recherche de l’information cible était :

« Vous êtes dans une entreprise et au cours d'une réunion de travail le groupe se trouve dans une

impasse, on vous charge de trouver sur Internet le texte officiel de l'Unesco qui réglemente les progrès

dans le domaine des sciences de la vie et des droits de l’homme (cellules souches, tests génétiques,

clonage). Il s’agit d’un seul texte. Vous avez 10 minutes pour trouver cette information sur le site

officiel de l'Unesco. »

4.2.3 - Procédure

L’expérience se divise en deux parties. Dans un premier temps, l’étudiant commence

par remplir le questionnaire. On passe ensuite au test d’empan verbal de Daneman et

92

Page 94: Thèse

Carpenter (Daneman et Carpenter, 1980) dans sa version française (Desmette, Hupet,

Schelstracte, Van der Linden, 1995). Ce test est utilisé pour évaluer la mémoire de travail. La

première page qui s’affiche à l’écran contient la consigne. Pour passer d’une page à une autre

le sujet doit appuyer soit sur la barre espace soit sur la touche entrée. L’expérience s’arrête

lorsqu’il y a deux échecs au sein d’un même bloc.

Dans la seconde partie, le sujet fait sa recherche uniquement sur le site officiel de

l’Unesco. Le participant garde la consigne sous les yeux pendant toute la durée de la tâche.

Quand l’expérimentateur s’est assuré que l’étudiant a bien compris la consigne, il affiche la

page d’accueil du site officiel de l’Unesco et active le logiciel Hypercam 2. Cette partie de

l’expérience dure au maximum 10 minutes. Si à la fin de ce temps l’étudiant n’a pas trouvé

l’information cible, l’expérience est arrêtée.

Il y a cycle lorsque le sujet revient sur une page déjà visitée et exerce une action

dessus (un clic) pour commencer une nouvelle hypothèse sur l’information à trouver. Un

cycle est constitué aussi par chaque recours au moteur de recherche lorsque celui – ci est

présent sur chaque page du site. Un cycle est donc encadré par deux clics sur une même page

mais à différents moments dans le temps. Parce que le sujet revient sur cette page pour

l’utiliser comme point de départ pour une nouvelle hypothèse, cette page devient une page de

référence. Une hypothèse de récupération de l’information cible correspond à chaque clic

effectué sur un lien de la page d’accueil ou sur une page de référence.

Le décompte du temps pour la durée de l’exécution de la tâche Internet commence dès

que le logiciel Hypercam 2 est activé et s’achève au moment du clic qui précède l’affichage

de la page contenant l’information cible. Si le sujet ne trouve pas l’information au cours des

10 minutes, l’expérience est arrêtée.

Nous nous intéressons à deux principaux patterns ; l’accès direct à l’information cible

qui se caractérise par un clic sur chaque page jusqu’à l’information recherchée et le pattern de

l’échec qui se caractérise par le retour régulier sur une page de référence qui peut être la page

d’accueil, celle où figure un moteur de recherche ou une page particulière choisie par le sujet.

Le nombre de cycles servira de critère pour distinguer les deux patterns. Dans le

premier on ne s’attend à aucun cycle et à l’utilisation d’aucune page de référence sauf la page

d’accueil qui n’est pas comptabilisée au début de la recherche parce qu’elle est le point de

départ pour tout le monde. Dans le second, le nombre de cycles et de pages de référence sera

nécessairement plus élevé (plus grand que 0).

La mesure au test d’empan verbal est obtenue en comptant le nombre de blocs réussis

avant les deux échecs au sein d’un même bloc, un bloc réussit compte deux points.

93

Page 95: Thèse

4.2.3 - Résultats

Analyse descriptive générale des cycles, du nombre de pages visités et des pages de

recommencement

Tableau 6 - Données descriptives pour l'ensemble des sujets

Moyenne Minimum Maximum N

Pages visitées19.68(9.94) 4 34 28

Cycles5.71

(3.88) 0 13 28

Pages de recommencement

2.68(1.54) 0 6 28

Les données pour l'ensemble des participants (tableau 6) montre la présence de cycles

dans la récupération des informations m = 5.71 (écart - type = 3.88) ainsi qu'une pluralité de

pages de recommencement m = 2.68 (écart - type = 1.54), ce nombre moyen de pages de

recommencement est bien entendu inférieur à celui des cycles (2.68 vs 5.71). Le nombre

maximum de cycles est de 13 et celui des pages de recommencement est de 6. Le nombre de

pages de recommencement est au pire égale à celui des cycles sinon il lui est toujours

inférieur. Le nombre minimum de cycles aussi bien que celui des pages de recommencement

est de 0. Le nombre moyen de pages pour accéder à l’information cible est élevé m = 19.68

(écart – type = 9.94).

Identification des procédures (stratégies)

Tableau 7 - Moyennes et écarts - types en fonction du type de procédure

Nombre de pages visitées

MinimumPages visitées

MaximumPages visitées

Cycles N

Procédure mécanique 4 4 4 0 2

Procédure non mécanique

20.88(9.25)

7 34 6.15(3.66)

26

94

Page 96: Thèse

Une procédure est mécanique (tableau 7) lorsqu'elle permet d'atteindre la solution de

façon fiable, en un nombre fini d'étapes récursives ; c'est – à – dire qu'il y a absence de cycles.

Les données montrent que pour les procédures mécaniques, le nombre moyen de pages

visités pour accéder à l’information est de 4 et il y a absence de cycles. Cela signifie que

l’accès à l’information cible s’est effectué en un nombre fini d’étapes récursives. Chaque page

visitée constituant une étape.

Par opposition, une procédure est non mécanique (tableau 7) lorsqu'elle ne permet pas

d'atteindre la solution de façon fiable, en un nombre fini d'étapes récursives. Dans ce cas, le

fonctionnement devient cyclique.

Chez les 26 participants sur 28 qui n'utilisent pas une procédure mécanique, nous

avons effectivement un certain nombre de cycles m = 6.15 (écart - type = 3.66). Le nombre

moyen de pages visités est beaucoup plus élevé, comme on doit s'y attendre, lorsque la

procédure est non mécanique que lorsqu'elle est mécanique (4 vs 20.88).

La présence de cycles signifie que le déterminisme n’est pas respecté et le nombre

moyen de pages visités traduit le nombre moyens d’étapes effectués pendant la recherche de

l’information. Ce nombre moyen, dans le cas des procédures non mécaniques, concerne à la

fois les étapes récursives que non récursives ; les points où le déterminisme n’est pas

appliqué.

Procédures non mécaniques

Tableau 8 - Analyse descriptive des procédures non mécaniques

Nombre moyen de pages visités

Minimum Maximum N

Succès 12.92(4.58)

7 21 12

Echec 27.71(6.17)

16 34 14

Lorsque la procédure est non mécanique, le nombre moyen de pages visités est plus

grand lorsqu’il y a échec m = 27.71 (écart-type = 6.17) que lorsqu’il y a récupération de la

cible m = 12.92 (écart-type = 4.58). Les minima et les maxima du nombre de pages visitées

95

Page 97: Thèse

sont également plus élevés lorsqu’il y a échec (16 et 34) que lorsqu’il y a récupération de la

cible (7 et 21).

Cycles dans les procédures non mécaniques

Tableau 9 - Analyse descriptive des cycles dans les procédures non mécaniques

Nombre moyen de cycles

Minimum Maximum N

Succès 3.67(3.23)

1 12 12

Echec 8.29(2.52)

4 13 14

Lorsque la procédure est non mécanique et qu’elle conduit à la récupération de la

cible, le nombre moyen de cycles utilisés par les participants est nettement inférieur m = 3.67

(écart-type = 3.23) que lorsque la procédure est non mécanique et qu’elle conduit à l’échec

m = 8.29 (écart-type = 2.52). Cependant, le nombre maximum de cycles est à peu près le

même dans les cas (12 vs 13), la différence se situant surtout au niveau du nombre minimum

(1 vs 4).

Relations linéaires entre les différentes variables

Tableau 10 - Matrice de corrélation entre les différentes variables

La matrice de corrélation pour l'ensemble des données (tableau 8) montre qu'il y a une

relation linéaire entre les temps d'exécution de la tâche et le nombre de cycles r = .78 p < .05,

ce qui indique que plus on met de temps dans l'accomplissement de la tâche et plus on a

96

Page 98: Thèse

tendance a effectué des cycles. On constate également une relation linéaire entre les temps et

le nombre de pages de recommencement r = .67 p < .05, cette relation signifie aussi que plus

le temps d'accomplissement de la tâche est long et plus on a tendance à utiliser plusieurs

pages comme page de recommencement. On note enfin une corrélation positive entre les

cycles et les pages de recommencement r = .61 p < .05, le nombre de pages de

recommencement augmente en fonction du nombre de cycles.

Par contre, on n'observe aucune corrélation significative de toutes les autres variables

(temps, cycles, pages de référence) avec la mémoire de travail.

La distribution des cycles semble très bonne même s’il y a plusieurs modes (Fig. 4).

La moyenne, la médiane et l’un des modes sont presque égaux (5.71, 6 et 6). L’allure de la

distribution du nombre de cycles est proche d’une distribution normale, K–S d = .11524, p

> .20.

Par ailleurs, l’allure de la distribution de la variable temps n’est pas satisfaisante (Fig.

5). Les participants sont regroupés dans une extrémité de la distribution ; plus de la moitié

effectue la tâche entre 8 et 10 minutes et la déviation du test de normalité est significative, K-

S d = .28560, p < .01.

97

Page 99: Thèse

L’allure de la distribution de la variable temps n’étant pas satisfaisante et la corrélation

entre le nombre de cycles et les pages de référence étant élevé (r = .61), la valeur de la

corrélation entre les temps et les cycles peut être dû à l’influence de la variable pages de

recommencement.

Tableau 11 - Matrice de corrélation partielle

En maintenant constant la variable pages de recommencement (tableau 9), la

corrélation partielle entre les temps et les cycles décroît (r = .63). Nous devons noter que cette

valeur relativement élevée compte tenu de la mauvaise distribution de la variable temps, est

probablement due à la qualité de la distribution de la variable cycles. La corrélation partielle

entre les temps et les pages de référence lorsque la variable nombre de cycles est maintenue

constante diminue également (r = .40). Cependant, dans ces deux cas les corrélations restent

significatives.

4.2.4 - Discussion

Lorsque la procédure est mécanique, il y a absence de cycles et le nombre de pages de

recommencement est nul ; l’accès à l’information cible se fait à travers un nombre fini

d’étapes récursives. Ces étapes sont illustrées par le nombre de pages visités pour récupérer

l’information cible. A l’inverse, lorsque la procédure est non mécanique il y a présence de

cycles ; un retour régulier vers la page d'accueil ou une autre pour amorcer une nouvelle

tentative de recherche de l'information cible. Une procédure non mécanique peut à la fois

conduire à la récupération de l’information cible ou à son échec.

Pour l'ensemble des participants les variables temps, nombre de cycles et de pages de

recommencement corrèlent entre elles de façon positive et significative ce qui montre qu'il y a

bien une relation linéaire d'une part entre les temps d'exécution de la tâche et le nombre de

cycles et d'autre part entre ces temps et le nombre de pages de référence.

98

Page 100: Thèse

Les corrélations entre la mémoire de travail et les temps ainsi qu'avec le nombre de

pages de recommencement sont négatives conformément à nos prédictions mais elles ne sont

pas significatives. Cependant, cette mesure corrélationnelle est problématique et nous avons

trois explications qui rendent compte de la faiblesse de cette mesure. Ce serait parce que les

participants on tendance à se concentrer dans une extrémité de la distribution lorsque le

niveau de complexité du site ou de la tâche est élevé et il devient difficile d’obtenir une

corrélation acceptable avec une autre variable lorsque la majorité des participants

accomplissent la tâche à peu près dans la même durée. Deuxièmement, ce serait parce que le

temps d'exécution d'une tâche de récupération d’une information sur Internet est un temps

composite. Il est constitué du temps d'inspection de la page (condition des limites), du temps

consacré à l'activation d'un lien à travers le déplacement de la souris et le clic (condition de

localité), entre ces deux temps il y aurait celui consacré à la computation stricto sensu, il y a

le temps de passage d'une page à une autre (condition de déterminisme) et dans le cas d'une

procédure non mécanique, à ces temps s'ajoute celui consacré au retour vers une page de

recommencement. Autrement dit, chaque condition restrictive plus les retours vers les pages

de recommencement contribuent au temps global d'un participant et le cumul de chacun de

ces temps pendant toute la durée de la tâche ne peut pas être négligeable.

Si la mémoire de travail intervient dans l'exécution d'une tâche Internet, ce serait

uniquement pendant la période d'inspection de la page (condition des limites). Il n'est donc

pas étonnant que la corrélation entre la performance en mémoire de travail et le temps global

d'exécution de la tâche soit faible car la part de variance commune expliquée concerne un

aspect de ce temps composite.

Il y a une troisième explication plus profonde qui rend compte de la faible corrélation

entre la mémoire de travail et les temps. Ce résultat, bien que contraire à notre hypothèse

apparaît après réflexion tout à fait conforme à la similitude que nous avons établie à partir des

conditions restrictives entre le fonctionnement d'une machine de Turing et le fonctionnement

sur un espace hypertexte. S'il y a similitude, ce qui se passe pour la machine devrait se passer

sur l'espace hypertexte. Les procédures engendrées par cette analyse sont mécaniques aussi

bien pour le calculateur humain, pour la machine de Turing que pour l’Internaute et comme

cela a été souligner plusieurs fois et depuis longtemps, l’exécution de telles procédures ne doit

nécessiter aucun ou très peu d'effort intellectuel (Fege et McGuinness, 1984; Gödel 1995,

Gandy 1988, Lewis, 1918) et c’est certainement ce que Turing laissait entendre par la limite

du nombre d’états mentaux pris en compte dans la condition restrictive des limites. Par

conséquent, les performances en mémoire de travail et par déduction toute aptitude cognitive

99

Page 101: Thèse

ne devraient pas corréler fortement avec les tâches Internet parce que le passage d'une page à

une autre est presque mécanique et ne requière pas un gros effort cognitif.

Par ailleurs, il y a une différence importante dans l'utilisation de la notion de procédure

telle qu'elle est définie dans les sciences informatiques ; ensemble de règles prédéfinies à

suivre, et telle qu'elle apparaît ici. L'internaute ne dispose pas de règles prédéfinies ou d'une

procédure à suivre, il doit la découvrir. La présence de l'information cible sur le site signifie

qu'il existe au moins un algorithme qui y conduit de façon fiable. La tâche de l'internaute

consiste à découvrir « on line » cet algorithme, à faire en sorte que chaque clic soit un pas en

avant vers cette cible. Ce qui est important, c’est la découverte de l'algorithme.

Lorsqu'une procédure est mécanique, cela signifie que les conditions restrictives ont

été respectées. Ainsi le déterminisme est respecté chez les deux participants qui ont adopté

une procédure mécanique puisqu’ils arrivent à la solution en un nombre fini d'étapes

récursives et par conséquent l'accès à la page vue a été à chaque fois déterminé par la

précédente.

La condition des limites, même dans le cas d'une procédure mécanique, n'est pas

respectée et cela ne dépend pas des internautes. Les pages du site de l'Unesco aussi bien que

celles fournies par son moteur de recherche contiennent une grande quantité d'informations

qui ne peut pas être traité en un « clin d'œil » comme le recommande cette condition

restrictive. La mise en place d'une procédure mécanique montre que les participants arrivent

contourner cette difficulté. Cependant, ce serait le recours au moteur de recherche interne au

site qui contribue à éviter cette difficulté.

Par contre, la condition de localité est toujours respectée car il y a toujours une action

exercée sur un lien jusqu'à la cible et l'action exercée sur la page vue actuellement (le clic sur

un lien) conduit au téléchargement de la nouvelle page.

On en conclu que, pour récupérer une information sur Internet il faut au moins que

deux des trois conditions restrictives soient respectées : le déterminisme et la localité.

Dans le cas d'une procédure non mécanique, le déterminisme n'est pas respecté. Au

début d'une hypothèse de recherche de l'information cible, le passage d'une page à une autre

est déterminé par la page précédente. Mais au dernier moment de cette hypothèse de

recherche, à travers les dérivations de page en page, la dernière page ne conduit à aucune page

suivante mais plutôt à un retour en arrière vers la page d'accueil ou une autre page de

référence.

La condition des limites ne peut pas être respectée non plus à cause du grand nombre

d'informations disponibles sur les pages du site de l'Unesco et l’usage du moteur de recherche

100

Page 102: Thèse

interne ne semble pas être une alternative satisfaisante pour ces participants pour contourner

cette difficulté.

Par contre, ce qui se passe ici pour la condition de localité est identique à ce qui se

passe avec la condition de déterminisme dans le cas d'une procédure non mécanique. Au

début d'une hypothèse de recherche de l'information cible, le passage d'une page à une autre

est soumis à l'activation d'un lien. A la fin de cette hypothèse de recherche, il y a absence

d'action locale puisqu'il n'y aura aucun lien activé sur la dernière page mais le retour en arrière

vers la page d'accueil ou une autre page qui servira de page de recommencement. Parce que

cette page est la dernière dans une hypothèse de recherche de l'information cible, il ne peut

évidemment avoir aucune action sur elle.

On en conclu que, dans le cas d'une procédure non mécanique dans la récupération des

informations sur Internet les trois conditions restrictives ne sont pas respectées.

4.2.5 - Conclusion

Il y a bien deux patterns principaux dans la récupération des informations sur Internet ;

celui où on met en oeuvre une procédure mécanique (machine acyclique) que l'on exécute en

un nombre fini d'étapes récursives et celui où il y a absence d'une procédure mécanique dont

le fonctionnement est cyclique. Ces deux patterns sont semblables à ceux de la démonstration

de Turing sur la calculabilité et sont obtenus à partir de l'application sur Internet des

conditions restrictives (Thèse de Turing). Il en ressort que, une procédure est mécanique si au

moins deux des trois conditions sont respectées, une procédure est non mécanique lorsque

aucune des trois conditions n’est respectée. Ceci constitue une explication architecturale

puisqu'on explique comment on passe « mécaniquement » d'une page à une autre.

La faible corrélation entre la variable temps et le test de mémoire de travail nous a

suggéré l’idée que cette valeur faible était conforme à ce que les spécialistes de la calculabilité

avaient toujours affirmé depuis la fin du 19ième siècle à savoir que la dérivation mécanique des

inférences nécessitait un faible coût cognitif. Pour l’instant, rien ne nous indique que la faible

corrélation entre les temps et la mémoire de travail est un phénomène général qui n’est pas

propre à l’aptitude cognitive testée dans cette expérience. Il nous faut donc utiliser d’autres

aptitudes cognitives pour vérifier si la faiblesse des coûts cognitifs dans la recherche des

informations sur Internet est un phénomène général.

101

Page 103: Thèse

4.3 - Le problème de l’explication computationnelle au sens stricte dans la récupération des informations sur Internet

4.3.1 - Introduction

L’approche corrélationnelle en psychologie consiste à déterminer ce qu’il y a de

commun dans les variations de deux séries de mesures. S’il y a de la computation au sens

stricte dans la recherche des informations sur Internet, la série de mesures sur les temps

d’exécution de la tâche devrait fortement corréler avec celle obtenue dans un test d’aptitude

cognitive. A l’inverse s’il n’y a pas, ou très peu de computation, alors ce qu’il y a de commun

entre les variations des deux séries de mesures sera faible ou même inexistant.

Une explication est computationnelle au sens strict lorsqu’elle présente des

dérivations, des suites causales de représentations mentales, dont la dernière ligne est en

générale une spécification du comportement à expliquer (Fodor, 2003). La computation au

sens stricte sur Internet, si computation il y a, doit s’inscrire dans le même ordre d’idées.

Mais une explication computationnelle au sens strict ne suffit pas, à elle seule, à

expliquer le comportement cognitif ; l’explication computationnelle au sens stricte a besoin de

l’explication architecturale. Une explication est architecturale lorsqu’elle répond à des

questions qui portent sur la manière dont l’esprit à travers les processus causaux passe d’une

ligne à une autre (Fodor, 2003), ce qui a été montré dans la première expérience.

Plusieurs processus cognitifs, impliquant de la computation au sens stricte, peuvent

intervenir dans la recherche des informations sur Internet : la catégorisation, les schémas, les

modèles mentaux, les biais de raisonnement…

Catégorisation

La catégorisation pourrait intervenir dans la récupération des informations parce que

l’organisation des liens sur un site Internet ressemble à la catégorisation d’un air de famille ;

le découpage de l’environnement selon des classifications qui permettent de traiter de manière

équivalente des stimuli non identiques (Rosch et Mervis, 1975; Rosch, 1978). Les liens de la

première page correspondraient aux catégories superordonnées, ceux des pages plus internes

dans le site aux catégories sous – ordonnées.

102

Page 104: Thèse

La facilité d’accès à une information serait fonction d’une part de la Largeur qui

renvoie à la qualité de la catégorisation des liens de la première page et de la quantité des

informations qui s’y trouve, d’autre part à la Profondeur qui correspond au nombre de niveaux

ou de clics nécessaire pour accéder à la cible (Zaphiris et Mtei, 1997). Il peut arriver que la

compréhension des catégories et du sens des mots chez les internautes ne soit pas la même

que celle des webmasters (Gray, 1990; Remde, Gomez, Landauer, 1987; Smith, Newman,

Parks, 1997), cette incompréhension pourrait expliquer l’inefficacité des stratégies mises en

place.

La théorie des schémas

Un autre traitement cognitif qui peut intervenir dans la récupération des informations

sur Internet est l’utilisation de schémas (frame problem). Un schéma est une structure de

connaissance induite ou acquise par expérience, qui contient un ensemble de connaissances

déclaratives et procédurales (Mandler, 1984). L’expérience répétée d’événements et de

situations similaires génère des structures mentales qui les représentent. Le système cognitif

dans son fonctionnement recherche et trouve ces régularités et s’attend à ce qu’elles

réapparaissent à nouveau dans le futur (Mandler, 1979). Un schéma est donc quelque chose

qui est extrait de la mémoire et qui est transposé au problème actuel à cause de sa pertinence

et de sa similarité. Dans le raisonnement, nous utilisons ces structures de connaissances ou

schémas de raisonnement pragmatique (Cheng, Holyoak, 1985).

Cela laisse supposer qu’au cours d’une recherche d’information sur Internet, les

stratégies mises en œuvre par les participants seraient des procédures qu’ils exécutent

habituellement sur des sites.

Les modèles mentaux

Une théorie qui entretient des liens avec celle des schémas est la théorie des modèles

mentaux (Johnson-Laird, 1983). Dans le domaine de l’interaction Homme – ordinateur, cette

théorie fait partie de celles qui sont les plus utilisées pour comprendre le comportement des

utilisateurs (Tauker et Akermann 1991, Ehrlich, 1996; Allen 1997 ; Head, Archer, Yuan,

2000).

Les problèmes de désorientation et de surcharge cognitive apparaîtraient sur Internet

lorsqu’il y a une opposition entre le modèle conceptuel et le modèle mental du sujet (Head,

103

Page 105: Thèse

Archer, Yuan, 2000) : le modèle conceptuel est fourni par le webmaster à travers le site, le

modèle mental correspond aux attentes de l’internaute. Lorsque cette opposition a lieu, il

deviendrait difficile de trouver des informations sur Internet.

Les biais de raisonnement

Un autre traitement cognitif qui peut intervenir dans la recherche des informations est

la tendance systématique à prendre en compte des facteurs non pertinents pour la tâche ou à

ignorer les facteurs pertinents (Evans, 1989) : ce sont les biais de raisonnement.

Ces biais peuvent apparaître lorsque les sujets cherchent des évidences qui confirment

leurs hypothèses plutôt que des éléments qui l’invalideraient (Wason, 1960; Wason, 1966). Ils

peuvent s’expliquer aussi par la mise en œuvre d’un test d’hypothèse (Klayman et Ha, 1989)

ou encore par une défaillance cognitive provoquée par l’incapacité des gens à falsifier

l’évidence à cause de la tendance à se concentrer sur les informations positives (Evans, 1989).

Ce type de raisonnement pourrait être aussi un biais d’appariement entre certains mots de la

consigne et les items présentés dans une tâche ; les choix des sujets seraient purement

heuristiques, basés uniquement sur ce qui est visible avec aucune analyse logique de ce que

pourrait comporter le côté non visible du matériel sur lequel porte la tâche (Evans, 1989;

Evans et Over, 1996).

On peut supposer que dans la récupération des informations sur un site, surtout en

situation de laboratoire où les sujets lisent une consigne, les participants se focaliseraient sur

certains mots et procèderaient à la recherche de la cible en fonction de ces mots et le choix

des liens se ferait sans tenir compte de ce qu’ils peuvent vraiment contenir ; ce choix serait

heuristique.

La sélection d’une stratégie

Si ces traitements cognitifs participent à l’exécution des tâches Internet alors ils sont

intégrés aux stratégies de récupération des informations sur Internet.

Le modèle de la vicariance (Reuchlin, 1978) explique que chaque individu disposerait

de plusieurs processus pour s'adapter à une situation. Il y aurait une hiérarchie dans

l'apparition de ces processus et cette hiérarchie serait différente selon les individus. Ce modèle

prétend que l'accessibilité aux processus les plus efficaces serait due à des mécanismes de

sélection génétique au cours de la phylogenèse et à des mécanismes de sélection des conduites

104

Page 106: Thèse

au cours de l'ontogenèse. Cependant, lorsqu'un processus qui n'est pas le plus efficace a

conduit dans le passé à une réponse à peu près adaptée, celui-ci est renforcé et aura tendance à

être évoqué à nouveau lorsque la personne se retrouvera dans une situation similaire.

Les stratégies en tant que modules cognitifs

Si les stratégies sont des acquis phylogénétiques et ontogénétiques, alors on est dans

la modularité de l’esprit (Fodor, 1986) et dans le darwinisme cognitif (Cosmides et Tooby,

1994; Pinker, 2000). Un module cognitif est un système computationnel génétiquement

spécifié dans l’esprit / cerveau (Sperber, 1994), autonome et informationnelement encapsulé

avec une architecture neuronale fixe (Fodor, 1986) dont l’application est dédiée à un domaine

spécifique (Fodor, 1986; Coltheart, 1999) qui s’active lorsqu’il est confronté à des stimuli

relevant de ce domaine. Le darwinisme cognitif affirme que l’esprit est une adaptation conçue

par la sélection naturelle, doté d’un ensemble de modules dont l’organisation provient de

notre programme génétique (Pinker, 2000).

Les stratégies, vues sous l’angle de Reuchlin, sont des modules cognitifs et donc

dédiés à des domaines spécifiques. Lorsque les stimuli avec lesquels le sujet interagit ne font

pas partie de ces domaines spécifiques, ces stratégies ne peuvent pas émerger et on peut

penser qu’elles laissent la place à des processus non encapsulés.

La pierre d’achoppement de l’explication computationnelle au sens stricte sur Internet

Une explication architecturale doit rendre compte du passage d’une page à une autre,

l’application de l’analyse de Turing sur Internet satisfait cette exigence. Une explication

computationnelle au sens stricte doit rendre compte des processus causaux, des dérivations sur

les représentations mentales qui apparaissent pendant la recherche d’une information,

l’approche corrélationnelle devrait satisfaire cette exigence en exhibant des corrélations

fortes, positives et significatives entre une tâche de recherche d’informations et un test

d’aptitude cognitive qui requiert des inférences dans sa résolution. La pierre d’achoppement

d’une explication computationnelle au sens stricte sur Internet est la suivante : si l’analyse de

Turing est applicable à notre usage d’Internet alors le coût cognitif de la computation au sens

stricte doit ressembler à celui d’une machine de Turing or, la computation dans une machine

de Turing, la dérivation des processus causaux conformément à ce qui a toujours été dit dans

105

Page 107: Thèse

le domaine de la calculabilité ne nécessite aucun effort cognitif puisque les règles qui

président à ces transitions sont exécutées par la machine (Gödel, 1995; Hilbert, Gandy, 1988;

Lewis, 1918). Ce dont on a besoin, c’est juste l’identification de deux propositions qui se

suivent (Lewis, 1918). Le fonctionnement de l’internaute ressemblant à celui d’une machine

de Turing, il ne peut nécessiter que très peu d’efforts cognitifs dans la dérivation des

inférences ou très peu d’états mentaux. Par conséquent, la computation au sens stricte dans la

recherche des informations sur Internet devrait être presque inexistante parce que les

processus sont quasi mécaniques. On ne doit donc pas s’attendre à des corrélations fortes et

significatives mais plutôt au contraire.

S’il y a une corrélation forte entre les temps d’exécution de la tâche et un test

d’aptitude cognitive, alors la récupération d’une information sur un site Internet ferait

fortement appel à un traitement identique ou analogue à ceux cités ci – dessus (catégorisation,

schéma, modèles mentaux). A l’inverse, si nous avons des corrélations faibles ou nulles entre

les temps d’exécution de la tâche et ce test, ce serait la confirmation qu’il n’y a pas vraiment

de computation ou qu’il n’y a pas besoin d’un gros effort intellectuel dans la dérivations des

inférences pour trouver une information sur Internet.

Si c’est le premier aspect de l’hypothèse qui est vérifié, cela signifierait que notre

application de l’analyse de Turing sur Internet n’est pas pertinente. Si c’est le second volet de

l’hypothèse qui est vérifiée, cela conforterait l’analogie que nous avons établie entre le

fonctionnement d’une machine de Turing et le fonctionnement sur Internet.

Nous nous attendons à une vérification du deuxième aspect de l’hypothèse ;

corrélation faible ou nulle entre les temps d’exécution de la tâche et le test d’aptitude.

Et si l’analyse de Turing appliquée à l’usage d’Internet est vraiment pertinente, on

devrait se trouver le fonctionnement cyclique, acyclique et récursif ainsi qu’une relation

linéaire entre les temps de recherche d’une information cible et le nombre de cycles.

4.3.2 - Méthode

Participants et matériel

27 étudiants ont participé à l’expérience. 19 participaient pour la validation d’un

module de Licence, les 8 autres étaient des volontaires. La totalité des participants

recouvraient tous les niveaux d’études de la licence première année au master 2.

106

Page 108: Thèse

Le matériel est constitué d’un ordinateur et d’une caméra que l’on place derrière le

participant, de deux sites Internet et d’un test de formation de concepts.

Les participants effectuent leur tâche sur deux sites ; celui du musée du Louvre et celui

de l’Unesco dans une version différente de l’expérience précédente.

Dans cette version du site du musée du Louvre, le site ne comportait pas de moteur de

recherche interne. Il est divisé en deux par un cadre ; à gauche on a le menu et à droite le lieu

de l’affichage des différentes pages qui constituent le menu. Au cours d’une recherche sur le

site, le menu reste toujours visible sur l’écran. La voie d’accès la plus simple pour atteindre la

cible comporte quatre niveaux de profondeur. Le participant doit cliquer sur Collections,

ensuite sur Antiquités égyptiennes, Les œuvres choisies, La civilisation pharaonique. A l’issu

de ce dernier clic on voit l’image du Sphinx, parmi d’autres, avec le lieu de sa découverte.

La présentation de la page d’accueil du site de l’Unesco est assez sobre et le site

dispose d’un moteur de recherche interne. Au milieu de la page d’accueil il y a un globe et les

liens sont disposés de part et d’autres de ce globe. La voie d’accès la plus rapide à

l’information cible comporte deux niveaux de profondeur, elle consiste à cliquer sur Textes

normatifs et on arrive sur une liste de thèmes parmi lesquels figure au bas de la page La

déclaration universelle sur le génome humain et les droits de l’homme.

Le test de formation de concept de Hanfmann et Kasanin (référence) est utilisé. Il est

constitué de 22 blocs qui diffèrent par la forme, la hauteur, la couleur et le volume. Il y a cinq

couleur : rouge, bleu, blanc, orange et vert. Les formes sont au nombre de six : cercles, carrés,

trapèzes, hexagones, demi – cercles, triangles. Les hauteurs et les surfaces sont au nombre de

deux : les figures hautes et plates, grandes et petites. Il s’agit d’un test de catégories classiques

qui fait appel à un traitement analytique pour sa résolution rapide. 4 sujets n’ont pas réussit à

former les 4 catégories et l’expérience a été arrêtée au bout de 30 minutes parce qu’ils

s’éloignaient de plus en plus de la solution.

4.3.3 - Procédure

L’expérience se fait en deux séances, un délai d’au moins une semaine sépare ces deux

parties. La première porte sur les sites Internet et la seconde sur le test psychométrique. Les

participants ont pour contrainte d’utiliser le logiciel Netscape dans lequel nous avons affiché

comme page d’accueil celle du moteur de recherche Yahoo ! qui est le point de départ des

deux tâches.

107

Page 109: Thèse

La première tâche consiste à trouver le lieu de la découverte du grand Sphinx sur le

site du musée du Louvre (www.louvre.fr) et la seconde consiste à trouver les 25 articles

fondamentaux de la Déclaration universelle sur le génome humain et les droits de l’homme

sur le site de l’Unesco (www.unesco.org). Les participants disposent de dix minutes pour

effectuer chacune des tâches. Le décompte du temps se fait à partir de l’inscription de la

première lettre, soit pour l’insertion d’un mot dans le moteur de recherche soit pour écrire

l’adresse du site, jusqu’au dernier clic qui précède le téléchargement de la page où figure

l’information cible. Au cours de la première tâche, si le participant ne trouve pas

l’information cible on lui demande de passer à la tâche suivante. Pour la seconde tâche, à la

fin des dix minutes l’expérience est arrêtée lorsque le participant n’a pas trouvé l’information

cible.

Au cours de la deuxième séance, les participants travaillent sur le test de formation de

concepts de Hanfmann et Kasanin. L’objectif consiste à extraire des critères pertinents pour

former quatre groupes qui se différencient en fonction de la hauteur et du volume. Sur le haut

de chacun des 22 blocs est inscrit le nom du groupe auquel le block appartient. Les 22 blocs

sont disposés à l’envers sur la table de façon à ce que leur nom ne soit pas visible.

L’expérimentateur retourne un des blocs pour laisser apparaître le nom de son groupe

d’appartenance et demande au sujet soit de trouver les blocs qui appartiennent au même

groupe que celui qui est retourné soit de constituer les quatre groupes en même temps sans

retourner les blocs. Après chaque tentative de classification du participant et si la solution

proposée n’est pas correcte, l’expérimentateur donne une indication qui doit aider le sujet. Ces

interventions sont appelées contrôle.

Pour cette tâche de formation de concepts, les scores sont obtenus en multipliant le

nombre de contrôles par 5 et en additionnant le nombre obtenu au temps de passation.

Il y a cycle lorsqu’un participant retourne sur une page déjà visitée et exécute une

action dessus (un clic) pour commencer une nouvelle tentative de récupération de

l’information cible. Un cycle est aussi constitué par chaque usage du moteur de recherche

même lorsqu’il est accessible à partir de chaque page du site. Un cycle peut être contenu dans

un cycle plus grand ou encore, un grand cycle peut contenir de nombreux petits cycles. Un

cycle est encadré par deux clics sur la même page à différents moments dans le temps. Parce

que le participant retourne à cette page pour l’utiliser comme point de départ pour une

nouvelle tentative de récupération de l’information, cette page devient une page de référence.

4.3.4 - Résultats

108

Page 110: Thèse

Site du Louvre (1)

Analyse descriptive des temps, cycles et pages de référence

Tableau 12 - Statistiques descriptives des temps, cycles et pages de référence (Louvre 1)

Les données pour l’ensemble des participants (tableau 12) montre que le nombre

moyen de pages visitées dans la recherche de l’information cible est élevé m = 20.15 (écart –

type = 9). Ces données montrent également une présence de cycles m = 6.23 (écart – type =

4.91) ainsi qu’un certain nombre de pages de recommencement m = 2.59 (écart – type =

1.72).

Identification des procédures

Tableau 13 - Moyennes et écarts - types en fonction du type de procédure (Louvre 1)

Le

nombre moyen de pages visitées (tableau 13) lorsque la procédure est mécanique est de 7.33

(écart-type = 1.15). Lorsque l’accès à l’information cible se fait en un nombre fini d’étapes

récursives (procédure mécanique), les participants exécutent en moyenne 7 étapes ou visitent

en moyenne 7 pages.

Dans l’accès à l’information cible par une procédure mécanique sur ce site, le nombre

minimum d’étapes ou de pages visitées est de 6 et le maximum est de 8. Cette différence

s’explique par le fait que l’accès direct à l’information cible à partir du site peut se faire à

partir de deux chemins différents : soit passer par Collection à partir de la page d’accueil soit

passer par Histoire. En outre, on peut accéder à l’information cible depuis le moteur de

Moyenne Minimum Maximum N

Pages visités 20.15(9) 6 45 27

Cycles 6.23(4.91) 0 21 27

Pages de recommencement

2.59(1.72) 0 6 27

Nombre de pages visitées

Minimum (pages)

Maximum (pages)

Nombre de cycles

N

Procédure mécanique

7.33(1.15)

6 8 0 3

Procédure non mécanique

21.75(8.2)

9 45 24

109

Page 111: Thèse

recherche externe au site. Sur 27 participants, trois ont réussis à mettre en œuvre une

procédure mécanique ; absence de cycles et de pages de référence.

Lorsque la procédure est non mécanique, le nombre moyen de pages visitées est élevé

m = 21.75 (écart-type = 8.2). Il atteint 45 pages pour le cas extrême. Ce nombre de pages

visitées inclus à la fois les étapes récursives que celles qui ne le sont pas. Il y a également une

forte présence de cycles m = 6.96 (écart – type = 4.65). 24 participants ont mis en œuvre une

procédure non mécanique.

Procédures non mécaniques

Tableau 14 - Analyse descriptive des procédures non mécaniques

Lorsque la procédure est non mécanique et qu’elle conduit à la récupération de

l’information cible (tableau 14), le nombre moyen de pages visitées m = 20.11 (écart-type =

11.4) est à peu près le même que lorsque l’information cible n’est pas récupérée m = 22.73

(écart-type= 11). Les nombres minimum de pages visitées sont également proches lorsqu’il y

a accès à la solution et lorsqu’il y a échec (9 vs 11). Par contre, il y a plus de pages visitées

quand il y a récupération de la cible que lorsqu’il y a échec (45 vs 33), ce qui contraste avec

les données obtenues au cours de la première expérience.

Lorsque le sujet extrême qui visite 45 pages est retiré, nous retrouvons la distinction

entre les procédures non mécaniques avec succès et celles avec échec. Ainsi, le nombre

moyen de pages visitées lorsqu’il y a récupération de la cible diminue m = 17 (écart-type = 7),

il en est de même pour le nombre minimum de pages visitées (6 vs 11) ainsi que pour le

nombre maximum (26 vs 33).

Cycles dans les procédures non mécaniques

Nombre de pages visitées

Minimum Maximum N

Succès 20.1111.4)

9 45 9

Echec 22.735.77)

11 33 15

110

Page 112: Thèse

Tableau 15 - Analyse descriptive des cycles dans les procédures non mécaniques (Louvre 1)

Le nombre moyen de cycles (tableau 15) lorsqu’il y a récupération de la cible m = 6

(écart-type = 6.56) ne se différencie pas vraiment de la moyenne des cycles lorsqu’il y a échec

dans la récupération de l’information m = 7.53 (écart-type = 3.16). On retrouve cependant une

légère distinction entre les deux types de sous procédures non mécaniques pour les nombres

minimum de cycles (1 vs 4) et pour les nombres maximum (21 vs 16) en notant que le nombre

maximum de cycles est plus élevé dans les cas où il y a récupération de la cible.

Lorsque le sujet extrême est retiré, le nombre moyen de cycles lorsqu’il y a accès à la

solution devient plus faible m = 4.13 (écart-type = 3.60). Les minimum des cycles ne

changent pas par contre il y a des modifications dans les maximum. Lorsqu’il y a récupération

de la cible, le maximum de cycles devient plus faible que lorsqu’il y a échec (10 vs 16).

Relations linéaires entre les différentes variables

Tableau 16 - Matrice de corrélation (Louvre 1)

Dans la matrice de corrélation du site du Louvre (tableau 12) on observe une relation

linéaire significative entre les temps d’exécution de la tâche et le nombre de cycles r = .64, p

< .05. Il en est de même pour la relation entre les temps et les pages de référence r = .69, p

< .05. Il existe aussi une corrélation significative entre les cycles et les pages de référence r

= .75, p < .05.

Nombre de cycles Minimum Maximum N

Succès6

(6.56)1 21 9

Echec7.53

(3.16)4 16 15

111

Page 113: Thèse

Par contre, on observe pratiquement aucune relation linéaire entre les temps

d’exécution de la tâche et le test de formation de concepts.

La distribution des cycles est à peu près correcte (Fig. 6), le mode et la médiane sont à

10, la moyenne est à 8.20, K – S d = 13776, p > .20.

112

Page 114: Thèse

A l’inverse, la distribution de la variable temps est mauvaise (Fig. 7) K – S d = .30560,

p < .01, une majorité de sujets effectue la tâche entre 8 et 10 minutes et sont regroupés à une

extrémité de la distribution. La corrélation entre les cycles et les temps est certainement

influencée par la variable pages de référence.

Tableau 17 - Matrice de corrélations partielles (Louvre 1)

En maintenant constant la variable page de référence (tableau 13), la corrélation entre

les temps et les cycles décroît de façon importante et devient non significative r = .24. Par

contre, la corrélation entre les temps et les pages de référence lorsque la variable nombre de

cycles est maintenue constante reste significative r = .39, p < .05.

Site de l’Unesco (2)

Analyse descriptive des temps, cycles et pages de référence

Tableau 18 - Statistiques descriptives des temps, cycles et pages de référence (UNESCO 2)

Les données concernant la récupération d’une information cible sur le site de l’Unesco

(tableau 14) montre la présence de cycles m = 2.70 (écart – type = 2.43) bien que cela soit

Moyenne Minimum Maximum Médiane Mode N

Temps 6.34(3.43)

1.07 10 6.16 10 27

Cycles 2.70(2.43)

0 7 2 0 27

Pages de référence

1.74(1.56)

0 5 1 1 27

113

Page 115: Thèse

dans une proportion moindre par rapport au site du Louvre (2.70 vs 6.23), ce qui indique que

la tâche sur le site du Louvre était beaucoup plus complexe que celle de l’Unesco. On constate

aussi la présence de pages de référence m = 1.74 (écart – type = 1.56), également en quantité

moindre par rapport au site du Louvre (1.74 vs 2.59). Le temps d’accès moyen à l’information

cible est plutôt moyen m = 6.34 (écart – type = 3.43) et ce temps est inférieur au temps moyen

consacré à l’accès à l’information cible sur le site du musée du Louvre (6.34 vs 8.20). Cette

différence de temps n’est pas significative.

Identification des procédures

Tableau 19 - Moyennes et écarts - types en fonction du type de procédures (UNESCO 2)

Sur les 27 participants (tableau 15), 7 ont exécuté une procédure efficace dans la

récupération de l’information cible. Ce chiffre est plus élevé que celui obtenu sur le site du

Louvre avec la même procédure (7 vs 3). Le temps moyen d’accès à l’information cible est

rapide m = 2.27 et ce temps est proche de celui observé avec la même procédure sur le site du

Louvre (2.27 vs 2.41). Chez les 20 participants qui ont utilisée une procédure inefficace, le

temps moyen d’accès à l’information cible est évidemment plus long m = 8.16 (écart – type =

3.14), ce temps est également proche de celui obtenu sur le site du Louvre avec la même

procédure (8.16 vs 8.48). Par contre, le nombre moyen de cycles pour les procédures

inefficaces sur le site de l’Unesco est faible m = 3.65 et il constitue presque la moitié de celui

qui est obtenu sur le site du musée du Louvre (3.65 vs 6.96). A l’inverse, le nombre moyen de

pages de référence est faible sur le site de l’Unesco m = 2.35 ce qui est assez proche du

chiffre obtenu sur le site du Louvre (2.35 vs 2.92).

Relations linéaires entre les différentes variables

Temps Cycles Pages référence N

Procédure efficace 2.27(1.08)

0 0 7

Procédure inefficace 8.16(3.14)

3.65(2.11)

2.35(1.35)

20

114

Page 116: Thèse

Tableau 20 - Matrice de corrélation (UNESCO 2)

Dans la matrice de corrélation pour le site de l’Unesco (tableau 16), on observe une

corrélation forte et positive entre les temps et les cycles r = .79, p < .05, il en est de même

entre les temps et les pages de référence r = .76, p < .05. C’est entre les cycles et les pages de

références que nous observons la corrélation la plus élevée r = .84, p < .05.

Comme pour le musée du Louvre, on constate quasiment une absence de relation

linéaire entre les temps et le test de formation de concepts.

Bien que l’allure de la distribution des cycles (Fig. 8) ne soit pas très convaincante, la

plus grande déviation la plus importante entre la distribution théorique et la distribution

115

Page 117: Thèse

observée n’est pas significative K–S d = .20276, p < .15, on peut considérer que la

distribution des cycles s’approche d’une distribution normale.

L’allure de la distribution des temps (Fig. 9) est tout aussi peut convaincante mais là

aussi la plus grande déviation n’est pas significative, la distribution des temps est acceptable

du point de vue de la normalité K–S d = .22724, p < .10.

La nature de ces deux distributions justifie la bonne corrélation entre les temps et les

cycles mais la forte corrélation qui existe entre les cycles et les pages de référence (r = .84)

laisser penser que cette première corrélation est surévaluée.

Tableau 21 - Matrice de corrélation partielle (UNESCO 2)

La matrice de corrélation partielle pour le site de l’Unesco (tableau 17), montre que la

corrélation entre les temps et les cycles reste significative lorsqu’on maintient constant la

variable page de référence. Par contre, la corrélation partielle entre les temps et les pages de

référence en maintenant constant la variable cycles n’est plus significative.

4.3.5 - Discussion

Il y a deux types de stratégies dans la récupération des informations sur Internet ; une

procédure efficace et une procédure inefficace. Les procédures efficaces se caractérisent par le

respect des conditions restrictives et par conséquent par un fonctionnement récursif. Dans les

procédures inefficaces il n’y a pas respect des conditions restrictives et par conséquent le

fonctionnement est cyclique et il existe une relation linéaire entre les temps d’exécution de la

tâche et le nombre de cycles, cette relation est significative lorsque le site est de difficulté

moyenne.

La corrélation entre les temps d’exécution de la tâche et le test de catégorisation est

faible, ce qui va dans le même sens que les résultats obtenus dans la première expérience. Ces

116

Page 118: Thèse

résultats indiquent que la recherche des informations sur Internet ne nécessite pas une grande

activité cognitive.

Si notre analyse qui assimile les différentes étapes dans le fonctionnement d’une

machine de Turing aux étapes dans le fonctionnement sur un espace hypertexte est exacte,

comme l’indique les résultats, alors l’espace hypertexte obéit aux mêmes principes que la

machine. Dans ce cas la conduction des inférences sur Internet doit se faire comme dans une

machine de Turing et puisque dans cette machine la computation est locale et localement

déterminée, une théorie qui peut prétendre rendre compte de la récupération des informations

sur Internet doit être également une théorie locale et basée sur une approche externaliste de la

machine de Turing.

Le problème avec la théorie des schémas, comme cela a été souligné depuis longtemps

et avec beaucoup d’insistance (Fodor, 1975; Fodor, 1986; Fodor, 2003), c’est qu’elle est une

théorie globale et par conséquent elle ne peut s’appliquer sur un espace qui nécessite une

computation à la Turing ; c’est – à – dire locale. La théorie des schémas a été mise en place

notamment parce que la computation à la Turing s’avère impossible dans des situations qui

sont globales car dans de tels cas, la computation conduirait à une explosion combinatoire ; ce

qui n’est pas à la portée du système cognitif humain.

Cela ne signifie pas que les schémas n’interviennent pas sur Internet. Ils sont

certainement présents dans les routines préférentielles de fonctionnement. Sur un site Internet,

certains préfèrent utiliser les menus, d’autres préfèrent utiliser le moteur de recherche interne

au site, certains préfèrent combiner ces deux approches, d’autres préfèrent mener leur

recherche uniquement à partir du moteur de recherche externe au site. Ces usages

préférentiels s’expliqueraient par des schémas : des structures de connaissances acquises par

expérience. Mais utiliser de façon préférentielle le moteur de recherche ou le menu d’un site

ne nous explique pas comment on réussit à accéder à l’information cible ni pourquoi on n’y

arrive pas. La computation au sens stricte dans la recherche des informations sur Internet n’est

pas et ne peut pas être schématique.

La théorie des schémas entretient des relations étroites avec celle des modèles

mentaux. Si la théorie des schémas est globale, celle des modèles mentaux l’est aussi. Et par

conséquent, la computation nécessaire à la récupération des informations sur Internet ne peut

pas s’expliquer par les modèles mentaux.

On ne voit pas en quoi ces modèles peuvent aider à accéder à une information cible.

L’objectif d’un modèle mental est de construire une représentation de l’état des choses, du

monde. L’internaute a tout simplement besoin d’une information ou d’un indice pour exercer

117

Page 119: Thèse

une action locale. Si on active ou si on met en place un modèle mental avant de cliquer sur un

lien, alors il y a deux possibilités ; soit le modèle est revue de façon importante quand la page

est téléchargée, soit il est abandonné parce que le sujet ne peut fonctionner que de façon

heuristique et ne peut pas construire un modèle mental valide sur un site qu’il visite pour la

première fois. Puisque l’internaute ne peut avoir qu’une idée imprécise sur ce qu’il y a

derrière un lien, son modèle ne peut être qu’inadéquat et peu importe les modèles implicites

qu’il peut construire parce que ces derniers seront tout aussi bien inadéquats.

Chercher des informations sur Internet en se focalisant sur des modèles mentaux

conduirait à une grosse mobilisation des ressources cognitives et constituerait une perte de

temps consacré à leurs révisions permanentes, leurs abandons et la nécessité de recréer

perpétuellement de nouveaux qui seront de toute façon inopérants. Les modèles mentaux ne

sont d’aucune utilité dans l’efficacité de la récupération des informations sur des sites Internet

que le sujet visite pour la première fois. Il ne s’agit pas ici d’exclure toute possibilité

d’existence de modèles mentaux au cours d’une recherche d’informations sur Internet, ce que

nous voulons dire c’est que la cognition au sens stricte nécessaire dans la dérivation de

inférences pour la récupération d’une information cible ne porte pas sur eux.

L’explication computationnel au sens stricte exige l’identification du lien sur lequel il

faut cliquer pour passer à l’étape suivante. C’est cette phase d’identification du lien qui ne

requiert pas une grande computation. Les corrélations faibles vont dans le sens de ce que les

spécialistes de la calculabilité ont toujours affirmé sur la conduction ou la dérivation des

inférences ; aucune opération mentale n’est nécessaire il faut juste un signe d’implication qui

indique ce que sera la proposition suivante. Il en serait de même sur Internet car il s’agit de

dérivations causales de lien en lien. Après un clic il faut à chaque fois déterminer quel sera le

lien suivant sur lequel il faudra cliquer. Comme dans une machine de Turing, cette dérivation

sur Internet serait presque mécanique. Et dans la mesure où dans l’analyse de Turing le

nombre d’états mentaux pris en compte dans une computation est limitée, il s’en suit

également qu’il ne peut qu’en être de même pour la récupération des informations sur

Internet.

La théorie qui paraît plausible pour rendre compte de la récupération des informations

sur Internet en l’absence de computation au sens stricte est celle des biais de raisonnement et

ce serait uniquement dans son aspect biais d’appariement lié à la théorie de la pertinence.

Cette dernière théorie suppose deux étapes. La première est heuristique, elle consiste à

identifier et à sélectionner les aspects pertinents du problème pour une utilisation ultérieure.

La seconde est analytique, c’est l’étape de la conduction des inférences sur les informations

118

Page 120: Thèse

sélectionnées. La première étape serait pré – consciente, la seconde consciente. Il y a biais

d’appariement lorsque le comportement des sujets est purement heuristique, sans aucune

analyse logique.

Le choix des liens sur un site Internet serait heuristique ; on s’intéresse juste à la

dénomination du lien sans s’interroger vraiment sur les informations qu’il pourrait contenir.

Ce choix dépendrait des informations sélectionnées à une étape pré – analytique ; donc sans

vraiment de computation contrairement à ce qui se fait dans un test d’aptitude cognitive.

Cependant, la résolution du test de formation de concepts de Hanfman et Kasanin

possède des ressemblance avec la récupération des informations sur Internet. Dans ce test

l’accès à la solution est soit direct, immédiat, en une seule hypothèse ou alors il requiert

plusieurs tentatives avant d’accéder à la solution. Il y a échec au cours des premières

tentatives lorsque le sujet essaie de regrouper les éléments à partir des indices saillants,

visibles ; on catégorise les éléments soit à partir de la couleur soit à partir des formes bien

qu’il y ait plus de quatre couleurs et plus de quatre formes (dans ce test la tâche consiste à

former 4 catégories). Les échecs au cours des premières tentatives s’expliquent par le manque

d’analyse logique et la focalisation sur les aspects les plus visibles ; couleurs et formes. Ce

manque d’analyse logique ne peut être qu’une absence de computation ou au mieux, requiert

très peu de computation au sens stricte.

La recherche des informations sur Internet et le choix des liens sur lesquels on clique

seraient basés sur le même principe d’absence de raisonnement logique et de focalisation sur

les aspects visibles ; la dénomination des liens. Ce comportement est induit par la structure

hypertexte où la navigation en profondeur requiert tout simplement l’identification du lien qui

nous semble le plus pertinent pour passer à l’étape suivante.

Toutefois, il y a une différence entre le test de formation de concepts et la recherche

des informations sur Internet. L’accès à la solution dans le test exige l’abandon du

fonctionnement heuristique pour le remplacer par une analyse logique qui permet d’extraire

les critères abstraits nécessaire à la formation des différentes catégories. Dans le cas de la

recherche des informations sur Internet, il semble que l’aspect heuristique du raisonnement ne

soit jamais abandonné peut être parce que la structure hypertexte ne conduit pas à cette

contrainte. Cette différence constitue un premier niveau d’explication des faibles corrélations

entre le test de formation de concepts et les temps d’exécution des tâches Internet. Les

stratégies utilisées ; les procédures efficaces et inefficaces dérivées de la machine de Turing,

supposent un autre niveau d’explication.

119

Page 121: Thèse

La survie de l’espèce a certainement été dépendante, entre autres choses, de certaines

procédures qui ont fini par être sélectionnées à travers l’évolution. C’est souvent dans ce sens

de modules cognitifs que les stratégies sont comprises ; on s’attend à l’activation dans notre

système cognitif de certains processus prédéfinis face à une situation. Les stratégies,

comprises dans ce sens, sont donc un ensemble de règles prédéfinies qui se sont avérées

efficace à travers l’évolution ainsi qu’à travers l’histoire individuelle.

Mais les stratégies mises en œuvre sur Internet ne sont pas du même type que celles

qui sont constituées sous forme de modules. Sur Internet elles ne sont pas pré – installées dans

le système cognitif de l’individu, elles sont induites par l’interaction entre l’internaute et la

structure hypertexte. A chaque fois c’est uniquement cette interaction avec le site, avec les

informations qui s’y trouvent et les actions effectuées qui déterminent l’émergence de l’une

des deux stratégies possibles.

C’est ainsi qu’une procédure est efficace lorsque les conditions restrictives sont

respectées. C’est le cas avec la condition du déterminisme puisque les participants arrivent à

la solution en un nombre fini d’étapes récursives et par conséquent l’accès à la page vue a été

à chaque fois déterminé par la précédente ainsi que par l’état interne de l’internaute. La

condition des limites n’est pas tout à fait respectée car pour les deux sites utilisées pour cette

recherche la quantité d’informations disponibles sur une page ne pouvait pas être traité en un

clin d’œil comme le recommande cette condition. Le moteur de recherche présent sur le site

de l’UNESCO contribue à l’implémentation d’une procédure efficace, pour le site du Louvre

qui ne disposait pas à l’époque d’un moteur de recherche nous devons admettre que les

participants qui exécutent une procédure efficace arrivent à bien gérer la relative grande

quantité d’informations disponibles sur les pages du site. La condition de localité est toujours

respectée parce que sur chacune des pages visitées il y a toujours eu une action exercée sur un

lien pour passer à la page suivante jusqu’à celle contenant l’information cible.

Dans le cas d’une procédure inefficace, la condition du déterminisme n’est pas

respectée parce qu’il y a retour vers des pages déjà visitées pour amorcer une nouvelle

tentative de récupération de l’information cible. Ce retour indique que le passage d’une page à

une autre n’est pas déterminé par la précédente, ce qui aurait du être le cas s’il y avait eu du

déterminisme. La condition des limites ne peut pas être respectée non plus parce que la

quantité des informations disponibles sur les pages des sites choisis ne peut pas être traitée en

un clin d’œil. La condition de la localité n’est pas respectée non plus parce qu’il n’y a aucune

action sur la dernière page visitée au cours d’une tentative de récupération de l’information

cible mais plutôt le retour vers des pages déjà visitée pour démarrer une nouvelle tentative.

120

Page 122: Thèse

Cette émergence des procédures, ici et maintenant à partir de l’interaction avec le site,

indique qu’il n’y a pas de modules cognitifs qui les encapsulent d’autant plus que la recherche

d’une information ou l’accès à une information cible sur Internet n’est pas un processus

automatique. Cette émergence se comprend mieux lorsqu’on adopte une interprétation

interactive et que l’on restaure l’idée première de Turing qui était la modélisation de

l’interaction entre les processus qui se passent dans l’esprit et un médium externe. Dans le

cadre d’Internet il s’en suit que, comme avec une machine de Turing, la cognition résultante

(ou les processus) est une propriété émergente de l’interaction cerveau – espace hypertexte.

Dans une architecture Von Neumann (ordinateur numérique), les éléments externes

d’une machine de Turing (l’automaton et le ruban / mémoire) sont internalisés, c’est ce qui a

conduit à l’idée que la computation mentale est un traitement interne de symboles et que le

cerveau est une machine universelle qui simule la réalité à travers des représentations

internes. Toute tâche cognitive qui s’inscrit dans cette approche, manipulations internes des

représentations, requiert une bonne dose de computation au sens stricte à cause de ces

manipulations. C’est le cas du test de formation de concept utilisée dans cette recherche.

Le second niveau d’explication des corrélations faibles entre les tâches Internet et le

test de formation de concepts est que la récupération des informations, lorsque l’usage

d’Internet est assimilé au fonctionnement d’une machine de Turing, se situe dans une

approche externaliste à faible coût cognitif alors que le test de catégorisation se situe dans une

interprétation internaliste de manipulation de symboles / représentations mobilisant de grosses

ressources cognitives.

Les stratégies sur Internet (Archer, Head, Yuan, 1996; Navarro-Prieto, Scaife, Rogers,

1999), ou de façon générale sur des espaces hypertextes, sont souvent dérivées à partir des

patterns individuels de navigation. Les patterns individuels qui présentent les mêmes

régularités forment une même stratégie. L’existence de ces patterns suppose que le système

cognitif à des fonctionnements préférentiels ou réguliers face à des tâches précises, ce qui

laisse penser que les stratégies ainsi dérivées sont des modules cognitifs ou des schémas.

La différence entre ce que nous proposons ici et les autres stratégies de récupération

des informations sur Internet est que ces stratégies se basant sur des patterns individuels de

navigation, aboutissent à des procédures de type schématiques, de simples routines de

fonctionnement qui ne peuvent en aucun cas expliquer le comportement cognitif des sujets sur

Internet. La méthode des patterns est source de confusion car il est difficile avec cette

méthode de distinguer l’aspect architectural de l’aspect computationnel au sens stricte.

121

Page 123: Thèse

Dans le cadre d’une interaction entre un agent et un espace hypertexte, on doit tenir

compte de l’aspect local des actions à travers les clics et du passage récursif ou non d’une

page à une autre. Tout pattern qui prétend expliquer des stratégies de récupération des

informations sur Internet doit tenir compte de ces deux éléments car ils sont au cœur de

l’activité cognitive de l’internaute. Ce ne sont pas les patterns qui sont importants ici mais

plutôt les différentes étapes (conditions restrictives) qui conduisent à l’information cible ou à

l’échec de sa récupération. C’est seulement après avoir isolé ces étapes qu’on peut dégager un

pattern de recherche d’informations sur Internet qui serait difficile d’obtenir lorsqu’on

travaille dans une approche internaliste.

La théorie des schémas, celle des modèles mentaux, les stratégies perçues comme des

modules cognitifs se situent tous dans une approche internaliste de manipulations de symboles

/ représentations et sont donc inadéquats pour rendre compte de l’interaction entre un agent et

un environnement telle qu’elle est illustrée ici par l’interaction internaute – espace hypertexte.

Lorsqu’on est dans une approche externaliste où la computation est une propriété

émergente entre un agent et un environnement, où les représentations sont instanciés dans le

cerveau à partir de cette interaction et où on n’est pas dans une manipulation interne de

symboles / représentations, la computation au sens stricte est nécessairement et forcément

faible. Par conséquent, les corrélations entre une tâche de récupération des informations sur

Internet et un test d’aptitude cognitive doivent être également faibles. Il existe dans la

littérature un résultat qui va dans le même sens indiquant que les mauvaises performances

dans la recherche des informations sur Internet seraient lié à un haut niveau de complexité

cognitive alors que l’efficacité serait liée à un faible niveau de complexité cognitive (Ford,

Miller, Moss, 2001).

4.3.6 - Conclusion

L’explication architecturale montre que le passage d’une page à une autre se fait à

travers des étapes récursives. L’explication computationnelle révèle que la computation au

sens stricte qui se fait à l’intérieure de ces étapes requiert peu d’efforts cognitifs ou peu

d’états mentaux. Il n’y a donc aucune raison de s’attendre à des corrélations fortes entre un

test d’aptitude cognitive et une tâche de récupération des informations sur Internet. La

computation sur Internet est essentiellement un processus architectural.

122

Page 124: Thèse

Le nombre restreint des stratégies possibles révèle qu’il y a très peu de variabilité aussi

bien au niveau inter – individuel qu’au niveau intra – individuel. La stratégie qui émerge est

soit une procédure efficace soit une procédure inefficace. Et cette émergence est une propriété

de l’interaction sujet – site internet.

Sur Internet, en règle générale, on exécute d’abord des opérations simples. La stratégie

se définie, se matérialise ou émerge au fur et à mesure que ces opérations s’enchaînent. La

stratégie émerge dans notre système cognitif ici et maintenant et non pas avant comme si elle

était encapsulée dans notre esprit – cerveau attendant des stimuli spécifiques pour être activée.

Cette émergence des procédures s’explique dans le cadre de l’approche interactive de

la machine de Turing qui est la première exploration systématique de l’interaction agent –

environnement.

Les deux principales caractéristiques qui nous intéressent depuis le début sur une

machine de Turing ; les fonctionnements acyclique et cyclique ainsi que le faible coût

cognitif, se retrouvent dans l’usage d’Internet. On peut donc affirmer que le fonctionnement

de l’internaute ressemble bien au fonctionnement des machines de Turing et par conséquent

l’analyse du père de l’ordinateur est la solution pertinente pour comprendre l’activité de

recherche des informations sur Internet. Mais pour que cette analogie soit totale, il faut que le

problème majeur rencontré sur Internet, la désorientation, puisse s’expliquer à partir des

machines de Turing.

4.5 – Désorientation sur Internet et complexité des sites

4.5.1 - Introduction

Le problème de la désorientation sur Internet est souvent associé à celui de la charge

mentale ou charge cognitive (et même surcharge cognitive). La charge mentale renvoie à la

quantité de ressources mentales mobilisée par un sujet lors de la réalisation d’une tâche et elle

est fonction des difficultés de traitements imposés par celle - ci et des ressources mentales

allouées à sa réalisation (Tricot et Chanquoy, 1996).

Au cours de l’exécution d’une tâche, il y a trois aspects qui interviennent : les

caractéristiques de l’environnement, le nombre de pas nécessaire pour accéder au but et les

123

Page 125: Thèse

moyens nécessaires mobilisés par le sujet dans la réalisation de la tâche (Tricot et Chanquoy,

1996).

Des études montrent que la pratique antérieure à des effets bénéfiques aussi bien sur

l’efficacité de la recherche des informations en générale que sur la gestion de la surcharge

mentale (Tabatabai et Shore, 2005; Lazonder, Biemans, Wopereis, 2000; Navarro-Prieto,

Scaife, Rogers, 1999). Autrement dit, plus on aurait de l’expérience dans l’usage d’Internet et

moins on serait victime de la surcharge mentale.

Mais le problème avec la charge mentale, c’est qu’on ne sait pas mesurer précisément

les capacités ou les ressources mentales mobilisées par un sujet dans la réalisation d’une

tâche. S’il est difficile de mesurer la charge mentale et si d’autre part la mesure des difficultés

imposée par la tâche pose également problème, alors le concept de charge mentale n’est pas

mesurable et il est peu explicatif (Tricot et Chanquoy, 1996).

Le concept de désorientation sur Internet est préférable à celui de charge mentale et il

est mieux ne pas associé ces deux concepts. On appelle désorientation dans un espace

hypertexte, la sensation de se sentir perdu ou de ne plus savoir où on est, d’où on vient et

comment accéder à un autre endroit dans le réseau (Conklin, 1987; Balasubramanian, 1994;

Utting et Yankelovich, 1989; Head, Archer, Yuan, 2000). La désorientation est donc une perte

de localisation et de direction dans l’espace hypertexte. Cette désorientation se caractérise par

des temps de pause consistant à chercher des éléments d’information pouvant aider à atteindre

la cible et à décider comment y aller (Balasubramanian, 1994).

Comment une telle désorientation dans l’espace hypertexte peut avoir des

correspondances ou des équivalences avec le fonctionnement des machines de Turing ?

Turing montre qu’il existe des nombres ou des fonctions que sa machine ne peut pas

calculer en un nombre fini d’étapes récursives. Dans cette démonstration il illustre l’idée

qu’avec de tels nombres et fonctions, la machine au début du processus parviendra à calculer

récursivement tous les premiers chiffres et les inscrira sur sa bande. Lorsqu’il faudra calculer

le dernier, elle calculera à nouveau les premiers chiffres de la séquence et les inscrira sur la

bande, ainsi de suite. Après un certain nombre d’étapes, la machine revient à son point de

départ : le calcul des premiers chiffres de la séquence. La machine aura un fonctionnement

cyclique à cause de tous ces retours en arrière.

Mais quelques pages avant cette démonstration, Turing donne une définition assez

déconcertante d’une machine cyclique. Une machine est cyclique si elle s’arrête tout à coup et

n’est plus capable d’aucun mouvement ou encore, si elle continue à travailler mais de

n’importe quelle manière. Si tel est le cas, alors il n’y a aucun retour en arrière et par

124

Page 126: Thèse

conséquent pas de cycles. Sa définition d’une machine cyclique entrerait en contradiction

avec sa démonstration du fonctionnement cyclique d’une machine de Turing.

On peut penser au premier abord qu’une erreur s’était glissée dans cette définition,

mais en réalité il n’en est rien car la contradiction n’est qu’apparente. L’application du

fonctionnement de la machine de Turing à l’usage d’Internet permet d’expliciter cette

définition. Ce que Turing voulait dire à travers cette définition est probablement que le

fonctionnement cyclique dans ses cas extrêmes se caractérise par un arrêt de la machine sans

avoir atteint la solution ou qu’elle ne s’arrête pas mais continue à travailler de n’importe

quelle manière.

La définition de Turing d’une machine cyclique serait le pendant de la désorientation

de l’Internaute dans sa recherche d’une information où il ne sait plus où aller et qui est

marqué par des pauses dans sa navigation. La définition de Turing d’une machine cyclique

nous permet d’inférer que dans les cas extrêmes, le fonctionnement cyclique sur Internet se

caractériserait soit par une navigation continuelle sans retour en arrière tant que les niveaux de

profondeur le permettent soit elle est effectivement marquée par de longues pauses ; des

temps d’arrêts.

La désorientation sur Internet correspondrait à la définition de Turing d’une machine

cyclique : arrêt de la machine n’étant plus capable d’aucun mouvement ou continuation

anarchique du travail. L’immobilité de la machine correspondrait aux pauses de l’internaute

pendant sa désorientation, le travail anarchique de la machine à la navigation de plus en plus

en profondeur de l’Internaute sans retour en arrière.

S’il y a désorientation au cours d’une recherche d’information, elle se caractérisera par

des temps longs, de préférence sans accès à la solution, qui s’accompagneront d’un faible

nombre de cycles. Le cas extrême consisterait à n’avoir aucun cycle alors qu’il n’y a pas

d’accès à la solution.

Si la pratique antérieure à un rôle à jouer dans la désorientation, celle - ci sera plus

fréquente chez les sujets ayant moins d’expérience dans l’usage d’Internet que chez des sujets

experts. Cela devrait se caractériser par un nombre de cycles très faible dans le cas d’une

procédure inefficace. Le faible nombre de cycles signifiera que l’Internaute à fait des pauses

pendant les moments où il ne savait plus où aller, où cliquer ou alors qu’il a eu une navigation

anarchique de plus en plus en profondeur.

Nous vérifierons une fois de plus les fonctionnements acyclique et cyclique sur

Internet, c’est – à – dire accès rapide en un nombre fini d’étapes à l’information cible et échec

ou accès tardif à cette information s’accompagnant d’un retour fréquent aux pages perçues

125

Page 127: Thèse

comme pages de référence pour amorcer de nouvelles computations. Nous nous intéresserons

aussi aux relations pouvant exister entre le niveau de complexité des sites et les deux types de

procédures possibles.

Nous vérifierons aussi, une fois de plus, l’hypothèse d’un faible coût cognitif dans la

dérivation des inférences on nous attendant à des corrélations faibles entre les temps

d’exécution des tâches Internet et les scores à un test d’aptitude cognitive.

4.5.2 - Méthode

Participants et matériel

49 étudiants en licence de psychologie à l'université René Descartes-Paris 5 ont

participé à l'expérience.

Quatre sites Internet ont été retenus et sont de complexité différente mesurée par le

niveau de profondeur de l'information cible et la largeur ou quantité d’informations sur la

première page. L'ordre de complexité des tâches est le suivant : tâche 4 (site de l'Unicef où il

faut trouver le bilan des guerres et des conflits concernant les enfants) avec une profondeur de

3 , tâche 1 (site du musée du Louvre où il faut trouver le lieu de la découverte du grand

Sphinx) avec une largeur de 23 et une profondeur de 4 niveaux, tâche 2 (site de l'ONU où il

faut trouver le mandat concernant la lutte antiterroriste) avec une largeur de 31 et une

profondeur de 3, tâche 3 (site du ministère de l'éducation nationale où il faut trouver Le

rapport des politiques scientifiques de l'Union européenne sur la dimension du genre) avec

une largeur de 81 et une profondeur de 4. La consigne sur la tâche du ministère de l’éducation

nationale a été rendu complexe pour éviter tout appariement entre les mots qui s’y trouvent et

ceux présents sur le site.

La pratique antérieure comporte 5 niveaux : niveau 1 (moins d'un d'utilisation

d'Internet), niveau 2 (entre 1 et 2 ans d'utilisation), niveau 3 (entre 2 et 3 ans d'utilisation),

niveau 4 (entre 3 et 4 ans d'utilisation) et niveau 5 (plus de 5 ans d'utilisation).

Le niveau en raisonnement général est mesuré avec le test R-85.

L’appareillage est constitué d’un ordinateur et d’une caméra. Le participant s’assoit

face à l’ordinateur et derrière lui se trouve la caméra placée sur un pied et disposée de façon à

pouvoir filmer l’écran.

4.5.3 - Procédure

126

Page 128: Thèse

L'expérience est divisée en deux parties. Pendant la première séance les participants

répondent à un questionnaire, travaillent sur le site du musée du Louvre et sur celui de l'ONU.

La séance se terminait avec le test de raisonnement général R-85 d'une durée de 20 minutes.

La deuxième partie avait lieu deux semaines plus tard et les participants travaillaient

sur le site du ministère de l'éducation nationale et sur celui de l'Unicef.

Pour l’ensemble de l’expérience, les candidats disposent de dix minutes maximum

pour effectuer chacune des tâches Internet. Le décompte du temps se fait à partir de

l’inscription de la première lettre, soit pour l’insertion d’un mot dans le moteur de recherche

soit pour écrire l’adresse du site dans la barre d’URL, jusqu’au dernier clic précédant la page

où figure l’information cible. Le score d’un participant est le nombre de tâches réussies.

Les sujets ont pour contrainte l’utilisation du logiciel de navigation Netscape dans

lequel nous avons affiché comme page d’accueil celle du moteur de recherche Yahoo ! qui est

le point de départ des quatre tâches Internet. En dehors de ce premier moteur de recherche, les

participants pouvaient aussi utiliser le moteur Google.

Un cycle se détermine toujours par le retour sur une page déjà visitée et l’exécution

d’une action dessus pour amorcer une nouvelle tentative de récupération de l’information

cible. Cette page devient une page de référence.

4.5.4 - Résultats

Site du Louvre (2)

Données descriptives des temps, cycles et pages de référence

Tableau 22 -Statistiques descriptives des temps, cycles et pages de référence (Louvre 2)

Moyenne Minimum Maximum N

Pages visitées 14.87(7.8)

4 42 49

Cycles 3.78(4.15)

0 18 49

Pages de recommencement 1.37(1.13)

0 4 49

127

Page 129: Thèse

Les données pour l’ensemble des participants sur le site du Louvre 2 (tableau ) montre

une présence modérée de cycles, m = 3.78 (écart - type = 4.15) aussi bien que de pages de

recommencement, m = 1.37 (écart - type = 1.13). Le nombre maximum de cycle est de 18 et

celui des pages utilisées pour le recommencement d’une recherche est de 42. La présence de

procédures mécaniques fait que le nombre minimum de cycles ainsi que celui des pages de

recommencement est de 0. Le nombre moyen de pages visitées ou d’étapes pour rechercher

l’information cible est également modéré, m = 14.87 (écart - type = 7.8).

Identification des procédures

Nombre de pages visitées

Minimum(pages visitées)

Maximum (pages visitées)

Cycles N

Procédure mécanique 7.73(2)

4 10 0 11

Procédure non mécanique

16.94(7.9)

6 42 4.89(4.11)

38

Tableau 23 - Moyennes et écarts - types en fonction du type de procédure (Louvre 2)

11 participants sur 49 arrivent à exécuter une procédure mécanique ; à accéder à

l’information cible sans effectuer de cycles (tableau ). Le nombre moyens de pages visitées

ou d’étapes pour accéder à la cible chez ces participants est de 7.73 (écart - type = 2).

38 participants sur 49 exécutent une procédure non mécanique dans leur recherche des

informations sur Internet (tableau ). Le nombre moyen de cycles est de 4.89 (écart - type =

4.11). Le nombre moyen de pages visitées ou d’étapes pour accéder à l’information cible est

de 16.94 (écart - type = 7.9), ce qui est une bonne moyenne pour des sujets qui exécutent une

procédure non mécanique.

Procédure non mécanique

Tableau 24 - Analyse descriptives des procédures non mécaniques (Louvre 2)

Nombre de pages

visitées Minimum Maximum N

Succès 14.44(5.43)

6 26 27

Echec 23.77(10.51)

12 42 9

128

Page 130: Thèse

Comme dans les expériences précédentes dans les procédures non mécaniques, le

nombre moyen de pages visitées ou nombre moyen d’étapes exécutées est inférieur lorsqu’il y

a récupération de la cible M = 14.44 (écart-type = 5.43) que lorsqu’il y a échec M = 23.77

(écart-type = 10.51). Il en est de même pour le nombre maximum de pages visitées (26 vs 42),

ainsi que du nombre minimum de pages visitées (6 vs 12).

Cycles dans les procédures non mécaniques

Tableau 25 - Analyse descriptives des cycles dans les procédures non mécaniques (Louvre 2)

Les statistiques descriptives des cycles (tableau ) sont également conforme à ce qui a

été obtenu dans les expériences précédentes dans le cas des procédures non mécaniques.

Lorsqu’il y a récupération de l’information cible, le nombre moyen de cycles est nettement

inférieur M = 3.74 (écart-type = 2.63) que lorsqu’il y a échec M = 8.56 (écart-type = 5.96).

On retrouve la même tendance pour le nombre maximum de cycles effectués (11 vs 18). Par

contre, les minimun ne se différencient pas. Qu’il y ait récupération de la cible ou non, le

minimum de cycles est de 1. La présence d’un seul cycle alors qu’il y a échec est

problématique.

Relations linéaires entre différentes variables

Nombre de cycles Minimum Maximum N

Succès 3.74(2.63)

1 11 27

Echec 8.56(5.96)

1 18 9

129

Page 131: Thèse

Tableau 26 - Matrice de corrélations (Louvre 2)

La corrélation entre les temps d’exécution de la tâche et le nombre de cycles (tableau

20) est positive et significative r = .44, p < .05. Il en est de même entre les cycles et les pages

de référence r = .55, p < .05. Par contre, la corrélation entre les temps d’exécution de la tâche

et le test d’intelligence générale R – 85 est faible, négative et non significative (r = -.12).

La

distribution des cycles aussi bien que celle des temps sont à peu près normale (Fig. 10). La

déviation la plus importante pour les temps n’est pas significative K-S d = .16431, p < .15.

130

Page 132: Thèse

Il en est de même pour la déviation la plus importante pour les cycles, K-S d = .17536,

p <.10 (Fig. 11). La qualité de ces distributions explique la corrélation significative entre les

temps et les cycles.

Corrélations partielles

Tableau 27 - Matrice de corrélations partielles (Louvre 2)

La corrélation positive et significative entre les cycles et les pages de référence indique

une surestimation de la relation entre les temps et les cycles. En maintenant constant la

variable pages de référence (tableau 21), la corrélation entre les temps d’exécution de la tâche

et les cycles reste significative r = .36, p < .05.

Site de l’UNICEF

Données descriptives des temps, cycles et pages de référence

Moyenne Minimum Maximum Médiane Mode N

Pages visitées 11.06(6.71)

6 29 8 6 49

Cycles 2.51(3.08)

0 10 1 0 49

Pages de recommencement

1.20(1.41)

0 7 1 1 49

131

Page 133: Thèse

Tableau 28 - Statistiques descriptives (UNICEF)

Les données pour l’ensemble des participants sur le site de l’UNICEF (tableau )

montre une faible présence de cycle, M = 2.51 (écart - type = 3.08), il en est de même pour le

nombre de pages utilisées pour recommencer une recherche, M = 1.20 (écart - type = 1.41).

Le nombre maximum de cycles est de 10 et celui des pages de recommencement est de 7. Le

minimum pour les cycles et les pages de référence est de 0. Le nombre moyen de pages

visitées dans la recherche des informations est modéré, M = 11.06 (écart - type = 6.71).

Identification des procédures

Tableau 29 - Moyennes et écarts - types en fonction du type de procédure (UNICEF)

18

participants sur 49 adoptent une procédure mécanique dans la recherche de l’information sur

le site de l’UNICEF (tableau ). Le nombre de pages visitées pour accéder à l’information cible

est de 6.

31 participants sur 49 exécutent une procédure non mécanique (tableau ). Le nombre

moyen de cycles n’est pas élevé, m = 3.97 (écart - type = 3.04). Le nombre moyen de pages

visitées pour accéder à l’information cible pour ce groupe de sujets est de 14 (écart - type =

6.90), ce qui constitue aussi ici une bonne moyenne pour des sujets qui exécutent une

procédure non mécanique.

Procédures non mécaniques

Tableau 30 - Statistiques descriptives pour les procédures non mécaniques (UNICEF)

Nombre de pages visitées

Minimum de pages visitées

Maximum de pages visitées

Cycles N

Procédure mécanique

6 6 6 0 18

Procédure non mécanique

14(6.90)

6 29 3.97(3.04)

31

Nombre de pages visitées

Minimum Maximum N

Succès 11.61(4.96)

6 24 23

Echec 20.88(7.35)

10 29 8

132

Page 134: Thèse

Lorsque la procédure est non mécanique et qu’il y a récupération de la cible, le

nombre moyen de pages visitées est plus faible M = 11.61 (écart-type = 4.96) que lorsqu’il y a

échec M = 20.88 (écart-type = 7.35). On constate une différence des minimums dans ces deux

conditions (6 vs 10), et un nombre maximum de pages visitées plus grand lorsqu’il y a succès

que lorsqu’il y a échec (29 vs 24).

Cycles dans les procédures non mécaniques

Tableau 31 - Analyse descriptive des cycles dans les procédures non mécaniques (UNICEF)

Le

nombre moyen de cycles effectués quand la procédure est non mécanique et conduit à la

récupération de l’information est plus faible M = 3.09 (écart-type = 2.52) que la moyenne des

cycles lorsqu’il y a échec M = 6.5 (écart-type = 3.36).

Le minimum des pages visitées dans les deux conditions (succès et échec) est proche

(1 vs 2), ce qui est surprenant. Il y a un sujet qui effectue seulement deux cycles pendant 10

minutes. Les maximums de cycles effectués lorsqu’il y a succès et lorsqu’il y a échec sont

également très proche (8 vs 10), ce qui est inattendu sachant que le site n’est pas complexe.

Relations linéaires entre différentes variables

Nombre de cycles

Minimum Maximum N

Succès 3.09(2.52)

1 8 23

Echec 6.50(3.12)

2 10 8

133

Page 135: Thèse

Tableau 32 - Matrice de corrélations (UNICEF)

La corrélation entre les temps d’exécution de la tâche et les cycles est quasi nulle

(tableau 24), cela s’explique par le nombre relativement important de participants qui

exécutent une procédure efficace (N = 18) et au temps d’accès modéré à l’information cible

chez les participants qui ont adopté une procédure inefficace. La corrélation entre les temps et

le test d’intelligence générale R-85 est faible et négative. Par contre, la corrélation entre les

cycles et les pages de références est forte, positive et significative, r = .85, p < .05 (tableau

24).

La

distribution des cycles sur le site de l’UNICEF est de mauvaise qualité (Fig. 12). La majorité

des participants effectue la tâche en 2 cycles maximum et le test de normalité est significatif,

K-S d = .25734, p < .01.

134

Page 136: Thèse

La distribution des temps sur ce même site de l’UNICEF ne tend pas vers une

distribution normale (Fig. 13). La majorité des participants (n = 31) effectuent leur tâche entre

0 et 4 minutes et peu l’effectuent entre 8 et 10 minutes (n = 11), ce qui fait qu’on a une

distribution où la majorité des participants à tendance à se regrouper à une extrémité. La

déviation du test de normalité est significative, K-S d = .21308, p < .05.

La mauvaise qualité de la distribution des variables temps et cycles expliquent leur

corrélation presque nulle. Cela signifie que sur un site facile il peu de variabilité entre les

sujets aussi bien pour les temps d’exécution de la tâche que pour le nombre de cycles.

Site du ministère de l’éducation nationale

Données descriptives des temps, cycles et pages de référence

Moyenne Minimum Maximum Médiane Mode N

Pages visitées 16.27(4.40)

8 25 17 Multiple 49

Cycles 6.53 1 15 6 5 49

135

Page 137: Thèse

(3.27)

Pages de recommencement

3.06(1.82)

1 12 3 2 49

Tableau 33 - Statistiques descriptives (Ministère de l'éducation nationale)

Le nombre moyen de pages visitées dans la recherche de l’information cible sur le site

du ministère de l’éducation nationale est élevé (tableau 25), M = 16.27 (écart - type = 4.40),

ce qui témoigne de la difficulté du site. Le nombre moyen de cycles, comparativement aux

autres sites, est également plus élevé, M = 6.53, (écart - type = 3.37). Le nombre minimum de

cycle est de 1 et le maximum est de 15. Ce nombre minimum de cycle indique qu’aucune

procédure mécanique n’a été exécutée sur le site du ministère de l’éducation nationale. Le

nombre moyen des pages de recommencement, pour un site complexe, est correct, m = 3.06

(écart - type = 1.82). Le nombre minimum de pages utilisées pour recommencer une

recherche est également de 1 et le maximum est de 12.

Identification des procédures

Tableau 34 - Moyennes et écarts - types pour la procédure inefficace

Aucun des 49 participants ne réussit à implémenter une procédure mécanique

(tableau ), tous les sujets exécutent une procédure non mécanique sur ce site. Le nombre

moyen de pages visitées, les minimum et maximum sont par conséquent les mêmes que celle

du tableau précédent pour l’ensemble des participants.

Procédures non mécaniques

Pages visitées Minimum Maximum N

Procédure mécanique 0

Procédure non mécanique

16.27(4.40)

8 25 49

136

Page 138: Thèse

Tableau 35 - Analyse descriptives des procédures non mécaniques (Ministère)

Lorsque les procédures sont non mécaniques, on note une nette différence entre la

condition où il y a récupération de la cible M = 11 (écart-type = 5.19) et celle où il y a échec

M = 16.61 (écart-type = 4.18). Le nombre minimum de pages visitées dans les deux sous –

procédures est proche (8 vs 9). Le nombre maximum de pages visitées est plus petit lorsqu’il

y a récupération de la cible que lorsqu’il n’y en a pas (17 vs 25). Ces résultats sont à peu près

conformes à ceux trouvés sur les autres sites.

Cycles dans les procédures non mécaniques

Tableau 36 - Analyse descriptive des cycles dans les procédures non mécaniques (Ministère)

Il y a une faible différence d’environ deux points entre la moyenne des cycles

effectués lorsqu’il y a récupération de l’information cible M = 5 (écart-type = 6.08) et

lorsqu’il y a échec M = 6.63 (écart-type = 3.09). Les minimum de cycles effectués, que la

procédure conduise à la cible ou pas, sont proches et faible (1 vs 1). Effectuer un seul cycle

pendant 10 minutes alors qu’on n’accède pas à l’information est problématique. Par contre, la

différence dans les maximum de pages visitées sont proches de ce qui a été trouvé sur les sites

précédents (12 vs 15).

Relations linéaires entre les variables

Nombre de pages visitées

Minimum Maximum N

Succès 11(5.19)

8 17 3

Echec 16.61(4.18)

9 25 46

Nombre de cycles

Minimum Maximum N

Succès 5(6.08)

1 12 3

Echec 6.63(3.09)

1 15 46

137

Page 139: Thèse

Tableau 37 - Matrice de corrélation pour le site du Ministère

La corrélation entre les temps et les cycles (tableau 27) est faible et non significative (r

= .25). Celle entre les temps et le test d’intelligence R–85 est faible et négative (r = -.12). Par

contre, la corrélation entre les cycles et les pages de référence est positive et significative, r

= .54, p < .05.

La distribution des cycles est à peu près normale, la plus grande déviation entre la

distribution théorique et la distribution observée n’est pas significative, K-S d = .14212, p

< .20 (Fig. 14). Toutefois, cette distribution pose problème. Dans la catégorie qui varie de 0 à

2 cycles, nous avons 4 participants, dans celle qui varie de 2 à 4 nous avons 8 participants.

Ces individus effectuent très peu de cycles. Comment est – il possible d’effectuer aussi peu de

cycles, par exemple 2, en 10 minutes lorsqu’on n’a que deux personnes qui accèdent à

l’information cible ?

138

Page 140: Thèse

La distribution des temps sur le site du ministère de l’éducation nationale (Fig. 15) est

catastrophique. La majorité des participants se regroupent dans un seul côté de la distribution

car ils effectuent leur tâche Internet entre 9 et 10 minutes. La déviation la plus importante

entre la distribution théorique et la distribution observée est significative, K-S d = .52019,

p < .05. Cette très mauvaise distribution des temps explique la faible corrélation entre les

temps et les cycles.

Site de l’ONU

Données descriptives des temps, cycles et pages de référence

Moyenne Minimum Maximum Médiane Mode N

Pages visitées 17.67(5.39)

7 33 17 17 49

Cycles 5.69(2.47)

0 12 5 Multiple 49

Pages de recommencement

3.10(1.25)

0 6 3 3 49

Tableau 38 - Données descriptives pour le site de l'ONU

Le nombre moyen de pages visitées dans la recherche de l’information sur le site de

l’ONU est élevé (tableau ), M = 17.67, (écart - type = 5.39), le minimum étant à 7 et le

139

Page 141: Thèse

maximum à 33. Le nombre moyens de cycle est correct, M = 5.69, (écart - type = 2.47), avec

un nombre minimum de cycles à 0 et le maximum à 12. Le nombre moyen des pages de

recommencement, comparativement à celui des cycles, est également correct, M = 3.10, (écart

- type = 1.25).

Identification des procédures

Tableau 39 - Moyennes et écarts - types en fonction du type de procédure (ONU)

La

complexité du site fait qu’un seul participant sur 48 à réussit à exécuter une procédure

mécanique, c’est – à – dire récupérer l’information sans effectuer de cycles (tableau ). Sur ce

site de l’ONU, les 48 autres participants exécutent une procédure non mécanique. Le nombre

moyen de pages visitées pour la recherche de l’information cible est élevé, M = 17.91, (écart -

type = 5.22), il en est de même pour le nombre moyen de cycles, M = 5.81, (écart - type =

2.35).

Procédures non mécaniques

Tableau 40 - Analyse descriptive des procédures non mécaniques (ONU)

Nombre de pages visitées

Minimum Maximum Cycles N

Procédure mécanique

7 7 7 0 1

Procédure non mécanique

17.91(5.22)

11 33 5.81(2.35)

48

Moyenne Minimum Maximum N

Succès 16(3.61)

13 20 3

Echec 18.02(5.32)

11 33 45

140

Page 142: Thèse

Lorsqu’il y a accès à l’information recherchée, le nombre moyen de pages visitées

n’est pas beaucoup plus faible M = 16, (écart-type = 8.66) que lorsqu’il y a échec M = 18.02,

(écart-type = 5.32). Cette situation est différente de celles que nous avons observées sur les

sites précédents où le nombre moyen de pages visitées était souvent bien plus inférieur

lorsqu’il y avait récupération de la cible que lorsqu’il y avait échec.

Par rapport aux résultats obtenus sur les autres sites, il y a ici une inversion pour les

minimums de pages visitées. Lorsqu’il y a récupération de la cible le minimum de pages

visitées est légèrement plus grand que lorsqu’il y a échec (13 vs 11) alors que sur les sites

précédents c’était souvent l’inverse.

Pour les maximums de pages visitées, on trouve une nette différence entre les cas où il

y a récupération de la cible et ceux où il y a échec (20 vs 33). Ce résultat est conforme à ceux

obtenus sur les autres sites.

Cycles dans les procédures non mécaniques

Pour ce qui est des cycles dans les procédures non mécaniques, le nombre moyen de

cycles effectués lorsqu’il y a récupération de la cible M = 5.33 (écart-type = 1.53) est proche

du nombre de cycles effectués lorsqu’il y a échec M = 5.84 (écart-type = 2.40). Ce résultat

n’est pas conforme à ce qui a été observé sur les sites précédents où la moyenne des cycles

était souvent plus faible lorsqu’il y a récupération de la cible que lorsqu’il y a échec.

Cette inversion des résultats se retrouve également pour les nombres minimums de

cycles. Lorsqu’il y a une récupération de la cible, le nombre minimum de cycles devient plus

grand que lorsqu’il y a échec (4 vs 2) alors que sur les sites précédents on avait souvent le

résultat inverse et une fois une équivalence entre les deux sous procédures. Par contre, les

maximums restent conforment à ce qui a été trouvé sur les autres sites avec un nombre

maximum de cycles plus faible lorsqu’il y a succès que lorsqu’il y a échec (7 vs 12).

Moyenne Minimum Maximum N

Succès 5.33(1.53)

4 7 3

Echec 5.84(2.40)

2 12 45

141

Page 143: Thèse

Relations linéaires entre les différentes variables

Tableau 41 - Matrice de corrélations (ONU)

La corrélation entre les temps d’exécution de la tâche Internet et les cycles (tableau

30) est presque nulle (r = .01), celle entre les temps et le test d’intelligence est également

faible, négative et non significative (r = -.10). Seule la corrélation entre les cycles et les pages

de référence est positive et significative, r = .59, p < .05.

142

Page 144: Thèse

La distribution des cycles tend vers une distribution normale, K-S d = .14202, p > .20

(Fig. 16). Cette distribution pose également problème car elle montre que dans la catégorie

entre 0 et 2 cycles il y a 5 personnes, dans la catégorie entre 2 et 4 cycles il y a 15 personnes.

On réitère ici la même question que pour le site du ministère, comment est – il possible

d’exécuter aussi peut de cycles en 10 minutes lorsqu’on sait que seuls 5 personnes ont pu

accéder à l’information cible dont une seule à partir d’une procédure efficace ?

On n’a pas une bonne distribution des temps sur le site de l’ONU. La majorité des

participants accomplissent leur tâche entre 8 et 10 minutes ce qui fait qu’ils se regroupent à

une extrémité de la distribution. La déviation la plus importante entre distribution observée et

distribution théorique est significative, K-S d = .5224, p < .01. C’est cette mauvaise

143

Page 145: Thèse

distribution des temps qui explique la quasi absence de relation linéaire entre la tâche Internet

et les cycles.

Relation entre complexité des sites et stratégies

Tableau 42 - Complexité des sites et stratégies

Le nombre moyen de pages visitées dans la recherche d’une information cible est

fonction de la difficulté du site. Plus le site est complexe et plus on visitera de pages ou on

exécutera d’étapes pour accéder à l’information recherchée. Il en est de même du nombre

moyen de cycles qui augmente en fonction de la difficulté du site. Le nombre de procédures

non mécaniques exécutées au cours de la recherche d’une information augmente aussi en

fonction du niveau de complexité des sites utilisés. Par contre, le nombre de procédures

mécaniques exécutées diminue en fonction de la complexité des sites. Plus un site est

complexe et moins il y aura de procédures mécaniques.

UNICEF Louvre ONU Ministère

Moyenne des temps 11.08(6.7)

15.14(7.86)

17.16(5.9)

16.24(4.59)

Moyenne des cycles 2.49(3.08)

3.86(4.13)

5.57(2.48)

6.59(3.32)

Procédures mécaniques 18 10 1 0

Procédures non mécaniques

31 39 48 49

144

Page 146: Thèse

Relations entre pratique antérieure et cycles

Il n’y a pas de différence significative entre les différents niveaux. Pour un site

complexe comme celui du Ministère de l’éducation nationale où personne n’exécute une

procédure mécanique, le niveau 1 (moins de un an d’utilisation d’Internet) effectue en

moyenne plus de cycles que le niveau 2 (entre 1 et 2 ans d’utilisation d’Internet). Pour un site

également complexe comme celui de l’ONU, le niveau 1 effectue en moyenne plus de cycles

que les niveaux 2, 3 et 5. Si les sujets novices étaient plus victimes de la désorientation que

ceux des autres niveaux, le niveau 1 d’utilisation d’Internet sur des sites complexes comme

celui de l’ONU et du Ministère de l’éducation nationale devrait avoir un nombre moyen de

cycles très inférieur par rapport à ces autres niveaux. Ce n’est pas ce que l’on constate, le

niveau 1 a presque toujours un nombre moyen de cycles supérieur à au moins un des autres

niveaux. Même pour des sites de difficulté moyenne comme celui du Louvre ou un site très

simple comme celui de l’UNICEF, le niveau 1 n’est pas celui qui exécute en moyenne le plus

de cycles ni le moins de cycles. La pratique antérieure ne joue aucun rôle ici par rapport à la

variable cycles.

145

Page 147: Thèse

4.5.5 - Discussion

Dans cette troisième expérience on constate toujours la présence de procédures

mécaniques et non mécaniques dans la recherche des informations sur Internet. L’information

nouvelle par rapport aux expériences précédente est que la présence de ces procédures dépend

du niveau de complexité du site. Lorsque le site et/ou la tâche sont faciles comme sur le site

de l’UNICEF, on trouve un grand nombre de procédures mécaniques et non mécaniques,

mêmes si les dernières sont plus nombreuses que les premières. Lorsque le site est de plus en

plus complexe, le nombre de procédures mécaniques diminue (Louvre, ONU) et même

disparaît (Ministère de l’éducation nationale). Ce qui signifie que lorsqu’on est confronté à un

site complexe, il devient difficile d’accéder à une information sans effectuer de cycles.

Les relations entre les temps d’exécution des tâches et les cycles sont complexes.

Lorsque le site est un niveau de complexité moyen, on a une bonne relation linéaire entre les

temps et les cycles. Lorsque le site est très simple (UNICEF) ou très complexe (ONU), il n’y

a quasiment pas de relation linéaire entre les deux variables. Dans le cas d’un site facile, il n’y

a pas assez de variabilité aussi bien pour les temps d’accès à la cible que pour les cycles.

Lorsque le site est complexe les participants ont tendance à se concentrer à l’extrémité des

valeurs élevées de la distribution, ce qui traduit aussi une absence de variabilité dans les

temps d’accès à l’information cible. C’est cette absence de variabilité qui conduit à des

relations linéaires faibles ou presque nulles entre les variables temps et cycles.

Les corrélations entre les temps d’exécution des tâches et le test d’intelligence général

R – 85 sont non seulement faibles et très proche entre elles sur les quatre sites, elles sont aussi

négatives. Ces faibles corrélations confirment les résultats de la deuxième expérience à savoir

que la dérivation des inférences sur Internet ne nécessite pas un grand effort cognitif.

Par ailleurs, il n’y a pas un effet de la pratique antérieure. Les sujets qui ont moins

d’un an d’utilisation d’Internet ne sont pas forcément les moins efficaces par rapport aux

autres catégories d’utilisateurs. Ce résultat contraste avec ce qui est souvent trouvé dans

d’autres travaux. La différence tient peut être à ce que dans ces recherches le critère

d’efficacité à la tâche repose sur la capacité à atteindre la cible. Dans notre manière de

procéder, on peut très bien accéder à l’information cible et être classé en tant que procédure

non mécanique parce qu’on a effectué des cycles. C’est peut être ces différences dans les

approches qui expliquent ces résultats non convergeant.

146

Page 148: Thèse

Le résultat véritablement nouveau ici est que sur les sites de l’ONU et du Ministère de

l’éducation nationale, on compte chez certains sujets un faible nombre de cycles alors que les

stratégies déployées sont des procédures non mécaniques. Ces faibles nombres de cycles,

alors qu’on n’a pas accès à l’information cible, sont l’indice de temps d’arrêts, de longues

pauses effectuées pendant la recherche de l’information. Autrement dit, sur les sites de l’ONU

et du Ministère de l’éducation nationale, il y a des sujets qui se sont retrouvés dans des

situations de désorientation ponctuées par des pauses en ne sachant plus où aller.

Si l’internaute en situation d’échec dans sa recherche d’une information est capable de

s’arrêter d’un seul coup en étant plus capable d’aucun déplacement dans l’espace hypertexte,

alors dans ce cas il fonctionne exactement comme Turing a défini une machine cyclique. La

conclusion qui s’impose est que la désorientation sur Internet correspond bel et bien au cas

extrême du fonctionnement d’une machine cyclique ; incapacité de mouvements après avoir

atteint une configuration.

Ce résultat permet d’établir de façon définitive l’équivalence entre le fonctionnement

des machines de Turing et la situation de l’internaute entrain de chercher des informations.

Tout comme dans une machine de Turing, les stratégies de recherche s’effectuent à travers

des procédures mécaniques et non mecanique. Une procédure est mécanique sur Internet

lorsqu’on au moins deux des trois conditions restrictives sont respectées. Une procédure est

non mécanique lorsqu’aucune des conditions restrictives n’est respectée. Comme dans une

machine de Turing, la procédure mécanique sur Internet est caractérisée par un accès à

l’information cible à travers un nombre fini d’étapes récursives. Et comme dans une machine

de Turing, la procédure non mécanique sur Internet caractérisée par un fonctionnement

cyclique partage avec la machine cyclique de Turing la notion de cycles, des retours vers des

pages déjà visitées pour commencer de nouvelles computations. Au – delà de ces

fonctionnements cycliques et acycliques de l’internaute comparables au fonctionnement des

machine de Turing, nous avons constaté que la conduction des inférences sur Internet se fait

comme dans une machine de Turing, c’est – à – dire que le coût cognitif nécessaire aux

computations est très faible. Enfin, la désorientation qui est l’un des problèmes majeurs qui

intervient sur Internet correspond à un des aspects du fonctionnement des machines tel que

Turing lui – même l’avait défini.

La concordance dans les analogies entre fonctionnement des machines de Turing et

situation de l’internaute entrain de chercher des informations valide la thèse selon laquelle

l’analyse de Turing est la solution pertinente pour comprendre l’usage d’Internet.

147

Page 149: Thèse

4.5.6 - Conclusion

Le niveau de complexité des sites à un rôle à jouer quant au type de procédures

exécutées. Plus le site sera complexe et plus la stratégie qui émergera sera une procédure non

mécanique. La relation entre les cycles et les temps dépend aussi du niveau de complexité des

sites. Avec des sites simples et des sites très complexes, la relation linéaire entre les temps

d’exécution des tâches et les cycles sera faible ou même nulle. La pratique antérieure ne

permet pas de discriminer les sujets par rapport à la désorientation. Ce n’est pas parce que on

a plus d’expérience dans l’usage d’Internet qu’on sera plus efficace ou qu’on sera moins

victime de la désorientation. Cette désorientation dans un espace hypertexte est également liée

au niveau de complexité des sites. Plus un site sera complexe et plus les sujets auront

tendance à divers moments à se sentir perdu et ne plus savoir où aller. Ce qui est important ici

est que ces temps d’arrêts après une période de recherche correspondent tout à fait à la

définition que donne Turing d’une machine cyclique.

148

Page 150: Thèse

Discussion générale

« Il serait tout à fait possible de pouvoir commander à distance un calculateur au moyen d’une ligne téléphonique. Un mécanisme spécial d’entrée et de sortie serait mis au point pour l’utilisation de ces terminaux ; cela reviendrait à quelques centaines de livres tout au plus. »

Alan Turing (1951)

149

Page 151: Thèse

Pour résoudre les problèmes de la calculabilité et de l’indécidabilité Turing s’était

demandé quels étaient les processus possibles qui peuvent être exécutés en calculant un

nombre. La réponse à cette question est ce qu’on appelle l’analyse de Turing ou l’analyse des

conditions restrictives.

Turing s’était inspiré d’un être humain effectuant des calculs au moyen d’un papier –

crayon. Le calculateur effectue son travail sur un papier divisé en carré comme l’était les

cahiers d’arithmétiques des écoliers de l’époque. Il s’inspire aussi du cas d’un individu qui

travaille de façon décousue ; commence une tâche, l’abandonne pour vaquer à d’autres

occupations et revient ensuite sur la tâche initiale pour la continuer exactement à partir de

l’étape où il l’avait arrêté. Turing en déduit qu’il existe un axiome qui permet à un individu de

continuer une tâche à partir de n’importe quelle étape sans qu’il ne soit nécessaire de revenir

au point de départ.

Turing isole les différentes étapes qui se succèdent dans le calcul d’un nombre de

façon à ce qu’on ne puisse plus les diviser encore davantage. C’est ainsi qu’il parvient à

dériver les conditions restrictives qui déterminent les propriétés d’une procédure efficace et

récursive : le déterminisme, les limites et la localité.

La condition de déterminisme implique que l’état interne du calculateur ainsi que la

configuration symbolique observée fixe la prochaine étape de computation. La condition des

limites indique qu’il y a un nombre limité de configurations symboliques qu’un calculateur

peut immédiatement reconnaître et qu’il y a un nombre limité d’états mentaux qui doivent être

pris en compte. La condition de la localité affirme que seuls les éléments des configurations

observées peuvent être changées et qu’une fois les carrés observés ont été changés, chacun

des nouveaux carrés à observer devra se situer à une distance limité du carré immédiatement

observé précédemment. Le déroulement des étapes de ces conditions restrictives est récursif.

La récursivité étant un processus auto – référentiel au sein de la logique qui conduit au

réinvestissement d’un résultat dans le processus de calcul.

Cette analyse des conditions restrictives conduit à la thèse et au théorème de Turing.

La thèse de Turing affirme qu’une personne qui exécute une procédure efficace doit satisfaire

les conditions de déterminisme, des limites et de la localité. Le théorème de Turing affirme

que chacune des étapes de cette analyse peut être exécutée par une machine.

La modélisation du comportement du calculateur humain en interaction avec son

cahier d’arithmétique ou son papier divisé en carrés devient possible à partir de l’analyse des

150

Page 152: Thèse

conditions restrictives et du théorème de Turing : c’est la machine de Turing. Une machine de

Turing est constitué d’un automaton qui contient les états internes, d’un ruban infiniment long

divisé en carré et d’une tête de lecture / écriture qui relie les deux.

L’esprit du calculateur correspond à l’automaton, le cahier du calculateur au ruban de

la machine, les carrés du cahier aux carrés du ruban, les chiffres contenus dans les carrés du

cahier aux symboles contenus dans les carrés du ruban, les actions du calculateur sur les

chiffres aux opérations d’impression / suppression des 1 et 0 de la tête de lecture / écriture, au

crayon du calculateur correspond cette même tête de lecture / écriture.

Une machine de Turing est capable de deux types de fonctionnement : acyclique et

cyclique. Le fonctionnement est acyclique lorsque la machine réussit à calculer un nombre ou

une fonction en un nombre fini d’étapes récursives. La procédure exécutée est efficace. Le

fonctionnement est cyclique lorsque la machine ne parvient pas à accomplir sa tâche en un

nombre fini d’étapes récursives. Dans un tel cas, après avoir exécuté un certain nombre

d’étapes la machine revient au point de départ et recommence sa tâche. La procédure est

inefficace.

La distinction entre d’une part l’automaton (esprit) et d’autre part le ruban

(environnement) et l’interaction entre ces deux éléments dans la machine de Turing

correspondent à la première exploration systématique de l’interaction entre un agent et un

environnement. Et par conséquent, la computation cognitive dans de tels cas est aussi un

processus d’interaction structurée entre le cerveau et l’environnement.

Ce que nous avons proposé dans cette thèse est que l’interaction agent –

environnement de la machine de Turing ainsi que l’analyse des conditions restrictives sont

applicables sur Internet. Cette application a permis :

1 – D’identifier les différentes étapes dans la recherche d’une information cible.

2 – D’établir une ressemblance entre la structure « physique » de la machine et la

situation de l’internaute entrain de chercher des informations.

3 – D’identifier sur Internet des stratégies de type acyclique et cyclique comme dans le

fonctionnement des machines de Turing.

4 – De déterminer que le coût cognitif dans la recherche des informations est faible et

par conséquent la conduction des inférences est presque mécanique.

5 – De distinguer l’explication architecturale de l’explication computationnelle au sens

stricte.

6 – De trouver une correspondance au phénomène de désorientation sur Internet avec

un aspect du fonctionnement des machines de Turing.

151

Page 153: Thèse

Une configuration symbolique dans une machine de Turing correspond à un lien sur

une page Internet. L’internaute interagit avec ce lien. Une configuration symbolique dans une

machine de Turing (qSkClqm) se définit à travers l’interaction entre l’automaton (états

internes) et le ruban (symboles balayés). Ainsi, l’individu au début de sa recherche sur

Internet est dans un certain état interne (qi), chaque lien observé (Ski) pourra conduire à une

action (Cli) au terme de laquelle l’internaute sera dans un nouvel état interne (qm).

On retrouve dans l’interaction entre l’Internaute et le lien hypertexte les différentes

parties qui composent la syntaxe d’une configuration symbolique : état interne, symbole

balayé, action sur le symbole, changement d’état interne et déplacement de la tête de lecture /

écriture pour démarrer la nouvelle configuration. Ainsi le passage d’une configuration

symbolique à une autre à travers l’action exercée sur le symbole balayé dans une machine de

Turing correspond au passage d’une page à une autre sur Internet à travers le lien activé. Dans

les deux cas les actions sont locales et localement déterminées. Et puisque le passage d’une

configuration symbolique à une autre est récursif, le passage efficace d’une page à une autre

dans la récupération d’une information cible sur Internet est récursif.

Le fonctionnement d’une machine de Turing possède donc des similitudes avec le

fonctionnement humain sur un espace hypertexte.

Mais en plus, les correspondances que la machine de Turing entretient avec le

calculateur humain en situation de travail se retrouvent entre la même machine et la situation

de l’internaute entrain de rechercher des informations. L’automaton correspond à l’internaute,

le ruban infini de la machine au world wide web, les carrés de ce ruban aux pages Internet, les

symboles contenu dans les carrés aux liens hypertextes, les actions de la tête de lecture /

écriture à l’activation des liens.

La condition de déterminisme appliqué à Internet devient : le comportement de l’internaute

est déterminé à tout moment par les liens de la page qu’il observe et par son état interne et il

existe un axiome qui exprime les règles qu’il doit suivre face à une page dans n’importe

quelle étape de sa navigation en vue d’obtenir la suivante.

La condition des limites devient :

1.1 – Il y a un nombre limité de liens qu’un utilisateur peut immédiatement reconnaître.

1.2 – Il y a un nombre limité d’états mentaux qui sont pris en compte.

La condition de la localité devient :

2.1 – Seuls les liens vues actuellement peuvent être actionner.

2.2 – Après une action les nouveaux liens observés doivent être à l’intérieur d’une distance

limitée (c’est – à – dire d’un clic) des liens de la page précédente.

152

Page 154: Thèse

Ces étapes sont récursives et la thèse de Turing appliquée à Internet devient : une

procédure est efficace sur Internet lorsque l’Internaute satisfait les conditions de

déterminisme, des limites et de la localité.

La première expérience qui portait sur le site de l’UNESCO a révélé qu’il existe des

stratégies de types acyclique (procédure efficace) et cyclique (procédure inefficace) dans la

recherche des informations sur Internet.

Une procédure est efficace ou acyclique lorsqu’on au moins deux des trois conditions

restrictives sont respectées. Le déterminisme est respecté parce que dans le passage d’une

page à une autre pour accéder à l’information cible, le téléchargement de chaque page vue a

été déterminé par la page précédente et l’accès à la cible a été effectué en un nombre fini

d’étapes récursives. Autrement dit, l’état interne de l’internaute et le lien activé ont fixé à

chaque fois la prochaine étape de computation. La condition de la localité est également

respectée parce que ce passage à une nouvelle page, son téléchargement est toujours soumis à

une action (le clic sur un lien) jusqu’à la page contenant la cible. La seule condition qui n’est

pas respectée dans le cas d’une procédure efficace est celle des limites à cause de la quantité

des informations disponibles sur les pages Internet. Le non respect de cette condition ne

dépend pas des stratégies individuelles des sujets et ces derniers parviennent à contourner la

difficulté en ayant recours au moteur de recherche interne au site. Les étapes de l’accès à

l’information cible dans une procédure efficace sont récursives.

Une procédure est inefficace ou cyclique lorsqu’aucune des trois conditions

restrictives n’est respectée. Le déterminisme ne peut pas être respecté parce que au cours

d’une tentative d’accès à l’information cible, bien qu’au départ chaque page visitée soit

déterminée par la précédente, l’absence d’accès à la cible dans cette tentative conduit

l’Internaute à revenir sur les pages déjà visitées. La dernière page vue au cours de cette

tentative n’a pas conduit au téléchargement d’une nouvelle page mais à l’abandon de

l’hypothèse qui guidait cette tentative d’accès à la cible. Parce que cette dernière page conduit

à un retour en arrière (à l’aide du navigateur), il y a absence d’action exercée sur elle pour

aller à la page suivante et par conséquent la condition de la localité n’est pas respectée. La

quantité des informations disponibles sur les pages Internet fait que ces informations ne

peuvent être traitées en un clin d’œil comme le recommande la condition des limites. Cette

dernière condition ne peut donc pas être respectée non plus. Les étapes de la recherche d’une

information cible ne sont pas récursives lorsque la procédure est inefficace.

Au niveau des procédures utilisées nous avons une équivalence entre le

fonctionnement des machines de Turing et le fonctionnement de l’Internaute lorsqu’il est

153

Page 155: Thèse

engagé dans une activité de recherche d’une information. Ces procédures qui montrent

comment se fait le passage d’une page à une autre jusqu’à la récupération de la cible ou son

échec, constituent l’explication architecturale de la recherche des informations sur Internet.

Cette première expérience a révélé aussi que la corrélation entre les temps de

recherche d’une information et un test d’aptitude cognitive est très faible ce qui suggère que la

tâche de recherche d’une information sur Internet mobilise peu de ressources cognitives. Nous

avons émis l’hypothèse que, dans la mesure où la situation de l’internaute entrain de chercher

une information est assimilable à la machine de Turing, le coût cognitif engagé dans l’activité

de recherche d’une information sur Internet serait conforme à ce que les spécialistes de la

calculabilité ont toujours affirmé depuis la fin du 19ième siècle ; c’est – à – dire de simples

dérivations causales ne nécessitant pas un gros effort cognitif, des dérivations tellement

simples qu’elles peuvent être exécutées par une machine. La dérivation des inférences de lien

en lien dans la recherche d’une information sur Internet ressemblerait à la conduction des

inférences sur une machine de Turing.

Cette hypothèse a guidé la deuxième expérience qui portait sur les sites du Louvre et

celui de l’UNESCO dans une autre version. Avec ces nouvelles données nous avons répliqué

les résultats de la première expérience quant au type de procédures utilisées. Sur ces deux

sites, les stratégies de récupération des informations sont des procédures efficace (acyclique)

et inefficace (cyclique).

Les corrélations entre les temps d’accomplissement des tâches et le test de formation

de concepts de Hanfman et Kasanin se sont avérées effectivement faibles, ce qui indique qu’il

y a peu de choses en commun entre les deux séries de mesures. La faible part de variance

commune ne peut s’expliquer que par les différences de coûts cognitifs engagés dans chacune

de ces deux types de mesure. Le test de formation de concepts de Hanfman et Kasanin comme

tout test psychométrique d’aptitude cognitive, sauf exception, se situent dans une approche ou

interprétation internaliste de manipulation de symboles / représentation comme dans une

architecture Von Neumann. Dans cette approche les coûts cognitifs sont nécessairement

élevés à cause de ces manipulations. A l’inverse, l’activité de recherche d’une information sur

Internet se situe dans une approche externaliste de l’interaction entre un agent et un

environnement. L’activité cognitive ne portant pas sur des manipulations internes, les coûts

cognitifs ne peuvent être que faibles.

Ce résultat permet d’affirmer que la conduction des inférences, la dérivation de lien en

lien, dans la recherche d’une information sur Internet se fait effectivement comme les

spécialistes de la calculabilité l’ont toujours affirmée. Il s’agit de simples dérivations causales

154

Page 156: Thèse

presque mécanique des inférences comme dans une machine de Turing. Et c’est probablement

ce que Turing laissait entendre dans la condition des limites en évoquant un nombre limité

d’états mentaux.

Dans la partie théorique il a été mis en évidence que la situation d’un Internaute

entrain de chercher une information ressemble point par point à la structure « physique » de la

machine de Turing qui n’est rien d’autre que la modélisation d’un calculateur humain entrain

d’effectuer des opérations. La première expérience a montré que les stratégies de récupération

des informations sont identiques aux fonctionnements acyclique et cyclique des machines de

Turing. La deuxième expérience a révélé que le coût cognitif dans l’activité de recherche

d’une information sur Internet est faible, la dérivation des inférences étant presque mécanique

également comme dans une machine de Turing. On a donc une identité de structure, de

fonctionnement et dans la conduction des inférences entre les machines de Turing et la

recherche des informations sur Internet. Mais l’équivalence machine de Turing – Internaute

ne peut être complète que si le problème majeur rencontré sur Internet, la désorientation,

trouve son équivalent dans le fonctionnement des machines de Turing. La mise en évidence

de cette équivalence a été l’objectif de la troisième expérience.

La dernière expérience a répliqué les résultats des deux premières. On retrouve

l’existence de procédures efficace et inefficace. L’information nouvelle est que l’émergence

de ces procédures dépend du niveau de complexité des sites. Plus un site sera complexe en

terme de Largeur et de profondeur, et moins il y aura de procédures efficaces.

Les corrélations entre les temps d’exécution des tâches et le test d’intelligence

générale R–85 sont faibles quelque soit le site. Ce qui indique, conformément au résultat

obtenu dans la deuxième expérience, que la recherche d’une information sur Internet requiert

un faible coût cognitif et donc la conduction des inférences est presque mécanique comme

dans une machine de Turing.

Mais le résultat le plus intéressant, à cause peut être de son caractère inattendu, est

l’équivalence entre le phénomène de désorientation sur Internet et le fonctionnement des

machines de Turing. La définition de Turing d’une machine cyclique ; arrêt de

fonctionnement après avoir atteint une configuration avec incapacité de mouvement ou

continuation du travail de façon anarchique, correspond à la désorientation sur Internet

lorsque le sujet ne sait plus où aller, où cliquer et qui s’accompagne de pauses au cours de la

navigation ou encore lorsque le sujet navigue de plus en plus en profondeur en perdant de vue

l’objectif principal de sa recherche. Cette désorientation se caractérise par un faible nombre

de cycles alors qu’on n’accède pas à la cible (ou alors on y accède mais de façon tardive).

155

Page 157: Thèse

Comment Turing arrive à une définition aussi précise d’une machine cyclique au point

de correspond à la désorientation sur Internet ? Dans son article, il n’indique

malheureusement pas le cheminement qui l’y conduit. Mais tout laisse penser que c’est son

expérience personnelle du mathématicien qu’il était ainsi que son analyse du calculateur

humain qui l’y conduisent. Un individu entrain d’effectuer des calculs peut s’arrêter d’un

coup lorsqu’il se retrouve face à une impasse. Il peut tout aussi bien continuer à effectuer des

calculs qui n’en finissent pas parce qu’une erreur s’est glissé dans son raisonnement ou ses

opérations. C’est donc à une fine et complète analyse du calculateur humain que Turing s’était

livré. Analyse d’abord du calculateur entrain d’effectuer une procédure efficace et récursive,

ce qui nous donne les conditions restrictives et la machine acyclique. Analyse ensuite du

calculateur humain lorsqu’il échoue à sa tâche, ce qui nous donne la machine cyclique et sa

définition. Turing étant mathématicien, le calculateur dont il analyse le comportement n’est

personne d’autre que lui – même. En effectuant cette analyse sur lui, Turing respecte

scrupuleusement les recommandations de Hilbert à travers son axiome de l’existence de

l’esprit à savoir : la pensée opère d’une certaine manière en fonction de certaines règles qui

peuvent être reconnues et décrites parfaitement à partir de l’observation personnelle. Le

calculateur humain c’était Turing.

Avec cette désorientation sur Internet qui correspond à la définition que donne Turing

d’une machine cyclique, la situation de l’Internaute entrain de chercher une information

devient totalement assimilable à la structure des machines de Turing et à leurs

fonctionnements. Par conséquent, l’analyse de Turing et la modélisation qu’il en fait sont

effectivement la solution pertinente pour comprendre le fonctionnement cognitif de

l’Internaute.

La puissance de l’analyse de Turing ne réside pas seulement dans le fait qu’elle ait

conduit à l’ordinateur numérique, mais qu’elle est aussi applicable à d’autres domaines

notamment la recherche des informations sur Internet.

Mais bien que l’idée de modules cognitifs soit dérivée des travaux de Turing et bien

que la situation de l’internaute entrain de chercher des informations corresponde au

fonctionnement des machines de Turing, les stratégies dans la recherche des informations sur

Internet ne sont pas issues de modules cognitifs. Elles émergent ici et maintenant au cours de

l’interaction de l’internaute avec le site Internet. Cette émergence est une propriété de

l’interaction entre un agent et un environnement tout comme une fonction calculée par une

machine de Turing est une propriété émergente entre l’automaton et le ruban / mémoire.

156

Page 158: Thèse

L’émergence des stratégies sur Internet fait référence à ce que Fodor appelle les systèmes

centraux sauf qu’ici ces stratégies sont soumises à des actions locales.

Si la faiblesse des corrélations entre les temps d’exécution d’une tâche Internet et une

aptitude cognitive ne concernait qu’un test particulier, il n’y aurait eu aucune raison de tirer

une conclusion générale sur la portée des coûts cognitifs dans la recherche des informations

sur Internet. Mais la faiblesse des corrélations concerne le test de mémoire de travail de

Daneman et Carpenter, le test de formation de concepts de Hanfman et Kasanin et même un

test d’intelligence générale (R-85). Ce faible coût cognitif dans la recherche des informations

sur Internet est donc un phénomène général.

Il aurait été surprenant que les stratégies de récupération des informations sur Internet

ne puissent pas s’expliquer dans le cadre de la machine de Turing. Cette machine et son

extension ; l’ordinateur numérique, constituent les fondements théoriques des sciences

cognitives. Un certain nombre de théories et modèles en psychologie cognitive sont

directement dérivés soit de la machine de Turing et de l’ordinateur numérique soit ils sont une

alternative à la computation selon Turing. Comment le fonctionnement sur Internet, produit

de l’ordinateur numérique et par filiation de la machine de Turing aurait pu échapper à la

cognition selon Turing ?

157

Page 159: Thèse

Conclusion

« 7 juin 1954, dans la banlieue de Manchester. Comme chaque soir, Alan Turing mange une pomme avant de s’endormir. Cette fois, le fruit a été trempé dans le cyanure. Une morsure a suffi pour que disparaisse dans l’indifférence la plus complète le père de l’informatique et de l’intelligence artificielle. Un cerveau s’est suicidé. »Lemire

158

Page 160: Thèse

Alan Mathison Turing est le père de l’ordinateur numérique à travers la machine

théorique qu’il conçoit et qui est la modélisation d’un calculateur humain entrain d’effectuer

des opérations. Depuis, cette machine et son extension (l’ordinateur numérique proprement

dit) sont devenus les modèles pour l’étude de la cognition humaine. Et Turing avait pensé

Internet : la possibilité de transmettre des instructions à un ordinateur à travers une ligne

téléphonique. Comment aurait t – il été possible que le comportement de l’internaute entrain

de chercher des informations eût échappé au modèle de base de l’étude de la cognition

humaine qui est la machine de Turing ?

Dans ce travail, nous avons mis Turing au cœur de l’étude de la compréhension du

comportement de l’internaute. Nous avons expliqué le comportement cognitif dans la

recherche des informations sur Internet à partir de l’analyse du père de l’ordinateur lui –

même, et les choses sont devenues beaucoup plus simples. C’est une application de la thèse de

Turing au domaine d’Internet.

L’internaute (l’être humain) fonctionne comme une machine de Turing, non pas

comme les fonctionnalistes l’avaient affirmé ; à travers une manipulation de symboles et de

représentations mentales, mais plutôt à travers les différentes étapes qu’il effectue lorsqu’il est

engagé dans la recherche d’une information. L’erreur qui a souvent été commise, c’est qu’on

ne s’intéressait pas à l’analyse cognitive qui avait conduit à l’élaboration de la machine de

Turing.

L’application de l’analyse de Turing pour comprendre le comportement cognitif des

individus sur Internet a deux conséquences principales. La première est que les stratégies

utilisées sont des procédures soit efficace et donc acyclique, soit inefficace et par conséquent

cyclique. La deuxième conséquence est que le coût cognitif nécessaire dans la recherche des

informations sur Internet est faible ; les processus sont presque mécaniques. Enfin, le

problème majeur rencontré sur Internet qui est la désorientation correspond à la définition

donnée par Turing concernant les machines cycliques.

159

Page 161: Thèse

Références

Archer, N. P., Head M. M., Yuan Y. (1996). Patterns in information search for decision

making : the effects of information abstraction. International Journal of Human-

Computer Interaction, 45, 599-616.

Baddeley Alan (1993). La mémoire humaine. Théorie et pratique. Paris. PUF.

Balasubramanian, V. (1994). State of the art review on hypermedia issues and applications.

Disponible sur http://www.dsi.unive.it/~smm/2000/docs/balasubramanian94.pdf

Bruner, J. S., Goodnow, J. J., Austin, G. A.(1956/1986). A study of thinking. New Brunswick

and Oxford. Transaction books.

Burks, A., W., Goldstine H., H., Von Neumann, J. (1946). Preliminary discussion of the

logical design of an electronic computing instrument. Institute for Advanced Study

(Princeton, N., J.)

Cheng, P. W., Holyoak, K. J. (1985). Pragmatic reasoning schemas. Cognitive Psychology.

17. 391-416.

Church, A. (1936a). An unsolvable problem of elementary number theory. American Journal

of Mathematics, 58, 345–363.

Church, A. (1936b). A note on the Entscheidungsproblem. The Journal of Symbolic Logic, 1,

40 – 41.

Church, A. (1937). Review of Turing 1936. Journal of Symbolic Logic, 2, 42–43.

Cleland, C. E., (2002). On Effective Procedures. Minds and Machines. 12, 159 – 179.

Coltheart, M. (1999). Modularity and cognition. Trends in cognitive sciences. 3. nombre de

pages

160

Page 162: Thèse

Conklin, J. (1987). Hypertext : an introduction and survey. Computer, 20, 17 – 41. Disponible

sur http://cpe.njit.edu/dlnotes/CIS/CIS732_447/Cis732_7R.pdf

Cosmides, L., Tooby, J. (1994). Origins of domain specificity : The evolution of functional

organization. In Susan A. Gelman and Lawrence A. Hirschfeld (Eds), Mapping the

mind. Domain specificity in cognition and culture (pp. 85 – 116). Cambridge : New –

York. Cambridge University Press.

Daneman, M. & Carpenter, P. A. (1980). Individual differences in working memory and

reading. Journal of Verbal Learning & Verbal behavior, 19, 450 – 566.

David, P., Song, M., Hayes, A., & Fredin, E. (2007). A cyclic model of information seeking

in hyperlinked environments: The role of goals, self-efficacy, and intrinsic motivation.

International Journal of Human-Computer Studies, 65, 170–182.

Delahaye, JP. (2000). L’infini est – il paradoxal en mathématiques ? Pour la science. 278. 30

– 38.

Desmette, D., Hupet, M., Schelstracte, M-A. & Van Der Linden, M., (1995). Adaptation en

langue française du “Reading Span Test” de Daneman et Carpenter. L’année

psychologique, 95, 459–482.

Dumais, S., & Czerwinski, M. (2001). Building Bridges from Theory to Practice. Microsoft

Research, one Microsoft way. Redmond, WA 98052.

Dupuy, J.P. (1994). Aux sources des sciences cognitives. Paris : La découverte.

Ehrlich, K. (1996). Applied mental models in human – computer interaction. In Mental

models in cognitive science. Essays in honor of Phil Johnson – Laird. Jane Oakhill et

Alan Garnham (Eds). Erlbaum. Psycology Press. pp. 223 – 245.

Evans, J. St. B. T. (1989). Biais in human reasoning. Hove and London. Laurence Erlbaum

Associates.

161

Page 163: Thèse

Evans, J. St. B., Over, D. E. (1996). Rationality and reasoning. Erlbaum : Psychology Press.

Fodor, J. (1986). La modularité de l’esprit : essai sur la psychologie des facultés. Paris :

Editions de Minuit.

Fodor, J. A. (1975). The language of thought. New York: Crowell.

Fodor, J. A. (2003). L’esprit ça ne marche pas comme ça. Paris : Odile Jocob.

Fodor, J. A., & Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture : a critical

analysis. Cognition. 28, 3 – 71.

Ford, N., Miller, D., Moss, N. (2001). The role of Individual Differences in Internet searching

: An Empirical Study. Journal of the American Society for Information Science and

Technology, 52, 1049 – 1066.

Frege, G. et McGuinness (1984). Collected Papers on Mathematics, Logic and Philosophy.

Oxford : Blackwell.

Gandy, R. (1988). The confluence of ideas, in 1936. In R. Herkins (Eds), The Universal

Turing Machine : A half – Century Survey (pp. 55 – 112). Oxford : Oxford University

Press. 55 – 112.

Gineste, MD. Et Indurkhya B. (1993). Modèles mentaux, analogie et cognition. In Les

modèles mentaux. Approches cognitives des représentations. Paris, Milan, Barcelone,

Bonn. Masson. 143 – 173.

Gödel, K. (1986). Collected Works I. Oxford: Oxford University Press.

Gödel, K. (1995). Collected works III. Oxford: Oxford University Press.

Gray, S. H., (1990) : Using protocol analyses and drawings to study mental model

construction during hypertext navigation. International Journal of Human-computer

Interaction, 2, 359-377.

162

Page 164: Thèse

Hartree D. R. (1949). Calculating instruments and machines. In The Charles Babbage

institute reprint series for the history of computing. vol. 6. Cambridge, Massachusetts.

MIT press and Tomash publishers. 1984.

Head, M., Archer, N., Yuan, Y. (2000). World wide web navigation aids. International

journal of Human-computer Studies. 53. 301-330.

Hilbert, D. (1905). Logische Principien des mathematischen Denkens, lecture course, summer

term 1905, lecture notes by Ernst Hellinger (library of the Department of Mathematics,

University of Göttingen).

Hilbert, D. (1925). Uber das Unendliche. Mathematische Annalen. 95, 161 – 190.

Hilbert, D. Et Ackermann, W. (1928). Grundzüge der theoretischen Logik. Berlin.

Horst, S. (1999). Computational Theory of Mind. In Robert A. Wilson and Frank C. Keil

(Eds). The MIT Encyclopedia of the Cognitive Sciences. Cambridge, Massachusetts,

London, England : MIT Press.

Howard, G. (1993). Histoire de la révolution cognitive. La nouvelle science de l’esprit. Paris:

Payot.

Johnson – Laird, P. N. (1983). Mental models. Cambridge, London, New York, New

Rochelle, Melbourne, Sydney. Cambridge university press.

Johnson – Laird, P. N. (1983). Mental models. Cambridge, London, New York, New

Rochelle, Melbourne, Sydney. Cambridge university press.

Johnson – Laird, P. N. (1988). The computer and the mind. An introduction to cognitive

science. London: Fontana Press.

Klayman, J., Ha, Y. (1989). Hypothesis testing in rule discovery : strategy, structure, and

context. Journal of experimental psychology : learning, memory, and cognition. 15

(4), 596-604

163

Page 165: Thèse

Lazonder, A. W., Biemans, H. J. A. & Wopereis I. G. J. H. (2000). Differences between

novice and experienced users in searching information on the World Wide Web.

Journal of the American Soiety for Information Science, 51, 576 – 581.

Legrenzi, P., Girotto, V., Johnson – Laird, P. N. (1993). Focusing in reasoning and decision

making. Cognition. 49. 37 – 66.

Lemire, L. (2004). Alan Turing. L’homme qui a croqué la pomme. Hachette littératures.

Les modèles mentaux (1993). Approche cognitive des représentations. Paris, Milan,

Barcelone, Bonn. Masson.

Lewis, C. I. (1918). A survey of symbolic logic. Berkley: University of California Press.

Lombardi, G. (2005). L’aventure mathématique : liberté et rigueur psychotique. Cantor,

Gödel et Turing. Paris : Editions du Champ lacanien.

Mandler J. M. (1979). Categorical and schematic organization in memory, in C. R. Puff (ed),

Memory organization and structure, New York: Academic Press.

Mandler, J. M. (1984). Stories, scripts, and scenes : aspects of schema theory. Hillsdale, New

Jersey, London. Lawrence Erlbaum associates, publishers.

Marr, D. (1982). Vision. San Francisco. W. H. Freeman and company.

Monk, A. (1998). Cyclic interaction: A unitary approach to intention, action, and

environment. Cognition, 68, 95–100.

Monk, A. (1999). Modelling cyclic interaction. Behavior and Information Technology, 18,

127–139.

Navarro-Prieto, R., Scaife, M., Rogers, Y. (1999 ). Cognitive strategies in web searching.

164

Page 166: Thèse

Nelson, R. J. (1987). Church thesis and cognitive science. Notre dame journal of formal logic.

28, 581 – 614.

Nickerson, R. S., & Landauer, T. K. (1997). Human – Computer Interaction : Background and

Issues, in M. G. Helander & T. K. Landauer & P. V. Prabhu (Eds). Handbook of

Human – Computer Interaction (pp. 3 – 31). North – Holland. Elsevier.

Peckhaus, V. (2003). The pragmatism of Hilbert’s programme. Synthèse. 137. 141 – 156.

Pélissier A., Tête A. (1995). Sciences cognitives. Textes fondateurs (1943 – 1950). Paris.

PUF.

Pinker, S. (2000). Comment fonctionne l’esprit. Paris : Odile Jacob.

Post, E. (1936). Finite combinatory processes-formulation1. The Journal of Symbolic Logic,

3, 1 – 3.

Putnam, H. (1990). Représentation et réalité. Paris : Gallimard.

Putnam, H. Minds and machines.

Putnam, H. Philosophy and our mental life.

Putnam, H. The mental life of some machines.

Putnam, H. The nature of mental states.

Remde, J. R., Gomez, L. M., Landauer, T. K. (1987). Superbook : an automated tool for

information exploration hypertext. Proceeding Hypertext’87, University of north

Carolina, pp. 175 – 188.

Reuchlin, M. (1978). Processus vicariants et différences individuelles. Journal de

psychologie. 2. pp. 133-145.

165

Page 167: Thèse

Rosch, E. (1978). Classifications d'objets du monde réel : origines et représentations dans la

cognition. Bulletin de psychologie. . 242-250.

Rosch, E., Mervis, C. B. (1975). Family resemblances : Studies in the internal Structure of

categories. Cognitive psychology, 7, 573-605.

Ryu, H., & Monk, A. (2004). Analysing interaction problems with cyclic interaction theory:

Low-level interaction walkthrough. PsychNology, 2, 193–228.

Shagrir, O. (2002). Effective Computation by humans and Machines. Minds and Machines,

12, 221 – 240.

Sieg, W. (1994). Mechanical procedures and mathematical experience. In A. George (Ed.),

Mathematics and mind (pp. 71–117). Oxford: Oxford University Press.

Sieg, W. (1997). Step by recursive step: Church’s analysis of effective calculability. The

Bulletin of Symbolic Logic, 3, 154–180.

Sieg, W. (1999). Hilbert’s programs: 1917-1922. The Bulletin of Symbolic Logic. 5, 1 – 44.

Sieg, W. (2006). Gödel on computability. Philosophia Mathematica, 14, 1–21.

Smith, P. A., Newman, I. A., Parks, L. M. (1997. Virtual hierarchies and virtual networks :

some lessons from hypermedia usability research applied to the world wide web.

Sperber, D. (1994). The modularity of thought and the epidemiology of representations. In

Susan A. Gelman and Lawrence A. Hirschfeld (Eds), Mapping the mind. Domain

specificity in cognition and culture (pp. 39 – 67). Cambridge : New – York.

Cambridge University Press.

Tabatabai, D., Shore, B. M., (2005). How experts and novices search the web. Library &

Information Science Research, 27, 222 – 248.

166

Page 168: Thèse

Tricot, A., Chanquoy, L. (1996). La charge mentale, “vertu dormitive” ou concept

opérationnel ? Psychologie française, 41, 313 – 318.

Turing A. M. (1936). Théorie des nombres calculables, suivie d’une application au problème

de la décision. In Turing A. M. et Girard J. La machine de Turing. 1995. Paris : Seuil.

47 – 104.

Turing A. M. (1945). Proposals for development in the mathematics division of an automatic

computing engine (ACE). Report to the executive committee of the National Physics

Laboratory. In Collected works of A. M. Turing. Mechanical intelligence. 1992. D.C.

Ince editor. North – Holland.

Turing A. M. (1947). Lecture to the London mathematical society on 20 february 1947. In

Collected works of A. M. Turing. Mechanical intelligence. 1992. D.C. Ince editor.

North – Holland.

Turing A. M. (1948). Intelligent machinery. Report, National physics laboratory. In Collected

works of A. M. Turing. Mechanical intelligence. 1992. D.C. Ince editor. North -

Holland

Turing A. M. (1950). Les ordinateurs et l’intelligence. In Turing A. M. et Girard J. La

machine de Turing. 1995. Paris. Seuil. 133 – 175.

Turing, A. M. (1936). On computable numbers, with an application to the

entscheidungsproblem, in Proc. London Math. Soc., 42, 230 – 265.

Turing, A. M., & Girard, J-Y. (1995). La machine de Turing. Paris: Seuil.

Utting, K., Yankelovich, N. (1989). Context and orientation in hypermedia networks. ACM

Transactions on Informations systems, 7, 58-84.

Varela, F. J. (1988). Invitation aux sciences cognitives. Paris : Seuil.

167

Page 169: Thèse

Von Neumann, J. (1948). La théorie générale et logique des automates. In Pélissier, A., Tête,

A, (1995). Sciences cognitives. Textes fondateurs (1943 – 1950). Paris. PUF.

Von Neumann, J. (1958). The computer and the brain. New Haven: Yale University Press.

Von Neumann, J., (1945). First draft of a report on the EDVAC. More school of Electrical

engineering university of Pennsylvania.

Wason, P.C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly

Journal of Experimental psychology, 12, 129-140.

Wason, P.C. (1966). Reasoning. In B.M. Foss (Ed), New horizons in psychology I.

Harmandsworth : Penguin.

Wells, A. J. (1998). Turing’s Analysis of Computation and Theories of Cognitive

Architerture. Cognitive Science, 22, 269–294.

Wittgenstein, L. (1980). Remarks on the philosophy of religion. 1. Oxford: Blackwell.

Zaphiris, P., Mtei, L. (1997) : Breadth vs Depth in the arrangement web links. Disponible sur

http://otal.umd.edu/SHORE/bs04/

168