Page1
MBA affaires électroniques
Johann Lovato
Matricule de dossier 08 125 684
SIO-66087 : Entreprise digitale
Rapport de session automne 2008 :
Web 3.0 ou l'évolution vers un réseau Internet
intelligent
Page2
Sommaire
Introduction…..………..……………………………………………………………………...3
I. Web sémantique…………………………………………………………………………….4
A. Un langage propre : OWL………………………………………………………………………..…4
B. Une nouvelle structure d’entreprise : l’architecture orientée service............................6
C. Les nouvelles applications concrètes pour les processus d’affaires……………………..….9
II. WEB 3.0: évolution vers l’intelligence des réseaux………………………………………...12
A. Les outils de raisonnement conçus pour les ontologies……………………..…………..…..13
B. Les systèmes multi-agents………………………………………..…………….……….…...20
C. RFID: la voie royale vers une traçabilité absolue................................................................. 24
D. L’informatique omniprésente change les mentalités………………………………..............30
III. Limites et perspectives d’un Internet en pleine mutation……………………………………….33
A. L’intégration et fusion des modèles conceptuels.................................................................... 33
B. Le traitement des données incertaines: un chantier à long terme.......................................... 35
C. E-gouvernement: un enjeu international…………….……………………………………... 38
Conclusion…............................................................................................................................... 41
Bibliographie et Webographie..................................................................................................... 42
Page3
Introduction
L’évolution de l’internet s’est réalisée de manière très rapide depuis 2001 et a marqué une
nouvelle étape avec l’émergence du WEB 2.0, un internet participatif qui a changé
profondément la structure du commerce électronique et s’axe beaucoup plus sur la
participation commune, la collaboration entre partenaires, avec l’expansion actuelle des
logiciels libres qui vont accroître davantage cette ouverture du monde des affaires
électroniques.
Nous étudierons tout d’abord un concept qui, bien que présenté dès 1993 par Tim Bernes Lee,
n’a commencé à être sérieusement appliqué que depuis 2003-2004 : le web sémantique. Nous
verrons comment ce réseau donne une vision plus globale de l’internet et contribue à construire
un Internet qui a du sens, une structure autonome et à donner cette intelligence, flexibilité,
rapidité à la gestion de la connaissance. Nous verrons ensuite les répercussions sur la
restructuration et réingénierie des systèmes d’information et des architectures d’entreprise en
expliquant quels sont les nouveaux enjeux, perspectives pour le commerce électronique. Nous
nous arrêterons sur une notion de plus en plus présente : l’e-gouvernement.
La seconde partie abordera les outils permettant d’exploiter cette approche nouvelle des
connaissances en analysant en profondeur des concepts-clés tels que les ontologies et
modélisation de concepts en montrant leurs implications au niveau des processus
d’affaires. Ces principes seront illustrés par les notions d'agents intelligents, de
technologies telles que RFID ou Ubiquitous Computing (informatique omniprésente) et
montrerons l'impact de ces nouvelles technologies et quelles améliorations concrètes sont
escomptées, à exploiter ou à perfectionner.
Enfin la dernière partie fera un constat des limites actuelles du web sémantique et des projets à
venir, solutions en études qui sont en chantier pour les prochaines décennies et quel est l’avenir
proche d’Internet. La conclusion établira une synthèse des éléments-clés du web sémantique et
de leurs débouchés économiques, financiers, politique, individuels.
Page4
I – Web sémantique
Les gestionnaires de l’information et les architectes web n’ont désormais plus qu’un
mot à la bouche lorsque l’on aborde le sujet d’Internet : les services web. Or avant d’y
parvenir, il a fallu reconstruire une nouvelle perception du réseau et effectuer une
mutation d’un système d’information syntaxique vers un système de la connaissance qui
a abouti au web sémantique.
A) Un langage propre : OWL
Pour comprendre la source de ce basculement, il faut remonter à 1999, lorsqu’à la veille
du nouveau millénaire et des spéculations énormes qui pesaient déjà sur les
investissements de la nouvelle technologie de l’Internet par les entreprises, Tim Berners
Lee, fondateur du World Wide Web en 1990, commença ses travaux et sa réflexion sur
l’évolution déjà future des réseaux informatiques dans son livre intitulé « Weaving the
web » où il exprimait déjà la notion de « connaissance » et de « sens » propre à cette
technologie1.
Mais le 10 février 1998 fut le départ d’une formidable aventure avec la certification du
langage XML 1.0 aboutissement d’une longue recherche de deux années de Michael
McQueen, développeur de langages de balises jusqu’alors connu grâce au SGML mais
qui posait des soucis de standardisation. Le langage XML était le premier langage à
pouvoir structurer le contenu de l’information de manière en éléments simples,
complexes, en langage compréhensible par l’individu, tout en ayant un format
adaptable au standard du World Wide Web et un code ouvert à une évolution future de
son exploitation2. Le XML obtenait ainsi en 1998 une norme ISO de la part du
consortium W3C fondé par Tim Berners Lee en 1994.
Diverses recherches conduisirent ce dernier à définir concrètement un point de départ
du Semantic Web sur le fond de recherches d’ingénieurs qui abouti en 1999 à un cadre
de description nommé RDF, qui utilisé avec la syntaxe et la définition de schémas XML
allait permettre une vision totalement différente et pionnière d’Internet.
Le Resource Definition Framework a constitué le premier cadre vers un modèle
conceptuel de données. Il intègre l’énumération des éléments, des attributs et une liste
exhaustive des caractéristiques s’y rapportant. Le XML avait un souci de représentation
en page web cependant car il structurait le contenu tandis que le langage HTML le
présentait, ce qui a obligé le développement d’un modèle XSL (eXtensible Stylesheet
Language) qui a permis d’intégrer le XML dans les page HTML et de donner naissance au
langage XHTML. De l’utilisation conjointe du XHTML du RDF est né le RDFS ou schéma
Page5
RDF qui permet de décrire la structure, le fonctionnement de ces éléments sur Internet
et de voir désormais les informations comme une arborescence d’éléments, contenant
des sous-éléments et permettant de regrouper les données en blocs, construire une
interaction entre ces éléments, définir la manière dont les éléments s’échangeaient de
l’information sur le réseau.
Cependant ce schéma RDF était assez rudimentaire. L’idée de Berners Lee, Roland
Wagner, et plusieurs membres du W3C était d’apporter une notion temporelle à ce
modèle conceptuel de données afin qu’il puisse traiter l’information de manière
autonome, sans interaction humaine et sache prendre en considération l’évolution des
termes, des concepts, du sens, de la définition de la sémantique, en permanence. Le but
était de préserver l’intégrité du modèle de manière permanente. Cela nécessitait de
créer un langage propre à cette ontologie qui puisse regrouper l’ensemble des
éléments, inférences, interactions, classes, sous-classes et devait permettre d’ajouter du
sens et maintenir un raisonnement qui permettent de mieux comprendre les activités
notamment dans les processus d’affaires, en les découpant en objets, hiérarchisés,
interagissant entre eux et aboutissant à un mappage des domaines, activités, rubriques,
applications, sous-applications des entreprises dans leur commerce électronique.
C’est ainsi qu’est apparu en 2001 le Web Ontology Working group. Effectuant des
recherches plus poussée pour exploiter le XML et les schémas RDF, les chercheurs ont
abouti au langage OIL (Ontology Inference Layer). Celui-ci s’appuyait sur des
descriptions d’attributs beaucoup plus riches et permettait de définir des domaines
particuliers avec les classes d’objets qui y correspondaient. OIL s’appuyait également sur
le FaCT3 (Fast Classification of Terminologies) qui permettait de constituer une base de
connaissances sur les différentes hiérarchies de classification et de types de classes
d’objets selon les domaines demandés.
OIL a permis des applications dans les ressources humaines, où le partage de la
connaissance représente d’énormes quantités d’informations stockées sur les systèmes
et a permis de les structurer notamment dans des entreprises comme Enersearch, afin
de permettre une meilleur modélisation des connaissances des activités et
communication des processus d’affaires à ses actionnaires4. De son côté, le
département de la défense américaine a travaillé en parallèle depuis 1960 sur son
propre réseau sémantique et le DARPA (Defense Advanced Research Projects Agency) a
établit son langage propre : le DAML ou DARPA Agent Markup Language.
Afin d’harmoniser l’OIL et le DAML, le W3C proposa une syntaxe commune DAML+OIL et qui
devint le 10 février 2004 le langage officiel du web sémantique sous une appellation définitive :
OWL (Ontology Web Language).
Page6
B) Une nouvelle structure d’entreprise : l’Architecture Orientée Services
Le commerce électronique a très vite compris l’avantage que pouvait procurer l’utilisation du
web sémantique, car jusqu’alors les organisations étaient structurées en divisions, chacune
indépendante, sans aucun lien entre les activités ni interconnexions entre les bases de
connaissances. Les systèmes d’informations se retrouvaient ainsi dupliqués, avec une valeur
dégradée, rigide, utilisée uniquement de manière ponctuelle.
Le modèle conceptuel de données que proposent les ontologies, sur lesquelles nous nous
arrêterons plus en détail dans la partie II, permet d’effectuer une réflexion nouvelle sur les
processus d’affaires. En effet, les domaines d’activités sont trop souvent segmentés d’après leur
environnement d’application et les systèmes connectés point à point entre eux. Ceci provoque
souvent des pertes de bénéfices énormes lorsqu’une défaillance d’un des deux systèmes
survient, car le lien ne peut être remplacé. Pour conséquence, les affaires cessent entre deux
partenaires d’activités ou deux départements internes de l’organisation car l’ensemble du
réseau est paralysé. De même cette structure souvent appelée « legacy system » ou système
d’héritage, provoquait des multitudes d’intermédiaires entre certaines entités diamétralement
opposées sur une structure de plusieurs milliers de systèmes.
D’autre part la plupart des systèmes tels que les réseaux bancaires, notamment, du fait de leur
complexité et programmation en COBOLD parfois même (langage de programmation datant des
années 1970) rendent ces systèmes inopérables avec des systèmes plus actuels et ralentissent
voir empêche d’optimiser la productivité de l’organisation et cela a des répercussions auprès
des clients, Sears a été un exemple de mauvaise gestion informatique. Ce leader nord-
américains dans le commerce de détail a cru bon d’investir 60 millions de dollars dans de très
nombreux systèmes d’informations, sans se préoccuper d’établir une architecture commune et
rationnelle, ce qui l’a fortement handicapé au niveau de la gestion des clients et à revoir sa
stratégie en fonction des services fournies à ses clients en magasin mais aussi envers ses
partenaires de la chaîne logistique5.
Autre souci, l’entrée et la suppression d’un système soulevaient le problème d’intégration des
applications d’entreprise dans son architecture globale. Chaque modification avait une
répercussion sur l’ensemble des activités présente sur le réseau et ceci générait de plus des
soucis de compatibilité entre les applications et programmes afin d’échanger des informations.
Page7
Exemple d’architecture classique d’entreprises traditionnelles
Cette architecture archaïque nommée CORBA (Common Object Request Broker Architecture)
montrait ainsi ses faiblesses au niveau de sa rapidité de traitement des informations, de sa
souplesse à réagir face aux évolutions, changements des besoins des activités d’entreprises.
En 2004, des travaux basés sur la programmation orientée objet d’université européennes de
Milan,Manchester et de Stanford, du Massachusset Institute of Technology aux États-Unis, ont
servi à définir un lien entre le XML et les activités d’affaires pour développer les services web et
une architecture d’entreprise nouvelle.
Cette architecture permet de regrouper les systèmes d’informations disparates en services
simplifiés et interconnectés non plus de point à point mais en réseau connecté en toile avec
une point de convergence commun permettant l’échange entre n’importe quel services quelque
soient leur programmation d’architecture et avec une parfaite communication entre services
web, apportant une flexibilité de connexion et d’interaction entre les processus d’affaires des
sociétés.
L’architecture orientée services s’articule sur 3 composantes :
- UDDI (Universal Description Discovery and Integration): une base de registres contenant
les noms des services webs, leurs attributs, ainsi que leur caractéristiques et propriétés
(ex : SCM = port 80). Celui-ci enregistre le nom des services chaque fois que de
nouveaux apparaissent et les suppriment aisément lorsqu’une entreprise se retire du
réseau d’affaires.
- WSDL (Web Services Description Language): un langage qui permettent de créer les
interactions et échanges entre les services web et décrit de quelle manière chacun
d’entre eux se connectent, quelle nature de données transmettre sans en connaître le
Page8
contenu exact, à quel partenaire d’activité le service web doit être envoyé, sous quelle
forme….
- SOAP (Simple Object Access Protocol): le langage de communication entre les services
web. Grâce à un « broker » ou « facilitateur »utilisant le format XML et situé au centre
du l’architecture orientée service, SOAP permet l’échange entre les services webs. Les
entreprise n’ayant besoin que de programmer un applet qui va transformer les codes de
programmations différents de chacun vers le langage commun SOAP qui permettre
d’établir la connexion entre deux services à partir d’un réseau en toile commun et une
architecture ayant un noyau central gérant les demandes de services des partenaires
d’affaires.
Exemple d’architecture orientée service
Cette architecture a incité les entreprises actuelles à réfléchir à une meilleure définition de leur
stratégie d’affaires, des objectifs à réaliser et des processus d’affaires adaptés à leurs besoins,
tout en permettant de garder en place les legacy systems et de les faire fonctionner avec des
systèmes plus récents en offrant cette compatibilité par un même langage commun, le SOAP.
Page9
L’un des principaux outil de réingénierie utilisé à dans ce but fut l’UMM (UNCEFACT Modeling
Methodology) qui a permis de recréer des processus structurés en services et non plus en
applications, à simplifier les tâches afin de permettre une meilleure correspondance des services
entre les partenaires d’affaires et de pouvoir définir la manière d’opérer des processus, et
finalement à pouvoir automatiser le traitement des processus selon qu’ils le permettent ou non.
Le gros avantage est de pouvoir améliorer la réutilisation des mêmes services pour différents
partenaires qui en font la demande et de pouvoir éliminer à la fois la surmultiplication des bases
de données qui contiennent des données similaires afin d’obtenir une souplesse et facilité
d’échange d’information entre les applications logicielles des entreprises. Des standards
d’ingénierie propre à l’architecture orientée services ont été créés comme le BPM4WS6 et
permettent d’obtenir un même raisonnement de conceptualisation d’éléments de processus
d’affaires pour l’ensemble des partenaires d’un même réseau sur Internet.
Cette architecture permet d’intégrer de nouveaux services ou d’en supprimer sans occasionner
de perturbations dans le fonctionnement de l’architecture, on y voit souvent une référence au
plug-in et plug-out qui illustre cette facilité d’utilisation de l’architecture orientée service et de
ses services web.
Dernier composante importante dans cette réingénierie pour optimiser le fonctionner de
l’architecture orientée services : le Service Level Agreement.
Le S.L.A est un cadre d’interface des services web qui permet de définir la manière dont
fonctionnent les processus, les responsabilités affectées à chaque éléments du service utilisé,
ainsi que leur portée, et pourvoir une interface commune de travail afin d’harmoniser en un
même langage les différentes équipes d’utilisateurs en s’appuyant sur des règles, standards qui
définissent un champs d’opérations commun pour tous lors de l’utilisation des services web7.
C) Les nouvelles applications concrètes pour les processus d’affaires
Là où certaine entreprises y ont vu un simple remodelage de processus, d’autre s’y sont
appuyées pour redéfinir leur cœur de métier de base. C’est le cas notamment des
réseaux bancaires dont un des exemples les plus réussis est sans doute le réseau Nordea
qui rassemble les 4 banques leader en Scandinavie et se répartit sur plus de 1100 sites
différents utilisant près de 30000 collaborateurs8.
Les gestionnaires, là où certains y ont vu un projet ambitieux d’investir massivement
dans l’équipement pour améliorer la technologie et l’efficacité des système
d’information présents dans l’entreprise, ceux de Nordea a raisonnée en terme de gain
de productivité et de rentabilité en redéfinissant les processus d’affaires du cœur de
métier et en organisant les tâches qui pouvaient réduire les charges de l’organisation
tout en permettant une efficacité d’action par son automatisation.
Page10
Nordea s’est rendue compte qu’une architecture orientée service servait une stratégie
d’affaires et non une volonté de modernisation des systèmes. L’essentiel des banques
qui ont échoué dans leur investissement technologiques, l’ont fait à tort en pensant à
l’aspect technique et matériel au détriment du sens des affaires, à l’apport qu’une
nouvelle architecture pouvait apporter à la structure de l’ensemble de l’entreprise.
L’Architecture orientée service, si elle a permet à d’anciennes structures d’évoluer, peut
permettre également à des compagnies leaders de surveiller et développer, maintenir
leur avantage compétitif au niveau concurrentiel. C’est notamment le cas de la société
RLP Technology, basé dans le Michigan aux États-Unis, et qui est leader au niveau des
solutions d’affaires marketing dans le domaine automobile.
La compagnie, basé dans plus d’une dizaine de pays à travers le monde tel que le Japon,
la France, l’Australie, cherchait à améliorer son système de collecte de l’information,
afin de pouvoir proposer des offres de services plus adaptées à ses clients, car le marché
du B2B suggéré d’être extrêmement pointu et en veille permanente et efficace du
marché.
L’architecture orientée service y a apporté une solution en permettant de réorganiser
les tâches de collectes des données, en optimisant la vitesse d’échanges d’informations
des systèmes, en définissant des réglementations quant à ces données et rationalisant
les coût tout en apportant un support additionnel pour le suivi de l’activité.
L’essentielle était de structure les systèmes d’information de manière ordonnée et
intelligente afin de faciliter l’accès aux données et de créer des concevoir les services
comme des blocs d’éléments, des services à part entière et qui éliminaient toute
redondance en clarifiant les forages de données et les modes d’accès à l’information
dans l’entreprise.
RLP Technology a ainsi pu ouvrir ses services vers les analystes de ses partenaires
d’affaires qui pouvait étudier les perspectives par rapport à l’évolution de l’entreprise
sur le marché automobile grâce à une interface simplifiée, procurant des outils de
création de données et d’échanges beaucoup plus souples et rapides.
L’A.O.S (Architecture Orientée Service) a permis de refondre les activités des
producteurs de pièces en se concentrant sur leurs cœurs d’activités pour créer
l’interaction avec les services proposés par RLP. Une plus grande richesse d’information
s’est créée sans pour autant se disperser dans les systèmes car la base de connaissances
était organisée de manière dynamique, en organisant ses données selon les domaines
financiers, communication, marketing, juridique de RLP, et la conceptualisation des
Page11
données permettait ainsi de mieux analyser les cycles, les étapes successifs des
processus d’affaires entre eux pour mieux anticiper les conséquences de les
commercialisation de produits sur le marché automobile et prévoir l’impact des
décisions et stratégies d’affaires de ses concurrents sur le marché actuel et selon les
perspectives futures.
Ce projet baptisé Re-Fuel a été complété par un ESB (Entreprise Service Bus) qui devait
permettre d’augmenter la capacité de traitement des quelques 2,5 milliards
d’informations que comptait à l’époque les systèmes d’information de RLP, tout en
veillant à une définition plus précise des données afin d’assurer une meilleur qualité et
intégration de l’information dans les affaires électroniques.
Une meilleur gestion globale de l’information a permis à RLP de remplacer ses legacy
system programmé en COBOLD par un réseau internet souple, rapide, efficace,
directement connecté à ses partenaires professionnels afin d’augmenter la
collaboration et l’échange pour créer une valeur ajoutée aux avantages compétitifs des
services marketing de RLP Technology. Ajouté à un choix judicieux de la technologie
JEMS pour son intégration du langage JAVA dans la programmation de ses systèmes et
son intégration dans l’architecture globale, ont contribué à une stratégie gagnante
définie par Joe Lafair, responsable du développement de l’architecture web RLP, comme
une stratégie 50/50/100 avec 50% de l’activité reposant sur cette solution, permettant
50% de rapidité de traitement en plus, aboutissant à 100% de qualité et en
rationnalisant les coûts des investissement par rapport à la réduction du traitement des
affaires que permet l’automatisation de processus simples.
Autre excellent exemple d’application, celle de la compagnie Swedish Railways. En 2005,
constatant de la saturation et manque d’efficacité de ses serveurs actuels et intranets, la
société a réfléchit avec une société experte en implantation d’architectures orientées
services à une plateforme permettant d’optimiser sa capacité de traitement de la
demande de billets de trains de ses clients et d’une manière de rationnaliser les coûts
de son système, à des fins de rentabilité accrue.
Un partenariat avec Ebay a ainsi été mis en place en utilisant l’AOS pour rendre plus
aisée l’échange de services entre les deux firmes et être plus réactif quand à la demande
spontanée et le flux de clients auquel devait faire face Swedish Railways. Ceci lui a
permis, grâce à l’appui d’une infrastructure informatique IBM adaptée, souple, fondée
sur Websphere et les logiciels libres ainsi que des postes informatiques et serveurs plus
performants d’augmenter ses ventes de 1500 billets supplémentaires chaque semaine,
et donc d’assurer un formidable retour sur investissement et une meilleur satisfaction
de sa clientèle9.
Page12
Tous ces exemples de réussites sont un élément de motivation pour inciter davantage
les entreprises qui cherchent la meilleur optimisation de leurs affaires électroniques et
dont l’architecture classique et rigide en place paralyse l’évolution avec les partenaires
d’activités et empêchent d’utiliser de manière efficiente l’information de leurs systèmes
pour coordonner leur tâche, leur échanges de services sur le marché, ce qui accroît les
investissements à réaliser afin de se maintenir à jour par rapport à la concurrence et
l’essentiel point de départ est toujours une réflexion itérative sur le modèle économique
de l’entreprise, afin de prendre en compte les réels besoins ,les faiblesses du réseau
existant et choisir les solutions les plus adaptées à une souplesse, réactivité, rentabilité
des affaires, chose que permet l’architecture orientée services.
II – WEB 3.0 : évolution vers l’intelligence des réseaux
L’internet a contribué à une fulgurante amélioration de la conduite des affaires dans le
domaine du commerce-électronique, en s’axant sur le développement d’activités créant
une réelle valeur ajoutée apportée par les technologies nouvelles de l’information liées
à Internet.
Là où le web 2.0 a recentré la stratégie autour de la collaboration et l’aspect social,
participatif des individus pour la création d’information afin d’adapter les produits,
services de meilleure manière pour desservir les clients, leur donnant plus de valeur et
cherchant par tous les moyens à augmenter l’interaction, l’ergonomie de
communication, d’utilisation, la valeur de leur partenaires d’activité et celle des clients,
le web 3.0 lui apporte cette notion supplémentaire d’intelligence.
Cette nouvelle approche des affaires prend du recul par rapport aux stratégies
d’affaires, en apportant une réflexion nouvelle sur la conceptualisation de la
connaissance, de l’information et une transparence et homogénéisation de la gestion
des connaissances sur Internet. Nous l’avons vu précédemment, l’architecture réseau
est un élément-clé désormais dans une vision d’optimisation du traitement de
l’information, opérabilité des processus d’affaires et valeur de l’offre de services.
Cependant les méthodes et technologies en développement, telles que les ontologies
d’entreprises, agents intelligents, nous offrent une vision d’un réseau autonome et
cohérent, ayant du sens et cherchant à créer du sens pour simplifier l’accès, le
traitement des informations, des activités et tend à modifier l’ensemble des
comportements des individus en impliquant une logique humaine aux applications
informatiques et une meilleur coordination du partage des informations.
Page13
A) Les outils de raisonnement conçus pour les ontologies
Nous l’avons brièvement aperçu précédemment, le web sémantique a contribué à se
tourner vers le problème du sens de la connaissance et de la manière imparfaite avec
laquelle elle est utilisée.
Très tôt et dès le milieu de l’année 2004, le W3C et des équipes telles que l’université de
Milan en Italie, ou de Stanford aux Etats-Unis, et groupes d’ingénieurs asiatiques,
indiens ont perçu cette limite que représenterait à court ou moyen terme l’utilisation
« syntaxique » des données sur le réseau Internet. Cette perception réduisait les
possibilités d’exploitation autonome de l’information et réduisait l’utilisation des base
de connaissances à une simple connexion formalisée, prédéfinie et rigide. Ainsi les
ontologies ou modèles conceptuels de données sont nés du web sémantique avec son
propre langage OWL afin de réfléchir à une approche nouvelle de l’utilisation des
données et à l’élaboration de significations, de structures ordonnées et inter-
opérationnelles et autonome des systèmes afin d’améliorer la qualité des informations
et de la pertinence des recherches et du traitement automatisé des données.
Concrètement, lorsque de nos jours nous recherchons de l’information sur Google, ce
qui se passe derrière sur le réseau n’est qu’une combinaison de « wrappers »,
« spiders » plus communément appelés robots-araignées de recherches, qui combinés à
de très puissant algorithmes d’analyse permet cette rapidité d’accès à l’information.
Cependant, aucune analyse ne nous permet de dire si les résultats affichés sont
réellement pertinents, car cela dépend souvent des critères choisis pour paramétrer une
recherche. Et les outils utilisés tels que le pagerank (classement de la popularité des
pages), le référencement HTML, la notoriété des sites internet ne nous indique
nullement quand à la qualité réelle du contenu même des informations que renferment
ces sites. Comment définir la réelle pertinence d’un terme lorsque par exemple la
tomate est considérée pour 236 sites comme légume, alors que pour 4 sites il est
désigné comme un fruit. Est-ce la popularité qui octroie la certitude du sens
obligatoirement? La tomate étant considéré comme fruit et légume, cela montre qu’il
est nécessaire de reconceptualiser les connaissances afin de préciser leur sens, leur
portée, les éléments intégrés, les attributs et le type d’interaction avec d’autres
connaissances, afin d’homogénéiser la connaissance.
Au niveau des entreprise ceci impliquait une refonte totale de leur modèle d’affaires en
5 étapes : l’étude de faisabilité, le kick-off, la réitération, l’évaluation et la maintenance.
Page14
Méthodologie de conceptualisation des processus d’affaires10
Étude de faisabilité
Elle permet de faire le constat des faiblesses de l’entreprise, de la pertinence de sa
stratégie d’affaires et de l’adéquation de ses processus avec ses besoins actuels et
futurs. Ceci permet ensuite de faire le point sur les possibilités d’intégrer un modèle
conceptuel de données au sein de l’organisation avec les ressources disponibles pour
valider le projet.
Kick-off
Il s’agit de faire une capture de l’information et des connaissances conservées dans les
bases de données et systèmes d’information. Cette étape permet de définir un
« squelette » de l’architecture de l’information dans l’entreprise et permet ensuite de
définir les activités en domaines d’application, eux-mêmes divisés en sous-domaines,
comportant des éléments. Chaque éléments peut comporter des sous-éléments et se
composent obligatoirement d’attributs, de caractéristiques qui définissent sa nature et
sa portée, ses propriétés, sa signification. Ce modèle définit également les interactions
Page15
qui se produisent entre chaque élément, entre éléments et domaines, entre les
domaines, etc.….
L’ensemble de cette phase se base sur la sémantique des éléments et les
correspondances de sens des termes, données présentes dans les bases de données,
pour définir les processus d’affaires et il est très important de vérifier que chaque
élément est cohérent avec le sens du domaine auquel il appartient.
Exemple de conceptualisation des données
« Refinement » ou itération
Une fois le modèle défini en détails, il s’agit de vérifier de la validité de chaque élément
en regardant son application et essayant de catégoriser les données de manière plus
affinée encore. Une réflexion est apportée sur la valeur des concepts établis, jusqu’à ce
que les éléments soient clairs, compréhensibles et dont l’impact, l’action, les relations et
inférences, hiérarchies doivent être correctement précisés. Bien évidemment le travail
sera d’autant plus difficile que l’information est riche ou que les domaines touchent à
une multitude d’environnement ,de champs sémantiques divers et épars, et la difficulté
est de catégoriser en concepts des éléments souvent complexes et dont les données
peuvent être incertaines ou dont les répercussions sont improbables, chose que nous
analyserons plus tard dans ce rapport.
Page16
Évaluation
Cette phase vérifie que les éléments soient opérationnels, que le raisonnement des
processus soit cohérent à la stratégie d’affaires d’ensemble et par rapport aux domaines
cernés. Il est nécessaire de vérifie que les relations entre concepts pour déterminer s’ils
sont correctement définis, si les bonnes caractéristiques, attributs, inférences, actions
ont été catégorisés de façon à ce que l’ontologie obtenue puisse être réutilisable et
exploitable de manière continue.
Maintenance
La mise à jour des données est capitale afin de préserver la qualité des informations
possédées. La valeur des concepts des processus dépendra fortement de la capacité à
les faire évoluer en fonction e l’environnement dans lesquels ils s’appliquent et en
fonction des changements de comportements des utilisateurs. Et il sera ponctuellement
nécessaire de procéder à un processus de réitération et donc de revenir à notre 3ème
étape de « refinement » afin de modifier les éléments, dès lors que leur signification,
leur rôle, leur actions, les finalités visées, changent.
Les outils du web sémantique
L’un des premiers outils apparaissent en 2004 fut Swoogle, accessible via l’URL
http://swoogle.umbc.edu/ et qui fonctionne comme un moteur de recherche pour le
web sémantique. Cette outils permettait de retrouver des éléments, des attributs et des
ontologies parmi plus de 100 000 documents en 2004. Cependant, il lui était impossible
d’établir le lien entre deux concepts d’ontologies distinctes, ni de définir la qualité de
l’information autrement que pas le ranking des mots-clés ou des sites.
Page17
Ainsi en 2006, le Knowledge Media Institut de Milton Keynes au Royaume-Uni a
développé un outil plus perfectionné appelé Watson Semantic Web Gateway11. Au
contraire de Swoogle, Watson se base sur un moteur de recherche par mots-clés de très
haut niveau et utilisent les métadonnées des informations et concepts afin de vérifier la
qualité, la pertinence de ceux-ci et ne se base plus sur l’uniquement popularité des
termes sur les pages internet. D’autre part, Watson Gateway permet d’analyser les
relations qu’il existent entre des concepts appartenant à des ontologies différentes en
se basant sur les liens existants entre les éléments dans leurs ontologies respectives
pour ensuite établir des correspondance de sens au niveau de ces concepts et construire
une relation entre eux.
Exemple de raisonnement de Watson Gateway12
Autre caractéristique, Watson vérifie en permanence l’utilité de ses critères d’analyses
des termes sémantiques et développe de nouveaux critères d’analyse et de
correspondances pour établir les liens entre les informations et améliorer sa perception
de leur qualité. A l’instar de Swoogle qui se limitait à 100 000 documents, Watson peut
traiter les quelques 6 millions d’informations renfermées dans les bases de données du
web sémantique et peut traiter ces informations sans limite de temps ni d’utilisation, ce
qui n’ était pas le cas de Swoogle qui n’autorisait qu’un nombre limité de demandes.
Watson a été vu très rapidement comme un premier pas vers les intégrations
d’ontologies et un projet en devenir concernant les alignements de concepts et fusion
d’ontologies.
Page18
D’autres outils tels que Poweraqua et Powermagpie permettent également de faciliter
le repérage des informations et d’établir les liens avec des ontologies existantes ou de
créer une nouvelle ontologie, en analysant les contextes et les attributs, les classes de
termes et de connaissances ces deux logiciel permettent d’afficher à l’écran les
correspondances existantes, les ontologies utilisées ou les conceptualisation qu’il est
possible d’établir entre plusieurs mots-clés. Power Magpie tout comme Watson
s’appuie sur le RDF (Resource Description Framework) pour établir les catégorisation de
concepts,de termes sémantiques et établir une « communication » avec les documents
html afin de générer un listing des relations existantes dans les modèles conceptuels
relevés dans chaque page internet. Ainsi selon l’API ou Application Programming
Interface de Power Magpie utiliser des fenêtres contextuelles de similaire au format
Notepad afin de montrer les résultats des analyses sémantiques.
Capture écran de l’interface de Power Magpie
L’outil actuellement le plus abouti et le plus utilisé pour concevoir des ontologies et
structures leur intégration est sans aucun doute le logiciel Protégé.
Page19
Le logiciel Protégé, développé en 2000 à l’université biomédicale de Stanford13 en
Californie, est une des premières solutions qui ont été mis en place afin de représenter
sous informatique de manière schématique, visuelle le web sémantique.
Il permet de créer des structures sous forme d’arbres heuristiques avec des connexions
qui sont établies par le biais de concepts- clés communs entre les systèmes
d’informations ou entre les éléments de manière à ce que l’ensemble des concepts
puisse communiquer de manière optimisée et automatisée. Ce logiciel permet d’affecter
les informations par individus, classes (qui peuvent posséder des attributs caractérisés
par des propriétés propres), entités et au sommet de la structure l’ontologie et d’y
assigner les actions d’analyse intelligente de cette dernière.
Il permet aussi d’y intégrer des annotations spéciales pour compléter la description de
chaque élément de l’ontologie. Grâce à l’outil Graphviz, il est possible de visualiser la
hiérarchie des données telle que l’on a répertorié les fils, sous-fils, sous-sous-fils et
différents liens entre les classes, labels descriptifs d’information et attributs des
différents contenus.
De plus il permet d’intégrer des plug-ins pour fonctionner avec les documents OIL, RDS,
OWL de toutes sortes, inclure des librairies et notamment un plug-in intéressant avec
l’outil Watson Gateway.
Exemple de l’interface de Protégé (en version 4 bêta ici)
Page20
Tous ces outils du web sémantique sont tous confrontés des problèmes qui sont encore
à l’heure actuelle à l’étude comme la fusion d’ontologie et l’intégration de concepts
renfermant des éléments complexes et de l’information incertaine.
B) Les systèmes multi-agents
Entrevue par la communauté scientifique dès le début des années 199014, le système
multi-agents se caractérisait par trois composantes essentielles :
- Réactivité : capacité à agir selon les changements de son environnement et à
s’adapter en fonction des données qu’il reçoit ou analyse.
- Pro-activité : aptitude à anticiper les besoins et les répercussions futures des
informations, aide à la prise des décisions avant que les événements ne
surviennent en étudier toutes les possibilités d’évolution du contexte et des
éléments avec lesquels il interagit.
- Sociabilité : faculté de coopération avec les autres agents et d’organiser la
répartition de tâches, la structure hiérarchique d’un projet entre agents, de
définir une structure approprié pour travailler de manière indépendante.
Schéma de fonctionnement des agents intelligents15
Page21
Les agents intelligents conceptualisent les données pour se forger leurs propres
ontologies et agir de manière autonome dans leur environnement. Ils réagissent en
fonction de capteurs d’information qui rentrent en « input » ou entrée pour constituer
une action en sortie ou « ouput » vers ce même environnement.
Chaque agent du système peut être attribué à un contexte ou environnement
différents, mais établit toujours un lien avec les autres agents.
D’autre part les agents intelligents ont leur propre structure mentale qu’il organisa en
fonction de croyances, désirs et intention (le BDI ou Belief, Desire, Intention). L’agent en
analysant les données se construisent leur propre choix de négociation et prennent les
décisions d’après les perspectives répondent le plus à ce qu’il « croient » optimal
comme choix pour atteindre un objectif de travail. Le désir est l’objectif de base que
chacun possède mais qui est souvent sujet à des divergences avec les buts des autres
agents. Ils se concentrent alors sur les intentions où les obligations, besoins sur lesquels
ils n’accepteront aucune marge de négociation.
Ainsi selon le contexte 4 différents choix sont possibles : la coopération, la collaboration,
l’antagonisme, ou la semi-coopération.
Dans une logique coopérative l’agent peut rendre un service à son homologue mais la
chose ne sera pas forcément réciproque ensuite, car les intérêts sont divergents mais
une entente existe.
La collaboration présente une action mutuelle des agents entre eux car ils ont des
objectifs soient commun soient compatibles avec les finalités escomptées.
L’antagonisme est le refus catégorique de communication entre deux agents, soit par
intérêts trop fortement divergents, incompatibles, où par analyse de l’autre comme
ayant une réputation insuffisamment fiable ou infidèle.
La semi-coopération enfin est un état de réflexion de l’agent intelligent qui va d’abord
considérer le statut de son vis-à-vis avant de prendre une décision. Il se basera sur
l’historique des interactions passées, la réputation, fiabilité, qualité de l’autre agent et
sa propension à permettre la réalisation d’objectifs en temps voulu.
Le système multi-agents se structure autour de l’architecture CORBA16 (Common Objet
Request Broker Architecture) , qui permet d’utiliser les agents comme des objets et de
les rendre autonomes pour des tâches précises, complexes.
Page22
On retrouve généralement trois types d’organisation des agents intelligents dans le
système SMA17 :
- L’architecture axée sur le flux d’information : le rôle des agents est de capturer,
analyser, et effectuer des veilles sur la base de connaissances qu’il possède ou
acquiert afin de maintenir sa qualité et son utilité.
- L’architecture orientée rôle : chaque agents comprend des responsabilités et
peut avoir à se référer à un agent supérieur. Une hiérarchie par couche
d’importance des tâches à accomplir ou application à utiliser peut suggérer
qu’un agent constitue des sous-agents qui vont exécuter des tâches simples.
- L’architecture orientée contrôle : mise en place lorsque le projet dans lequel est
impliqué le système multi-agents est trop complexe pour laisser une autonomie
et confiance totale à l’ensemble des agents, des contrôles s’effectuent dans leur
espace de collaboration afin de valider l’atteinte de objectifs de chaque
éléments simples contenu dans les applications complexes à réaliser et ensuite
une validation de l’ensemble de la tâche complexe est effectuer par les agents
lorsque tous manifestent l’atteinte des objectifs définis au départ.
De nombreux domaines exploitent déjà cette technologie, notamment les secteurs
de la santé, du tourisme et de la gestion de la relation client.
Système multi-agents dans l’aéronautique
Le très ambitieux projet Nextlink, par exemple, dans le domaine de l’aéronautique,
avait pour objectif de construire un système multi-agents afin de travailler sur le
design des pièces de construction des avions commerciaux.
L’architecture du système utilisait un agent intelligent qui supervisaient
l’avancement dans la réalisation des pièces et validait les étapes de conception et
pouvait moduler des décisions en fonction des impératifs, défaillances, difficultés
rencontrées auprès des différents ingénieurs réparties à travers le monde,
permettant également la transmission via les réseaux sans-fils aux équipes humaines
et le but était de construire un système standard transposable dans d’autres
domaines ultérieurement.
Page23
Schéma extrait du projet18
Système multi-agents dans le traffic automobile
Autre exemple encore plus complexe : la gestion de la signalisation routière des feux
routiers. Un équipe de projet de recherche à l’université de Anyang en Corée du Sud a
établit un système multi-agents permettant de gérer le changement des lumières des feux
passant du rouge au vert.
Les agents au moyen de capteurs permettent d’analyser et calculer le temps des cycles des
feux en fonction de la densité et congestion du trafic routier. Mais également ils sont
« conscients » des conditions atmosphériques en analysant la structure de l’air et peuvent
adapter la vitesse de changement des lumières selon le contexte afin de minimiser les
risques d’accident automobiles.
Cela va encore plus loin puisque les agents peuvent non seulement prévenir les autres
agents d’augmentation ou baisse de flux de trafic, mais aussi peuvent gérer le signal des
feux en fonction de la vitesse à laquelle roulent les automobilistes afin de ne pas provoquer
des ralentissements pouvant occasionner de possibles carambolages, et peut gérer
simultanément plusieurs intersections de rues.
Page24
Schéma représentatif de l’application du système d’agents intelligents pour réguler le
traffic routier au niveau des intersections19
Cette technologie représente un défi formidable dans les systèmes d’informations des
entreprises, et les projets actuels rapprochent les systèmes multi-agents de la recherche en
intelligence artificielle, afin de permettre une autonomie de travail sur des éléments
beaucoup plus complexes et sur l’amélioration du raisonnement « humain » des agents.
C) RFID : la voie royale vers une traçabilité absolue
Développée dès la seconde guerre mondiale, en 1948, pour la Royal Air Force
britannique pour distinguer les avions ennemis20, ce système apparaissait alors sous
le nom « IFF » pour Identification Friendly of Foe. Ce n’est que vers la fin des années
1970 que la Radio Frequency Identification fit une percée, lorsque le domaine de
l’armée qui avait conservé l’usage et la recherche exclusive de cette technologie
durant plusieurs décennies finit par la rendre publique.
Utilisée durant les années 1980 essentiellement pour sécuriser l’accès aux sites
nucléaires, et il faudra attendre 1998 pour qu’un système utilise les puces RFID pour
Page25
permettre de suivre le bétail au niveau agricole mette sur le devant de la scène
réellement cette technologie. La raison de ces années de silence est essentiellement
due à l’absence de normes et à un devoir de réglementation avant tout usage
public21.
En 2004, après de longues décennies de recherche et fabrication de tags par les
industrie européennes et américaines essentiellement, la RFID pris tout son sens
lorsque les entreprise ont entrevue l’utilité des progiciels, architecture orientée
services et l’enjeu économique au niveau de la logistique que l’apport de nouvelles
puces de traçabilité des produits offrait. Ainsi dès fin 2003, WalMart suivi les pistes
d’ASA firme de détail anglaise dans l’incorporation de tags RFID sur ses produits. Ce
qui causa un demi-échec car le coût des puces se posait car bien que permettant un
rayon d’action de 50m, elles coutaient en moyenne 15€, ce qui réduisait son
implantation dans des firmes de grande taille ayant de forte rotation de stocks ou
portant sur des produits à fortes marges22. WalMart, leader américain de la grande
distribution du reporter ses ambitions pour 2005, année où il créa la norme EPC, en
fréquence 13,56Mhz et 98 bits et dont la portée était estimé à 2 mètres maximum
étant donné qu’il s’agissait d’étiquettes RFID passive23.
Ainsi depuis, la RFID est utilisée essentiellement pour contrôler le taux de démarque
inconnue en magasin, la traçabilité des produits depuis le fabricant vers les
entrepôts et surveiller les stocks en magasins.
La puce RFID se compose d’une micro-puce renfermant des informations sur le
produit et utilisant l’énergie du signal d’un lecteur RFID qui transmet une requête
pour échanger l’information qu’elle contient.
Schéma de fonctionnement d’une puce RFID
La technologie Verichip, approuvée par la travaille actuellement sur une puce ayant
une portée de 300m et permettant d’être implanter sous cutané afin de permettre
la localisation des individus par satellite et préoccupe énormément les prisons
Page26
américaines pour la surveillance de leur détenus, mais également dans la prise en
charge de patients24.
Les puces RFID comprennent deux catégories :
- Les puces passives, ayant un rayon d’action réduit de 9 cm à 2 mètres et ayant
une fréquence de 13,56 Mhz : uniquement lisibles par une lecture,
essentiellement pour le stockage d’informations.
- Les puces actives, ayant un rayon d’action allant jusqu’à plus de 50 mètres en
moyenne, utilisant une fréquence de 2,38 à 2,47Ghz : permettent lecture et
écriture, mise à jour de données, utilisée pour le suivi logistique principalement.
Applications
Transport londonien
La RFID s’inscrivit de plus en plus le principe d’ubiquitous computing ou
informatique omniprésente et très tôt les gouvernements ont saisit ce progrès pour
l’application dans les services publics. Le réseau public de Londres ainsi a vu très tôt
l’utilité d’une telle technologie pour réduire la congestion du trafic de voyageurs
quotidien du centre urbain de Londres, où plus de 5 millions d’anglais prennent
chaque jour le métro, le bus, le train et le nombre de visiteurs enregistrés
augmentent de 15% chaque année. La gestion optimale du réseau de transport était
donc une priorité essentielle à très court terme face à l’engorgement des flux de
circulation.
Le ministère des transports britannique, et le réseau TfL (Transport for London),
réfléchissait à une amélioration de leur système de tickets magnétiques et billets
d’autobus qui engendrait des perturbations et embouteillages dans les heures de
pointe en journée et de même facilitait la fraude d’individus mal intentionnés et qui
coûtait entre 5 et 6 millions de pounds au réseau chaque année.
C’est ainsi que naquit le projet Prestige en 200525, qui élabora un système de
capteur sur les portiques d’entrée et sortie des stations de métro qui à l’aide de
capteurs placés près de la zone de passage des individus lisaient leur nouvelle carte
magnétique RFID et leur ouvraient le portique. Ceci engendra un gain de 4 secondes
par personne en temps de passage car il n’était plus nécessaire d’insérer un coupon
magnétique mais de passer simplement suffisamment près des capteurs avec la
Page27
carte contenant la puce RFID pour que celle-ci soit reconnu, authentifiée et se voit
accordé l’accès. La carte ne devait pas nécessairement être sortie et les personnes
pouvaient les conserver sur eux du moment que le capteur détecter un titre valide.
Un problème au début du projet se posa sur la difficulté à placer les dispositifs de
reconnaissances car la portée était réduite à quelques centimètres uniquement avec
une risque d’effet d’angle perpendiculaire qui pouvait empêcher le capteur de lire
les puces RFID contenu dans les cartes des citoyens.
Ce système permis de réduire de manière significative la congestion du trafic
londonien et fut également mis en place dans plus de 8000 bus londonien qui
enregistraient en 2005 près de 6 millions de ventes de billets, grâce à ce système et
près de 4 millions supplémentaire de titres concernant le métro.
Ce système permis d’enregistrer le parcours des usagers, ce qui souleva également
le problème de méthode d’écriture « étape par étape » ou « finale » des trajets des
individus pour identifier les différences entre les parcours simples et les allers-
retours et valider les droits des usagers par rapport aux informations détenues sur
leurs cartes individuelle. Ceci facilite grandement les contrôles des agents de
surveillance des réseau du métro de Londres dans le contrôle des titres et grâce à
une signature électronique propre à chaque pass, la fraude et les tentatives de
falsification de titres de transports s’est considérablement résorbé.
Portiques RFID à Londres et effets observés sur les ventes de titres de transports26
Page28
Gestion client tokyoïte dans la vente de chaussure
Autre exemple pertinent, le support client en plein centre ville de Shibuya à Tokyo dans le
flagship (plus grand magasin mondial en termes de superficie) de la firme Mitsukoshi,
spécialiste dans la vente de détail et dont le problème de qualité de service auprès de la
clientèle de leur département de chaussures était problématique.
En effet, l’évasion de clientèle qu’entraînait le traitement de chaque client à cause de
nombreuses allées et venues des vendeurs et du manque d’information spontanée sur l’état
des stocks entraînait des pertes chiffrées à 8% des chiffres d’affaires notamment sur la cible
féminine.
Appuyé par le METI (Minister of Economy Trade and Industry) du Japon concernant les
recherches de projets portant sur la technologie RFID, la firme Mitsukoshi aboutit à la
conception d’un système de kiosque RFID intégré avec écran tactile qui permettait d’insérer
de manière discrète et invisible les lecteurs de puces. Les vendeurs pour leur part utilisaient
des assistant personnels capable de lire les tags des puces collées sur chaque chaussures en
magasin. Les PALM étaient ainsi connectés en réseau sans fil avec les kiosques qui leur
transmettaient en temps réel l’emplacement des produits et de la disponibilité de chaque
taille de chaussure en magasin. Très vite les vendeurs ont manifesté cependant une
appréhension quant au fait de garder en permanence un assistant personnel à la main ce
qui réduisait leur confort lors de manipulation d’échantillon de vitrine auprès des clients.
Le système finit par ne plus utiliser que les kiosques et renseigner de meilleure manière le
client sur leurs demandes. Une autre amélioration au système concernait les puces
implantées sur les chaussures pour qu’elles puissent être retirées aisément une fois le
produit vendu au client, et l’application de tags RFID détachable facilement a été par la suite
instauré pour un meilleur confort d’utilisation et éviter tout souci de retour du client.
Les kiosques ont retirés des bénéfices également du fait qu’ils permettaient de reconnaître
une chaussure à son tag RFID chaque fois qu’elle était posée sur le kiosque à proximité du
lecteur et de l’écran informatique.
Page29
Exemple de kiosque Mitsukoshi
La RFID ainsi nous montre une très forte avancée technologie possible dans le domaine
de la traçabilité logistique des produits et dans la transparence des stocks, avec une
meilleure gestion des flux de personnes ou de produits mais se heurte encore à un
obstacle de taille : la liberté individuelle.
En effet, la RFID utilisée également au niveau marketing pour recenser les habitudes de
consommation des clients ou les procédures d’affaires entre partenaires, suscite l’émoi
des association de défenseurs des droits des citoyens et des institutions juridiques de la
propriété industrielle, pour délimiter la frontière de l’accès à l’information à caractère
privé des individus et des entreprises. En effet, cette technologie apparaît comme outil
de puissant pour sonder en profondeur les faits et gestes des individus et manque de
cadres juridiques, normes et réglementations suffisantes pour protéger les libertés
civiles de chaque citoyen. L’autre effet pervers est celui de l’utilisation de cette
application dans la veille stratégique des entreprises afin d’obtenir des informations à
caractère confidentiel sur les brevets, secrets de fabrication et stratégies d’affaires des
concurrents.
C’est un problème encore majeur qui bien que commençant à être cadré par les
institutions gouvernementales dans chaque pays, reste encore en développement à
l’heure actuelle.
Page30
D) L’informatique omniprésente change les mentalités
L’ubiquitous computing est un concept qui date des années 1970 et regroupe un
ensemble de technologies dont les systèmes multi-agents, la RFID et bon nombre
d’autres technologies internet pour exprimer une vision nouvelle de l’informatique :
L’accès instantané à l’information.
En effet le concept est d’inclure un individu qui se situe dans un environnement
géographique et qui circule avec un appareil prenant la forme d’un assistant personnel
digital et tactile et lui informant de toutes les opportunités qui peuvent se présenté en
fonction du comportement, des habitudes, du mode de vie de chaque individu.
Le principe est de programmer ce « gadget » pour qu’il analyse tout seul la personnalité
les actions de chacun afin de lui faciliter le quotidien.
Évidemment cet optique utilise le principe de concepts et de relation s’inscrivant dans
l’environnement d’évolution de l’individu et permet une réflexion avancée en
construisant des ontologies permettant cette facilité d’échange d’informations et
confort d’usage.
Un très bel exemple de ce principe a été observé entre 2002 et 2004 dans les hôpitaux
du Danemark en collaboration étroite avec le laboratoire de recherche en technologie
d’Aalborg au niveau de la gestion des patients.
En effet jusqu’alors, l’afflux en constante augmentation de malades, blessés, et patients
admis aux urgences et soins intensifs devenait préoccupant quand à la surpopulation
des hôpitaux et de la qualité de travail des infirmières auprès de chaque patient pour
vérifier de manière optimale l’évolution de leurs conditions de santé.
Jusqu’alors selon les tests du laboratoire d’Aalborg, montraient que les allées et venues
des infirmières jusqu’au terminal de saisie des informations sous poste informatique,
engendrait une perte de temps de 3 min par patient et que parfois le manque de
coordination des services et entre les relève de gardes pouvait augmenter le temps de
traitement de chaque patient.
L’idée trouvée fut tout d’abord de recourir à des petits chariots roulants à bonne
hauteur sur lesquels les infirmières disposait d’ordinateurs portable, permettant ainsi de
pouvoir être plus autonome quand à l’enregistrement des données d’évolution et des
traitements ingérés au patients et des analyses faites ou restantes à effectuer.
L’avantage était la réduction de la perte de temps dû à l’aller-retour des infirmières
entre leur service et les chambres des malades. Ce qui pouvait être critique dans la
Page31
gestion des urgences et salles de soins intensifs ou la surveillance minute après minute
pouvait avoir une incidence vitale sur la vie du patient et l’évolution favorable de son
état.
Exemples à droite des terminaux classiques fixes, à gauche des chariots mobiles avec
ordinateurs portables
Hors après de multiples tests visant à analyser la perception du systèmes par le
personnel des hôpitaux (pris entre 30 et 45 ans avec tout type d’expérience des outils
informatiques), il s’est avéré que le matériel était encombrant pour effectuer des
traitements ou pour le passage entre les lits dans les chambres où l’espace exigu
empêchait de procurer les soins dans des conditions d’ergonomie et de confort pour les
infirmières.
L’équipe de chercheurs du laboratoire d’Aalborg ont alors réfléchit un à un système sous
forme d’assistant personnel digital de poche qui permettait de proposer une interface
intuitive et simple de gestion afin d’intégrer les dossiers de clients, les analyses faites, à
faire sans avoir à pousser un chariot et sans réduire leur mobilité dans les chambres lors
de la procuration de soins.
Les premiers tests effectués dans le laboratoire avec des infrastructures identiques à
celles d’une section d’un service d’hôpital, ont démontré encore 9 problèmes majeurs
dont le principal était la compréhension de l’interface. En effet, le personnel quelque
soit son expertise en utilisation informatique à révélé un manque de logique dans la
présentation des informations des données qui étaient formalisés de manière
incohérente par rapport à la pratique des infirmières en temps normal et ne respectait
Page32
pas les étapes de traitement des patients dans le même ordre logique que le
raisonnement humain.
Une reprogrammation a été donc nécessaire afin d’inclure ce facteur en analysant
pendant 1h près de 38 personnes afin de comprendre leur parcours, leur comportement
et assimiler les étapes de traitement des patients de manière identique sur l’appareil
mobile.
Ceci abouti au bout de 2 ans de pouvoir implanter en situation réelle cet assistant
mobile de poche, qui utilisait un clip de ceinture afin de permettre de garder les mains
libres pour les interventions et de se connecter dans un rayon de 10m aux patients par
l’intermédiaires d’étiquettes RFID intégrées dans les bracelets des patients. Ce qui
permettait instantanément aux infirmières de savoir quels patients étaient présents
dans chaque chambre, quels médicaments, traitements, soins, avec été prodigué et
restaient à être pourvus. L’assistant par une interface très simple autorisait les
infirmières simplement en tapotant du doigts sur un menu d’avoir accès à l’historique
de l’état du patient et de vérifier par des couleurs rouges ou vertes de caractères, les
variations des tests positives ou négatives , effectuées sur leur état de santé et pouvoir
réagir en cas de forte différence ou dégradation de santé de manière plus rapide. Elles
pouvaient également saisir en tout temps des observations ou des remarques
pertinentes au moyen d’un stylet tactile qui leur permettait ainsi d’enregistrer des
annotations ou recommandations ultérieures éventuelles sous forme de mémo stocké
sur l’assistant personnel.
Affichage-type d’un assistant sans fil27
Le système en place permettait de mettre à jour automatiquement les données d’autres
infirmières lors de relève de garde à partir du système d’information qui actualise les
Page33
données en temps réel en fonction des informations saisies par le personnel de l’hôpital
et des données enregistrées par les infirmières sur leur assistant mobile.
Cet exemple illustre bien l’adéquation que l’ubiquitous computing permet à l’utilisation
humaine des applications en permettant une meilleure analyse du contexte dans lequel
évolue un individu avec une technologie en main et de pouvoir proposer une utilisation
qui suggère un comportement optimale en fonction de l’environnement dans lequel il
s’inscrit. Cependant bon nombre de limites sont encore présentes notamment au
niveau de l’harmonisation des utilisations d’applications et de l’utilisation des standards
eux-mêmes qui diffère à un niveau qui dépasse les frontières des pays.
III - Limites et perspectives d’un Internet en pleine mutation
Si le web sémantique est un formidable chantier d’application pour l’avenir au niveau du
quotidien individuel que pour les modèles d’affaires d’entreprises, de nombreuses
interrogations subsistent.
A) L’intégration des modèles conceptuels de données
L’un des problèmes majeurs existant au niveau de la création d’ontologies, est
l’intégration de concepts de modèles conceptuels différents ou n’utilisant pas la même
linguistiques du fait de langue maternelle du pays et d’une pluralité de langues parlées
au niveau mondial.
De nombreux projet comme celui d’IBM Thinking Ontologies ou de DOLCE Projet du
centre de recherche de Trente en Italie ont réfléchit à une façon de redéfinir les
ontologies de manière à permettre un « alignement » des termes, éléments, classes,
attributs par rapports à des domaines d’application en définissant des correspondances
et des outils de traduction linguistiques de termes sémantiques d’un pays à un autre
afin de permettre l’interaction entre ces ontologies.
Ce projet entrevu dès 1999, consiste à décrire une ontologie supérieure, une sorte de
langage universel qui permettrait à n’importe quelle ontologie de communiquer avec une
autre via des termes standardisé qui permettrait de dépasser la barrière linguistique ou
contextuelle propre à chaque ontologie. Définit par le laboratoire de recherche en
technologies et sciences cognitives de Trente en Italie, le DAML+OIL est vu comme
tremplin à la redéfinition d’instances, classes, substituts, relations afin de faire converger
en un même point toutes les ontologies et permettre leur échange et intégration.
Page34
Dolce souvent vu comme le mythe de l’ontologie universelle est pour l’instant étudiée
afin de voir les points de connexions entre ontologies, leur qualité de contenu et de
fonctionnement et définir des ontologies catégorielles. Celles-ci se basent sur un domaine
en particulier d’un univers (pour la médecine le domaine génétique, bio-moléculaire,
etc..) et permettent à plusieurs ontologies d’un même domaine de l’utiliser comme
intermédiaire pour communiquer via une structure et une abstraction commune.
Le projet vise à définir une hiérarchie d’ontologies également : ontologie de domaine,
core-ontology et top-ontology. La core-ontology étant encore plus basique que
l’ontologie de domaine permettant à l’entendement humain d’être comprise, la top-
ontology qui se situe au niveau de l’univers (science, finance, économie…).
Dolce permet de définir des classes d’ontology de manière itérative de l’ontologie la plus
spécialisée à l’ontologie la plus globale. Cette catégorisation va permettre d’harmoniser
les ontologies entre elles pour améliorer leur alignement et la traduction d’éléments
synonymes afin d’accroître l’interopérabilité entre ontologies28
.
Néanmoins, les limites constatées sont une « librairie » d’éléments, classes, définis sous
formes de framework, standards qui reste limitée et pauvre. Dolce se sert des ontologies
dites matérielles et plus spécialisées pour alimenter sa propre ontologie et permettre
l’échange commun de données. Elle ne peut être utilisée qu’à un stade intermédiaire pour
rassembler des ontologies de domaines simples mais se limite à un échange très
sommaire d’informations et de processus entre ontologies. Elle utilise le SPARQL pour
permettre la traduction des requêtes considérées comme similaires ou pouvant opérer
entre elles entre ontologies mais cela reste à un niveau encore trop limité pour le moment
pour envisager une communication plus détaillée et aboutie.
Schéma explicatif du projet
Page35
Ainsi si les protocoles tels que SPARQL , les plug-ins Watson Gateway de logiciels
tels que Protégé permettent d’effectuer l’intégration de raisonnement entre concepts
de deux ou plusieurs ontologies, la fusion des base de connaissance reste difficile à
établir, car la description des métadonnées supporte une pluralité de sens au niveau du
web sémantique qui n’est pas différenciable par les outils d’analyse et de
conceptualisation, tant qu’un sens commun, une entité commune n’est pas instauré et
compréhensible de manière standard.
C’est ainsi que l’on constate que 90% des outils tels que Watson ou et Poweraqua,
Power Magpie donne un sens erroné au terme « assumption », lorsque quasiment
toutes les revues écrites académiques cernent le sens commun et authentique.
La « désambigüisation » des concepts est un des domaines de travaux actuels. Des
chercheurs autrichiens de Vienne sont depuis 200629
sur un projet d’outil
d’annotation qui permet de réfléchir à la manière dont doivent être perçus les
concepts avant d’être incorporés dans des ontologies, en s’intéressant à la manière
dont ils sont catégoriser, la nature des informations, attributs, inférence devant
accompagner chaque notion, chaque services d’entreprise au niveau des ontologies
d’entreprise. La difficulté est également de permettre une plateforme logicielle qui
établissent les échanges et similarités de concepts pour soit éliminer les redondances
entre ontologies soit permettre l’échange d’information et les relations entre les
attributs d’ontologies différentes au sein d’un même modèle fonctionnant grâce à des
standards XML,HTML,JAVA,OWL,RDF.
B) Le traitement des données incertaines
Autre frein observé au niveau de la gestion de la connaissance et du fonctionnement des
ontologies et de l’analyse des informations au niveau sémantique et plus globalement de
la compréhension des informations porte sur l’incertitude, l’improbabilité.
En effet, le web sémantique s’appuie sur des concepts, des processus dont le sens est
formalisé, commun, irréfutable ou à très forte probabilité quand à la nature des
information que les concepts et leurs attributs renferment.
Hors, ne pas pouvoir prévoir d’un ouragan s’abat en Floride à telle heure, tel jour,
détruisant les principales plateforme pétrolière maritimes, est synonymes de millions de
dollars de pertes pour les industries qui opèrent dans ce domaine et a une incident encore
plus vaste sur l’inflation du baril de pétrole et la consommation des ménages ensuite.
Page36
Ce type d’événement définit une première catégorie d’informations incertaines : les
données bien définies mais imprévisibles. Ceci est du au caractère aléatoire et spontané,
insondable d’informations.
Le second type d’information, tout autant problématique concerne les concepts, les
données, sur lequel le doute se porte à la fois sur le contenu de l’information, sur son
champ d’action, sur la source qui fournit l’information mais aussi sur la fiabilité.
Cet type de données peu ainsi révéler une erreur de saisie, mais également porter sur une
pluralité de sens quand au concept en lui-même sur lequel des avis divergents feignent de
se ranger à un avis commun, ou encore le manque d’expérience ou d’avis concernant un
fait, un données ne permet pas de qualifier, certifier l’exactitude d’une information, parce
qu’elle touche un domaine trop pointu ou émergent sur lequel la réflexion de chercheurs,
d’analystes, n’ont pas encore pointé dessus et une signification réelle, une élaboration de
métadonnées restent à produire.
Il s’agit dans ce cas soit de créer une probabilité fondée sur l’ « endorsement » ou
ralliement, c’est-à-dire sur le nombre et la qualité des personnes exprimant un même
point de vue sur une information, ce que l’on appelle la technique des « logiques floues »,
ou encore en utilisant des avis de personnes ayant l’expertise du domaine du concept et
permettant de créer des métadonnées qui autoriseront à donner une meilleur probabilité à
la certitude et exactitude des données. Le modèle conceptuel de ces probabilités
s’effectue alors de manière inversée, en partant de l’information la plus incertaine pour
apporter une clarification à son sens à la véracité attribuable à celle-ci pour remonter
jusqu’au concept et au domaine d’incertitude de l’information et pouvoir ainsi créer la
fonction de croyance ou belief fonction.
A mi-chemin de la conceptualisation, un autre souci plus subjectif lui aussi pose
problème quand au véritable sens d’une information : l’ambigüité. En effet, une
information peut changer totalement de signification selon le contexte ou le domaine
d’application. Un titre de journal qui annonce « Microsoft a dit bonjour au logiciel
libre » peut être compris au Québec comme « Microsoft a fermé la porte au monde du
logiciel libre », tandis que les autres francophones comprendront que « Microsoft accepte
de collaborer avec le monde des logiciels libres ». La même information en fonction de
son contexte économique, culturel peut amener à une compréhension erronée ou
imprécise de l’information ce qui instaure une improbabilité que l’information soit fiable
et exacte dans le sens commun où elle est voulue au départ.
Page37
Modèle conceptuel de Fischer en 2005 sur le traitement de l’incertitude
C’est ainsi qu’au niveau des architecture d’entreprises, en 1987, un employé d’IBM
nommé John Zachman, mis en place un cadre de travail sur l’incohérence au niveau des
systèmes d’information des architectures d’entreprise en proposant un cadre avec des
entrées horizontales et verticales définissant les 6 différentes questions à se poser sur les
informations (qui, pourquoi, où, comment, quand et quoi) ainsi que 6 modèles possibles
de représentation des différentes perceptions de concepts dans l’entreprise. Ce modèle fut
très utilisés pour la transversalité qu’il offrait au niveau de la réflexions sur les
incohérences de systèmes30
.
Modèle de Zachman31
Le cadre Zachman
Données - Quoi ?
Activités - Comment ?
Emplacement - Où ?
Portée (contextuelle) Planificateur
Liste des éléments importants pour l'activité
Liste des processus exécutés par l'activité
Liste des lieux où est exercée l'activité
Modèle métier (conceptuel) Modèle de données conceptuelles
Modèle métier Modèle logistique
Modèle système (logique) Modèle de données logiques Architecture de programmes Architecture SI distribuée
Modèle de technologie (physique)
Modèle de données physiques
Modélisation de systèmes (fonction informatique)
Architecture technologique
Représentation détaillée
(hors contexte) Définition des données Programmes Architecture réseau
Le fonctionnement "réel"
de l'entreprise Données métier réelles Code du programme Réseau physique réel
Source : BPMS / 2007
Page38
Le cadre Zachman (suite)
Personnel -
Qui ?
Temps -
Quand ?
Motivation - Pourquoi
?
Portée (contextuelle)
Planificateur
Listes des organisations
importantes pour l'activité
Liste des évènements
significatifs pour le métier
Liste des objectifs
métiers stratégiques
Modèle métier
(conceptuel) Modèle hiérarchique Modèle temporel Modèle d'objectifs
Modèle système (logique) Interface homme / document Structure de traitement Modèle de règle métier
Modèle de technologie (physique)
Matrice organisation / processus
Structure de contrôle Modélisation des règles
Représentation détaillée (hors contexte)
Architecture de sécurité Définition du calendrier Spécification des règles
Le fonctionnement "réel"
de l'entreprise Organisation métier réelle Planning Stratégie réelle
Source : BPMS / 2007
Autre méthode utilisée pour le traitement de l’incertitude, le processus MDA ou
Model Driven Architecture, qui fut créé sur les base du langage de modélisation des
objects OCL, créé en 1995 par Cook et Warmer chez IBM, et qui travaillèrent par la suite
dans l’Object Management Group pour construire un modèle qui tendrait vers
l’abstraction des éléments afin de pouvoir mieux assigner du sens et une perception
unique des objets. Ce modèle considérait les programmes informatiques eux-mêmes
aussi comme des abstractions et définit plusieurs niveaux partant de l’aspect général
d’une donnée vers un modèle expressif et contextuel. Cela passe par un changement
d’état des concepts en y ajoutant un degré de sens et de raisonnement pour accéder à
un modèle MDA final. Les étapes intermédiaires passent par l’enrichissement de sens
des concepts et l’ajout de métadonnées de haute qualité pour pouvoir cerner le
contenu de l’information sans avoir à l’analyser en profondeur32.
Enfin, il est à noter que les agents intelligents sont souvent utiliser pour leur capacité à se créer
leur propres fonctions de croyances et à utilisés les logiques floues en adaptant le langage des
ontologie en langage Pr-OWL qui raisonne en utilisant des algorithmes de calculs pour définir
dans des tableaux des probabilités quant à l’exactitude des informations et à leur fiabilité.
C) E-gouvernement : un enjeu international
Dès 1998, le Secrétariat Général du Trésor du gouvernement du Canada a instauré une
administration compétente nommée Service Canada pour gérer les services en ligne aux
citoyens et faciliter leurs demandes dans les deux langues : français et anglais.
L’e-gouvernement bien au-delà de voir l’aspect Internet des ministères a pour finalité de
permettre une meilleur coordination des systèmes administratifs afin d’offrir une meilleur prise
en charge des citoyens dans leur demandes officielles.
Page39
L’objectif essentiel se situe à 3 niveaux essentiellement :
- Du gouvernement vers les administrations publiques et collectivités
- Entre administrations et entre ministères
- Des administrations publiques vers les citoyens
Concernant le plus ce dernier niveau, il a été important d’abandonner l’utilisation de services
organiser en silo épars qui entraînaient une rigidité et une lenteur des services rendus aux
citoyens et constituer des base de connaissances disparates sans connexions entre elles et se
limitant à une application précise et sans lien avec les autres applications externes.
Il a fallu réorganiser cette structure sous forme de « grappes » qui regroupe en rubriques, puis
en domaine principaux les services des différentes administration afin de permettre un
regroupement des personnels affectés et d’instaurer une coordination commune.
L’objectif est à un niveau supérieur concernant le gouvernement en lui-même car les ministères
sont très réticents face au changement, appuyés par le lobbying de principale société comme
Bombardier, Industrielle Alliance qui sont des exemples de poids lourds du Produit Intérieur
Brut national au Canada et donc la résistance au changement met un frein au déploiement de
nouvelles technologies afin d’améliorer les systèmes administratifs et gouvernementaux.
Mis à part cette résistance au changement, cette nouvelle architecture de l’information
nécessite de réviser en profondeur les processus comme c’est le cas pour le vote électronique.
En effet, ce cas d’application de gouvernement électronique a soulevé d’énormes débats
concernant la réglementation de ce type de service, qui se différenciait des procédures de votes
et de décomptage manuels. La sécurité fut ainsi au cœur de la réingénierie des processus en
Angleterre par exemple, où des problèmes se posaient quand à la préservation de l’anonymat
et à la gestion de la fraude et de défaillances informatiques des machines à voter.
Il fallu également créer un cadre de responsabilisation des autorités locales en charge de ce
type d’événements politique et définir le rôle précis de chacun pour veiller au bon déroulement
des votes33.
Des applications professionnelles voient le jour parmi les administrations européennes,
notamment les pionniers que furent la Finlande, Belgique et Italie. Elles touchent le domaine
des affaires électroniques avec notamment la disparition de la carte d’identité papier au profit
d’une carte électronique à puce assurant une sécurité accrue. Les entreprises y ont vu un intérêt
substantiel lors de signatures de contrat. Étant donné la valeur juridique reconnue depuis 2001
de la signature électronique, la combinaison avec une pièce d’identité du même format, permet
d’authentifier les transactions professionnelles. C’est ainsi que les compagnies européennes ont
fait la demande d’un accord avec la société Adobe pour utiliser le format PDF dans les contrats
d’entreprise et pouvoir vérifier de manière sure l’identité des contractants avec la signature et
Page40
l’eID, nom de la futur carte d’identité qui est en réflexion depuis 200534.Le sujet du dédouanage
ou de la défiscalisation en ligne a été entrevue comme futurs services aux particuliers et
entreprises à venir.
Le potentiel est énorme lorsque l’on sait que par exemple 45% des européens ont consultés au
moins une fois des informations sur les sites de l’administration publique en ligne, avec la
Finlande en tête (62%), et que la Suède par exemple est en tête des utilisation professionnelles
des administrations en ligne avec un taux de 94% constaté sur l’année 2005,selon le cabinet
d’analyses statistiques Eurostat35.
Cependant l’absence d’uniformisation des législations et des réglementations internationales
opèrent des obstacles à la collaboration entre les gouvernements nationaux, notamment en
Amérique du Nord où affecté par la culture, les pratiques disparates des gouvernements, des
difficultés d’échanges d’information et de correspondances de normes s’établit entre Canada,
États-Unis et Mexique. D’autant plus que le manque de transparence bloque les échanges et
empêche des services d’êtres mis en place.
La solution doit passer par l’élargissement de standards tels que l’ISO 15489 concernant les
documents électroniques ou l’amélioration de l’éthique au niveau de la gouvernance des
nations afin d’accélérer ce changement de mentalité et restructurer de manière homogène les
fonctionnements de gouvernement en ligne entre les continents.
Le président Obama a essayé d’entrevoir une possible entente et intégration du Canada au sein
de la NAFTA ou ALENA (Association de Libre 2change Nord Atlantique) afin de travailler sur une
plus grande collaboration du commerce continental et harmoniser les procédures, ce qui aura
nécessairement des répercussions sur la vision d’e-gouvernement entre Canada et États-Unis.
Ce document ne présente qu’un bref aperçu des possibilités et un excellent document émanant
de la société Gemalto, leader mondial de la sécurité informatique, explique de manière très
détaillée par secteur et applications les avancés récentes au niveau européen sur
l’administration en ligne, que vous pourrez parcourir avec le lien suivant :
http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf.
Page41
Conclusion
Internet a connu durant les années 1990 un progrès essentiellement technique. Le web
sémantique et les nouvelles technologies, d’e-gouvernement, d’informatique omniprésente,
nous ont montré en quoi Internet convergeait vers un progrès désormais organisationnel à tous
les niveaux, que ce soit au niveau fondamental de la connaissance, avec une perception
nouvelles des concepts et la recherche essentielle du sens, de la qualité des informations et de
l’interopérabilité des services webs en réseau.
L’apparition d’outil permettant une plus grande flexibilité et rapidité de traitement des
informations permet de remodeler les processus d’affaires électroniques et de faciliter
l’émergence de standards et cadres de travaux communs afin de développer un monde
d’affaires plus collaboratif et basé sur l’interaction, l’échange d’information et une meilleure
qualité des informations, et une meilleur compréhension de l’utilité de développer toujours plus
les infrastructure en technologies de l’information afin de parer à la complexité et densité des
flux de données qu’intègres les systèmes et bases de données de manière exponentielle.
La collaboration passe également par l’adaptation des réseaux à une logique d’affaires, à un
comportement social afin de faciliter l’intégration de solutions nouvelles dans l’atteinte des
objectifs professionnelles, publiques, ou privés.
Un meilleur partage de l’expérience sur les connaissances permettra de développer sans aucun
doute d’ici une vingtaine d’années un Internet plus autonome, coopératif, simple d’accès et
qualitatif. En ce sens ils se décisifs de toujours adapter la technologie par rapport à une finalité
commune et non prendre celle-ci pour un but en soi. Internet, quelque soit l’ampleur
grandissante qui lui sera attribuée ne devra pas occulter de nos esprits qu’un progrès du
commerce électronique et d’Internet passe d’abord par une réflexion sur les besoins, les
faiblesses, l’analyses de nos ressources et un cadre de travail et de planification précis afin
d’atteindre ce but et utiliser internet comme tremplin de développement d’opportunités
d’affaires.
Page42
Bibliographie et Webographie
1 Semantic Web, d’après une entrevue entre le magazine Scientific American et Tim
Berners-Lee en mai 2001 :
http://www.sciam.com/article.cfm?id=the-semantic-web
2 Article Extensible Markup Language (XML) 1.0 (Second Edition),W3C Recommendation,
6 October 2000:
http://www.w3.org/TR/2000/REC-xml-20001006
3 “Fact system”, université de Manchester, Ian Horrock:
http://www.cs.man.ac.uk/~horrocks/FaCT/
4 Présentation du projet Enersearch :
www.ontoknowledge.org/downl/3review-del28.ppt
5 Voir l’article « Sears peut-elle se réinventer? » :
http://www.polytech.unice.fr/~hugues/MIS/EDHEC1/Etude%20de%20cas%20SEARS.pdf
6 “Service Oriented Architecture Standards”,Jim Rubert :
http://www.w3.org/2007/01/wos-papers/boeing
7 Plus de détails dans l’article Service Oriented Enterprise téléchargeable à l’adresse suivante :
http://www.zdnet.fr/livres-blancs/0,39035134,60243299p-39002695q,00.htm
8 « Réussir une transformation bancaire », d’après une interview réalisée en 2006 auprès du
vice-président de la direction du centre de l’excellence de l’Architecture Orientée Service du
réseau Nordea, M.Siamak Amjadi :
http://www.atelier.fr/applications-it/7/23102007/accenture-bea-soa-banque-35430-.html
Page43
9 D’après l’article “Swedish Railways Implements JBoss Enterprise SOA Platform For Improved Performance and Customer Service”: http://www.jboss.com/pdf/SwedishRailroads_casestudy.pdf
10 schéma extrait de l’article “Methodology for Development and Employment of Ontology
based Knowledge Management Applications”, rédigé en 2002 par York Sure, Steffen Staab et
Rudi Studer membres de l’ Institut für Angewandte Informatik und Formale
Beschreibungsverfahren aus Karlsruhe: http://lsdis.cs.uga.edu/SemNSF/SIGMOD-Record-
Dec02/Sure.pdf
11 Présentation du logiciel plus en détails: http://watson.kmi.open.ac.uk/Overview.html
12 Schéma extrait de l’article « Toward a New Generation of Semantic web Applications », rédigé par Mathieu d’Aquin, Enrico Motta, Marta Sabou, Sofia Angeletou, Laurian Gridinoc, Vanessa Lopez, and Davide Guidi, Open University, paru en mai 2008 sur le site IEEE computer
Electronic.
13 Information relevée sur le site internet du logiciel : http://protege.stanford.edu
14 Artificial Intelligence: A Modern Approach by Stuart Russell and Peter Norvig, 1995 Prentice-
Hall, Inc : http://www.cs.berkeley.edu/~russell/aima1e/chapter02.pdf
15 “A framework for dynamic knowledge exchange among intelligent agents”,publié au
American Association for Artificial Intelligence (AAAI) Symposium Control of the Physical World
by Intelligent Agents, New Orleans, LA, USA, November 1994 :
http://www.cengeloglu.com/pub1.html
16 « Multi-agents et CORBA », rédigé par Philippe Merle Jean-Marc Geib, Laboratoire
d’Informatique Fondamentale de Lille en France :
: www2.lifl.fr/~merle/papers/95_GANYMEDE.ps.gz
17 D’après l’article «On the Architectures of Complex Multi-Agent Systems », Huaglory Tianfield *,
Jiang Tian, de l’université de Glasgow en Ecosse et Xin Yao, de l’université de Birmingham
au Royaume-Uni, publié en 2003 :
Page44
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.58.393
18 Next-link project : http://www-cdr.stanford.edu/html/NextLink/NextLink.html
19 Schéma extrait de l’article « Traffic Signal Using Smart Agent System », publié en 2008 dans
l’American Journal of Applied Sciences, rédigé par Cheonshik Kim et You-Sik Hong, chercheurs
de l’université d’Anyang en Corée du Sud:
http://www.scipub.org/fulltext/ajas/ajas5111487-1493.pdf
20 L’avenir de la RFID, centre de recherche public Henri Tudor, paru le 29 novembre 2005 par le journal
Quotidien:
http://www.tudor.lu/cms/henritudor/content.nsf/id/WEBR-7DSGJN?opendocument&language=fr
21 « RFID, mode d’emploi »,livre blanc, mai 2005, Stéphane Boss,responsable de la distribution
Microsoft :
http://www.logistique.com/image/stock-distribution/Microsoft-Distribution-RFID.pdf
22 RFID et logistique, site internet ZDnet :
http://www.zdnet.fr/actualites/informatique/0,39040745,39139364,00.htm
23 RFID, Normes et Standards, Xavier Barras, directeur EPCglobal France : http://www.tracabilite.org/Media/pdf/documentation/presentations/Salon06/ME1_GS1_Xavier_BARRAS.pdf
24 Site internet Atelier : http://www.atelier.fr/article.php?artid=28474
25 D’après le livre “Ubiquitous computing in the real world: lessons learnt from large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8 Novembre 2006.
26 D’après « Group Transport Planning and London Travel Report 2005 », émanant du Transport for London et de la note 25 précédente.
Page45
27 Capture extraite de l’article : “Ubiquitous computing in the real world: lessons learnt from
large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8
Novembre 2006.
28 D’après les recherches suivantes :
Semantic Integration: A Survey Of Ontology-Based
“Approaches” (Natalya F. Noy, Stanford Medical Informatics, Stanford University,
SIGMOD Record, Vol. 33, No. 4, December 2004):
http://www.sigmod.org/sigmod/record/issues/0412/13.natasha-10.pdf
WonderWeb Deliverable D17, The WonderWeb Library of Foundational Ontologies,
Preliminary Report (Claudio Masolo, Stefano Borgo, Aldo Gangemi, Nicola Guarino, Alessandro
Oltramari, Luc Schneider, ISTC-CNR):
http://www.loa-cnr.it/Papers/DOLCE2.1-FOL.pdf
29 Présentation d’outils d’annotation sémantique donnée faite au “2nd International Workshop on Enterprise and Networked Enterprises Interoperability”,ENEI’2006 – Vienna – September, 4 2006: http://www.loria.fr/~nacer/ENEI06/10-Invited-Talk.pdf
30 Article publié le 4 avril 2008 sur le site internet JDN Solution :
http://www.journaldunet.com/solutions/acteurs/classement/08/bpms/0404-zachman.shtml
31 Tiré de BPMS,2007.
32 École de technologie supérieure Département de Génie logiciel et des TI de l’université UQAM de Montréal, « Document thématique OCL et MDA » :
https://cours.ele.etsmtl.ca/academique/mgl/mgl806/Cours/Theme06_OCL.pdf 33
Page46
Voir l’article: “Using Business Process Re-engineering (BPR) for the Effective Administration of Electronic Voting”,rédigé par Alexandros Xenakis et Ann Macintosh, International Teledemocracy Centre, Napier University, Edinburgh Scotland UK:
http://www.ejeg.com/volume-3/vol3-iss2/XenakisAlexandrosandMacintoshAnn.pdf
34 Article paru sur le site Pcimpact le 10 avril 2005 :
http://www.pcinpact.com/actu/news/La_carte_didentite_garante_des_formats_PDF_en_Belg.h
tm
35 « E-gouvernement 2.0 »,Gemalto, septembre 2007 :
http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf