La France Insoumise doit améliorer sa puissance organisationnelle 2ème partie L’apport des systèmes multi-agents

mercredi 11 octobre 2017.
 

Un inventaire des outils pour analyser les organisations existantes et construire des organisations nouvelle émergeant de l’intelligence collective.

Deuxième partie

La première partie est consultable à : http://www.gauchemip.org/spip.php?a...

7- L’apport des systèmes multi-agents (SMA) de l’ intelligence artificielle dans la modélisation du comportement humain coopératif au sein d’une organisation

7.0 De l’intelligence artificielle à l’intelligence artificielle distribuée

"L’Intelligence Artificielle (IA) est reconnue comme étant une discipline informatique qui a pour objectif de modéliser ou de simuler des comportements humains dits intelligents tels que la perception, la prise de décision, la compréhension, l’apprentissage, etc. Elle s’attache à la construction de programmes informatiques, capables d’exécuter des tâches complexes, en s’appuyant sur une centralisation et une concentration de l’intelligence au sein d’un système unique.

Mais l’IA a vite rencontré un certain nombre de difficultés, dues pour la plupart à la nécessité d’intégrer, au sein d’une même base de connaissances, l’expertise, les compétences et les connaissances d’individus différents qui, dans la réalité, communiquent et collaborent à la réalisation d’un but commun.

L’Intelligence Artificielle Distribuée (IAD) [Bond & Gasser, 88 ; Huhns, 87 ; Erceau & Ferber, 91, Ferber, 95] est née, au début des années 80, de la volonté de remédier aux insuffisances et d’enrichir l’approche classique de l’IA en proposant la distribution de l’expertise sur un groupe d’agents, non soumis à un contrôle centralisé, devant être capables de travailler et d’agir dans un environnement commun et de résoudre les conflits éventuels.

En résumé, l’IAD s’intéresse entre autre à la modélisation de comportements intelligents qui sont le produit de l’activité coopérative entre plusieurs agents, d’où la réalisation des systèmes dits « multi-agents »." (N. Kabachi intelligence artificielle et systèmes multi agents . Source : http://liris.cnrs.fr/alain.mille/en... )

7.1 Définition d’un agent et d’un système.

Nous conseillons au lecteur d’illustrer par son imagination et son expérience vécue au sein d’une organisation ou simplement d’un groupe, les notions qui vont suivre, ou du moins certaines d’entre elles.

A) Un agent est une entité virtuelle ou réelle qui est capable d’agir sur son environnement, qui possède des moyens de perception et de représentation partielle de son environnement, qui est capable de communiquer avec d’autres agents et qui est autonome dans sa prise de décision.

Les interactions entre agents sont, en général, régies par deux modules. Le module de perception représente les données en entrée que l’agent reçoit de son environnement.).

Le module d’actions représente les sorties et le moyen pour l’agent d’agir sur son environnement physique, social ou sur lui-même dans le cas d’une action d’apprentissage.

Un agent est composé :

de compétences : les traitements qu’il sait effectuer, par exemple le raisonnement expert

de représentations des autres : les accointances. L’agent raisonne sur ses connaissances sociales et coordonne ses actions avec les autres agents,

d’un langage de communication :. L’agent communique spontanément avec les autres agents, ce qui facilite la mise en oeuvre. Le programmeur n’a pas à gérer le moment de communiquer, avec qui, quel contenu doivent avoir les messages … L’agent est aussi capable d’interagir avec l’environnement du système.

d’aptitude : le moteur d’inférences. (capable de réaliser des réductions)

d’attitude sociale : les agents sont coopératifs.

Il existe une gradation dans l’intelligence d’un agent que l’on classe habituellement en trois catégories (Wooldridge, 1995) :

réactivité : l’agent est uniquement dirigé par les événements perçus dans l’environnement. Il réagit de manière opportuniste à ces changements. L’agent est dit réactif

pro-activité : l’agent n’agit pas simplement en réponse à des changements de l’environnement, mais est aussi capable de s’assigner des buts et de prendre des initiatives pour les atteindre. L’agent est dit cognitif.

socialité : l’agent interagit avec les autres agents et les humains.

B) Système .

Un système est un ensemble de structures cohérentes dont les éléments constitutifs, même détachés de leur contexte, en conservent la référence et restent indispensables à son bon fonctionnement, à son développement, ainsi qu’à son décodage.

Joël de Rosnay en1975 et Daniel Durand en1979, tous deux systémiciens, proposent une double description pour un système : une description structurelle et une description fonctionnelle. Au niveau structurel, quatre éléments constituent un système :

- La frontière qui le sépare de son environnement. Cette frontière est plus ou moins perméable. Dans le domaine informatique, elle désigne par exemple l’interface homme/machine d’un système. D’un point de vue biologique, il peut s’agir de la membrane d’une cellule.

- Les éléments qui peuvent être identifiés, dénombrés et classés. Ces éléments sont plus ou moins hétérogènes en fonction du système étudié. Dans le cadre des systèmes multi-agents, il s’agit des agents.

- Le réseau de relations, de transport et de communication qui véhicule soit des entités matérielles, soit de l’énergie, soit des informations sous toutes les formes possibles.

Dans les systèmes multi-agents, ce réseau de relations est représenté par les liens de communication inter-agents sur lesquels se construisent progressivement les connaissances sur autrui des leagents.

- Les réservoirs dans lesquels sont stockés des matières, de l’énergie, des produits, de l’information.

Au niveau fonctionnel, il distingue également quatre composants pour un système :

-  des flux de natures diverses : de matières, de produits, d’énergie, de monnaie, d’informations... Ils circulent dans les divers réseaux et transitent dans les réservoirs du système. Dans le domaine informatique, il s’agit des signaux échangés entre entités.

- des centres de décision qui reçoivent les informations et les transforment en actions, en agissant sur les débits des différents flux. En se plaçant dans un univers multi-agent, ces centres de décision sont une partie des compétences et des aptitudes des agents. Ces derniers jouissent d’une autonomie suffisante pour prendre par eux-mêmes les décisions opportunes.

- des boucles de rétroaction qui ont pour objet d’informer les déclencheurs de ce qui se passe en aval donc de leur permettre de prendre leurs décisions en connaissance de cause. Il s’agit là d’un comportement dit non linéaire. Le mécanisme de rétroaction est en particulier utilisé pour mettre en oeuvre les apprentissages par renforcement.

- enfin, des délais de réponse qui permettent de procéder aux ajustements de temps nécessaires à la bonne marche du système

L’organisation d’un système, désigne les liens possibles (interaction,…) entre les agents qui composent le système

Elle est donc représentée par un réseau de relations d’accointances (voir plus loin), dans lequel, les agents correspondent aux noeuds et les arcs aux différentes interactions possibles entre les agents reliés.

Il existe deux sortes d’organisation :

- l’organisation en modules, en sous-systèmes (qui renvoie aussi à l’organisation en réseaux) et l’organisation en niveaux hiérarchiques. L’organisation en sous-systèmes procède par intégration de systèmes déjà existants, tandis que l’organisation en niveaux hiérarchiques produit de nouvelles propriétés, à chaque niveau supplémentaire.

On parle, en particulier, d’emboîtement interactif lorsque des sous systèmes sont inclus les uns dans les autres et sont en interaction.

La notion d’organisation retrouve donc celle d’émergence, dans la mesure où c’est le degré d’organisation d’une totalité qui fait passer d’un niveau hiérarchique à un autre, et fait émerger de nouvelles propriétés. L’émergence est la création d’un niveau hiérarchique supérieur.

Il est essentiel de souligner qu’une organisation peut dépendre fortement du problème en cours de résolution : elle est contextuelle. Elle peut être adéquate pour résoudre un problème donné mais s’avérer inadéquate pour un autre problème.

Pour plus de détails sur les systèmes, on peut se référer à la systémique. Voir par exemple, http://fr.wikipedia.org/wiki/Syst%C...

L’adéquation fonctionnelle d’un système est un jugement effectué par un observateur sur la pertinence de son activité sur son environnement. Dans un système coopératif, cette adéquation fonctionnelle s’exprime par une fonction globale collective qui émerge des interactions entre les parties du système.

Complexité d’un système.

Un système complexe est soumis à des interactions non linéaires entre ses parties aura un comportement parfois imprévisible alors que les règles qui régissent ses constituants sont connues. Ainsi, un système peut être considéré comme complexe si son comportement ou son état, n’est pas prévisible a priori alors que les règles qui régissent ses constituants sont connues. C’est la multiplicité de ces règles et leurs interactions qui sont responsables de la complexité ou de la non-linéarité des observations au niveau du système.

L’étude des systèmes complexes est donc par essence multi-niveau, un niveau système ou macro et un niveau interne ou micro.La notion de système complexe est intimement liée à la notion de phénomènes émergents.(voir plus loin)

Un système peut donc être considéré comme complexe dès lors qu’il il vérifie les conditions suivantes (pas nécessairement l’intégralité) :

– la multiplicité des échelles : on distingue le niveau du système de celui de ses constituants (dichotomie macro, micro),

– l’ouverture : on considère ici l’apparition ou la disparition possible d’éléments dans le système,

– la dynamicité : c’est-à-dire le changement fréquent de comportement du système et de ses constituants,

– la réactivité : il s’agit de l’aptitude d’un système à réagir au monde qui l’entoure, à s’organiser afin de prendre en compte de nouvelles contraintes,

– l’hétérogénéité : un système doit prendre en compte des éléments de diverses natures et en garantir les interactions,

– la décentralisation : on considère le fait de répartir le contrôle, l’activité du système au sein de nombreux éléments.

7.2 Les systèmes multi-agents.

Ce sont des systèmes fondés sur la distribution des connaissances et des contrôles répartis sur un ensemble d’entités appelées agents. Plus précisément, un système multi-agent est un macro-système composé d’agents autonomes qui interagissent dans un environnement commun afin de réaliser une activité collective cohérente.

L’ensemble des liens les reliant constituant leur organisation définit l’identité du système multi-agent. Ce sont leurs comportements couplés à leurs interactions, qui permettent au système d’avoir un comportement global cohérent.

Les agents interagissent entre eux et avec leur environnement.

7. 3 Les systèmes multiagents adaptatifs. (AMAS : adaptative multi agent system)

A) Une nouvelle vision.

La terminologie IAD (intelligence artificielle distribuée) possède encore en arrière-plan une vue centralisée de la décomposition d’une activité collective, alors que les travaux récents s’orientent beaucoup plus sur l’aspect d’autonomie de l’agent tout en maintenant la cohésion de la société par les interactions.

En Intelligence Artificielle Collective, l’activité collective complexe est la résultante de traitements individuels plus simples réalisés de manière autonome chez les agents. Ce comportement collectif intelligent est issu de l’aptitude de l’agent individuel à raisonner avec et sur ses croyances (et donc sur ses interactions), pour acquérir de nouveaux savoirs et transformer l’organisation de la société d’agents.

Elle permet d’appréhender la conception de systèmes de manière ascendante, ce qui la distingue des méthodes classiques de conception généralement descendantes.

B) Les caractéristiques des agents dans la théorie des AMAS.

Comment représenter la connaissance sur les capacités des agents ? Un agent, pour décider de faire appel à un autre agent, doit avoir une représentation des autres, appelée croyances ou accointances. Ces connaissances permettent aussi de décider si un agent peut être utile dans la résolution d’un problème.

•comment les agents vont-ils communiquer entre eux ? La manière la plus fréquente de solliciter un agent dans la résolution distribuée de problèmes consiste en l’envoi d’une requête par un agent demandeur à un agent récepteur. L’agent récepteur de la requête peut refuser de répondre à cette requête.

D’une manière générale, cinq parties sont indispensables à un agent coopératif pour qu’un comportement collectif cohérent puisse être observé à partir de l’agrégation de comportements individuels.

Le premier module concerne les compétences définies comme des connaissances d’un domaine particulier qui permettent à l’agent de réaliser la fonction partielle qui lui est assignée. Aucune contrainte technique n’est imposée pour le développement (système de production, méthode objet,…).

Le deuxième module correspond à la représentation de lui même, des autres agents et de l’environnement. Il confère à l’agent une croyance sur ce qu’il sait de lui même, des autres et de son environnement. Les croyances peuvent être implicites ou explicites.

L’attitude sociale appelée coopération se situe dans le troisième module. Elle permet de définir des critères locaux qui vont permettre à l’agent de décider de son comportement et de se réorganiser avec les autres agents en modifiant ses liens avec les autres agents .

Les attitudes sociales sont à la base de l’émergence d’un comportement collectif et elle sont souvent mises en œuvre en dotant chaque agent d’un certain niveau de coopérativité. Ce dernier peut varier du degré 0 pour un agent individualiste, à un degré très important pour l’agent altruiste (il aide les autres pensant que si tout le monde a un comportement identique au sien, il en profitera lui aussi en retour).

Le quatrième module est relatif au langage d’interaction qui permet à l’agent de communiquer soit directement par envoi de messages soit indirectement par l’environnement.

Les agents doivent pouvoir communiquer pour qu’émerge un comportement social à partir d’attitudes individuelles, d’où la nécessité de définir un langage d’interaction qui leur soit commun.

Les aptitudes sont regroupées dans le cinquième module. Les aptitudes représentent les capacités de l’agent à raisonner sur ses perceptions, ses compétences et ses représentations – pour interpréter des messages, par exemple.

Le module d’aptitudes peut être un moteur d’inférences raisonnant sur des bases de compétences ou de représentations. Pour un état donné de compétences, de représentations et de perceptions, ce module doit en déduire une action à exécuter. Les cas pour lesquels le module est incapable de proposer une unique action, correspondent à des situations non coopératives devant être prises en compte.

Qu’entendre par croyance ?

Il s’agit souvent d’une représentation partiale et partielle sur les compétences d’autres agents. L’agent tente d’ajuster cette croyance par rapport au monde. Les croyances décrivent l’organisation de la société à un moment donné. Un agent de médiation possède des croyances sur lui-même tandis qu’un agent de transaction possède des croyances sur lui-même et sur d’autres agents de transaction. Une croyance correspond à une description par un ensemble de termes d’un agent donné. Plusieurs croyances peuvent être utilisées pour décrire un agent. Chaque terme est encapsulé par un agent de croyance et l’ensemble de ces agents constitue un réseau de croyances qui correspond à un système multi-agent adaptatif (AMAS).

Qu’entendre par accointance ?

Les accointances représentent le fait qu’un agent a la connaissance des autres agents de la société. Un agent doit avoir la capacité de représenter cette connaissance c’est-à-dire de la mémoriser et de raisonner sur elle. Cette connaissance est distribuée dans les agents : chaque agent possède un certain nombre d’accointances sur les agents de son voisinage. Ces points de vue peuvent être multiples puisque les agents sollicitent un tiers en fonction de leurs centres d’intérêt, de leurs objectifs et de leurs connaissances.

Lorsque les terminologies entre les agents sont différentes, l’agent a la possibilité d’employer des règles de réécriture.

Les accointances sont une représentation statique des interactions entre les agents Un agent, outre sa connaissance sur le domaine, détient aussi les connaissances sur les relations potentielles qu’il peut avoir avec les autres agents. Il peut notamment dresser la liste de ses interactions avec les autres agents.

L’activité coopérative des agents décrite dans les cinq points suivants est dictée par ses compétences et croyances instantanées et passe toujours par le biais de communications directes ou indirectes :

- L’agent accepte des données sans condition, mêmes celles qui mettent en cause ses connaissances propres. L’agent sait qu’il est dans un monde non monotone et que l’agent émetteur est lui-même coopératif.

- L’agent accepte un nouveau but sollicité par autrui si et seulement si il considère qu’il peut atteindre un état du monde dans lequel tous ses buts courants ainsi que le nouveau sont vérifiés.

- L’agent persiste dans ses buts implicitement, sauf s’il considère que ses compétences ne lui permettent plus d’obtenir un état ultérieur du monde dans lequel ce but puisse être vérifié.

- L’agent communique spontanément une donnée à autrui s’il croit qu’un autre agent partage cette donnée mais avec un état différent. Cet acte de communication s’effectue dans un état stable : l’agent est bloqué à ce moment dans son raisonnement (but atteint).

C) La coopération dans les systèmes multi agent adaptatifs.

La coopération au niveau d’un système implique que tout signal doit être compris et interprété sans ambiguïté. L’information fournie doit permettre au système d’aboutir à des conclusions qui doivent êtres utiles à l’environnement du système. De manière analogue, la coopération au niveau d’une partie d’un système doit vérifier les mêmes propriétés et ’information doit être aussi utile aux autres parties du système.

L’attitude coopérative de l’agent est implantée dans le module de coopération. Comme le module d’aptitudes, ce module doit fournir une action en fonction d’un état courant de perceptions, de compétences et de représentations, mais seulement si l’agent est en situation non coopérative. Par conséquent, les agents doivent posséder des règles de détection de situations non coopératives et y associer des actions de résolution ou de prévention.

Une définition idéale de la coopération doit inclure les aspects suivants :

•Du point de vue de la perception, tout signal devrait être interprété sans ambiguïté,

•Du point de vue de la déduction, toute information (signal interprété) devrait entraîner des conséquences logiques. Notamment, une information doit amener de la nouveauté : une différence avec les informations antérieures.

•Du point de vue de l’action, les conclusions (résultat de la fonction) doivent être utiles (à autrui ou l’environnement).

Les deux premières conditions peuvent être jugées localement par l’agent en utilisant les connaissances qu’il possède sur ses propres compétences. La dernière condition peut être détectée par l’agent après qu’il ait étudié son environnement et notamment l’image qu’il possède sur les capacités de ses congénères.

L’attitude sociale coopérative d’un agent conduit ici à deux activités fondamentales :

- percevoir une situation coopérative. Si c’est le cas, l’agent réalise la fonction partielle de base pour laquelle il a été conçu au sein du système.

- percevoir une situation non coopérative. Si tel est le cas, l’agent peut effectuer sa fonction partielle mais doit agir de façon à supprimer cette situation et à revenir à un état coopératif.

Son action a pour effet de modifier l’organisation du système en conséquence. Comme l’organisation repose sur les accointances possédées entre agent, agir de la sorte permet à l’agent de mettre à jour ses croyances.

Il devient nécessaire de définir, en fonction du contexte, toutes les situations non coopératives qui peuvent survenir durant le fonctionnement du système ainsi que les comportements que doivent adopter les agents pour éliminer ces situations.

Le système ne fournit un résultat correct que si TOUS les agents qui le constituent sont coopératifs. Il est donc nécessaire d’encapsuler les agents dans un comportement coopératif. En faisant de la sorte, un agent n’aura pas le choix d’être coopératif ou non.

On obtient donc un système fonctionnellement adéquat en spécifiant uniquement les mécanismes de détection et de traitement des situations non coopératives, en les instanciant en fonction de l’application donnée et en encapsulant chaque agent avec le comportement coopératif défini. Répétons qu’il est nécessaire de faire évoluer les croyances (mise à jour du système de croyances) et les compétences par l’apprentissage pendant le fonctionnement du système.

Le mécanisme d’apprentissage par réorganisation est fondé sur la détection et le traitement de situations non coopératives. On peut envisager deux comportements coopératifs utiles lorsque, face à une situation non coopérative, l’agent doit agir dans le monde pour revenir à un état coopératif. Il s’agit de :

- la relaxation restreinte (Camps, 1994,1995), qui consiste à rediffuser de la connaissance à des voisins particuliers pour satisfaire la requête d’un agent ou fournir un résultat pertinent à un agent.

- la communication spontanée (Jennings, 1995) qui résulte d’un processus de raisonnement utilisant les croyances des autres. L’information reçue par un agent n’est pas seulement obtenue suite à une demande de sa part, mais également parce que l’émetteur pense qu’elle peut lui être utile.

Un système est dit non coopératif si au moins un des cas suivants est reconnu :

a - Le signal perçu par un système ne peut être interprété : on a alors une situation non coopérative d’incompétence

L’incompétence (ou incompréhension) survient lorsque l’émetteur d’un message possède une croyance erronée sur les compétences du destinataire ou en cas d’erreur de transmission.

Le récepteur détecte une incompétence lorsqu’il ne reconnaît rien dans le message qu’il a reçu.

Comme le message reçu ne lui est visiblement pas destiné, l’agent récepteur va (parce qu’il est coopératif donc qu’il pense que le message doit être utile à quelqu’un) tenter de le retransmettre à d’autres, qui, selon lui, pourront en tirer profit.

S’il ne connaît personne susceptible d’être intéressé, il peut retourner le message à l’émetteur.

Le fait de ne pas ignorer un message pour lequel on n’est pas compétent permet d’améliorer la solution collective si un destinataire pertinent est trouvé. L’effet secondaire durable est l’amélioration de la connaissance mutuelle permettant d’optimiser l’organisation, tout particulièrement lors de l’intégration d’un nouvel agent.

En résumé, l’incompétence du point de vue d’un agent peut être exprimée de la manière suivante :Dans un état donné du monde l’agent détecte une incompétence s’il ne peut rien extraire d’un point de vue informatif du signal perçu/reçu. Cette incompétence conduit l’agent à essayer de faire part du signal perçu et pour lequel il ne peut rien extraire, à d’autres agents susceptibles d’être intéressés. Il ne le laisse pas de côté.

b - Le signal perçu par un système n’est pas interprété sans ambiguïté : on a une situation ambiguë.

Une ambiguïté survient lorsque le contenu d’un signal est incomplet, soit parce que l’émetteur a une description trop grossière des tâches du destinataire, soit parce que la spécification du message est incomplète. Le récepteur peut dans ce cas interpréter le message différemment et être amené à effectuer des actions potentiellement contradictoires.

L’agent récepteur peut participer à la recherche du destinataire en rediffusant l’information ou bien retourner toutes les interprétations potentielles afin que l’émetteur sélectionne la plus pertinente. Cette ambiguïté conduit l’agent à essayer de se faire aider par d’autres pour la supprimer afin d’obtenir une interprétation unique (et donc correcte du point de vue de l’agent). La suppression des ambiguïtés permet d’ajuster les croyances respectives des agents ou de découvrir des nouveaux agents plus aptes à traiter l’information

c - L’information ne permet pas au système d’aboutir à des conclusions : on a une situation improductive.

La situation d’improductivité survient lorsqu’un agent possède une croyance erronée sur autrui. Un agent détecte une improductivité lorsqu’il reçoit un signal qu’il comprend mais dont il n’a que faire : la réception de ce signal n’entraîne chez lui aucun raisonnement ou entraîne un raisonnement n’aboutissant à aucun résultat.

Cette improductivité conduit l’agent à essayer de faire part du signal perçu et pour lequel il ne peut pas agir dans le monde, à d’autres agents susceptibles d’être intéressés. Il ne le laisse pas de coté.

d - Enfin la ou les conclusion(s) déduite(s) n’est (ne sont) pas utile(s) à l’environnement : on est dans une situation d’inutilité. L’inutilité survient lorsque un agent possède des connaissances inappropriées sur autrui

Un agent détecte une inutilité lorsqu’il a raisonné et déduit un résultat qu’il ne peut communiquer à personne car il ne connaît pas d’agent susceptible d’être intéressé par celui-ci

L’agent peut diffuser le résultat à tous les agents qu’il connaît en espérant qu’ainsi, de proche en proche, le résultat parviendra à quelqu’un susceptible d’être intéressé. Cela peut permettre de créer de nouvelles croyances entre agents partageant les mêmes intérêts.

L’inutilité du point de vue de l’agent peut être exprimée de la manière suivante : Dans un état donné du monde l’agent croit qu’il n’existe aucun agent susceptible d’être intéressé par l’état résultat du monde obtenu suite au raisonnement qu’il vient d’effectuer.

Dans ce cas, l’agent cherche à faire connaître son résultat par agents interposés

La résolution du cas d) permet de mettre en évidence deux autres situations non coopératives que l’on peut nommer situation de conflit et situation de concurrence.

Un système plongé dans un environnement dynamique va forcément devoir traiter des situations imprévues du point de vue local de l’agent. Cet imprévu sera pris en compte comme un SNC (système non coopératif) au niveau de l’agent qui va chercher à modifier ses relations avec les autres. Les fonctions partielles du système se réorganisent, changeant la fonction globale, pour réagir à la situation imprévue et la prendre en charge. Ainsi, un agent doit non seulement réaliser sa fonction partielle, mais aussi agir sur l’organisation du système pour résoudre les SNC. Ces décisions sur la coopération sont locales aux agents et ne doivent pas être dictées par la fonction globale (qui évolue au cours du temps et en fonction des imprévus).

Ces situations non coopératives peuvent se résoudre au niveau des parties constitutives du système car elles sont dotées de la faculté de les détecter et d’agir dans le monde pour les supprimer. Si les parties jugent qu’elles sont en situation coopérative, cela signifie, à cet instant là, que le système est coopératif de son point de vue.

La situation de concurrence survient dans la configuration suivante :

- Description : La concurrence survient lorsque des agents ont des compétences similaires en raison d’une redondance initiale ou d’une duplication.

- Détection : Un agent détecte une concurrence lorsque autrui a déduit une information identique à la sienne ou lorsqu’il croit que d’autres cherchent à atteindre un but identique à l’un des siens.

- Action : Dans une société coopérative, l’activité d’un agent est en principe complémentaire des autres. Cette redondance sera profitable lorsqu’un agent n’a pu atteindre un objectif ou accepter une tâche qui lui a été demandée. Cette concurrence peut être bénéfique pour distribuer des tâches lors d’un surcroît de travail ou lors d’une incapacité ponctuelle à résoudre un problème .
- Intérêt : Le fait de distribuer certaines activités est intéressant pour répartir la charge, voire pour spécialiser des parties par l’apprentissage en évitant des duplications inutiles. La concurrence permet également d’accélérer le processus de coopération.

La situation de conflit se caractérise par la configuration suivante :

Description : Le conflit provient généralement de l’accès multiple à des ressources communes non partageables, des informations communes incohérentes...

- Détection : Un agent détecte une contradiction si le message reçu est non ambigu mais en contradiction avec ses propres conclusions, ou s’il pense que son action dans le monde va empêcher autrui d’atteindre ses propres objectifs.

- Action : Dans une société coopérative, le conflit n’est pas volontaire, l’agent qui le détecte pense donc que l’autre n’a pas le choix. Il peut tenter de relâcher des contraintes sans contrepartie, quitte à engendrer un conflit secondaire.

- Intérêt : Chaque agent ayant ce même comportement, la négociation collective est équitable pour les agents engagés dans le conflit. Ainsi, la gestion des données partagées est cohérente, et les solutions générées satisfont au mieux les intérêts de chacun. La suppression d’un conflit permet en outre d’accélérer le processus de résolution .

Un système possède un « milieu intérieur coopératif » lorsqu’il n’existe plus en son sein d’incompréhension, d’ambiguïté, d’incompétence, de conflit, de concurrence ou d’inutilité entre les entités composant ce système.

La négociation des tâches se fait implicitement car :

•les agents sont volontaires pour s’entraider,

•un agent fera tout ce qu’il peut pour résoudre une tâche, qui est de sa compétence et qui n’est pas en conflit avec ses propres objectifs,

•les connaissances d’accointances indiquent les autres agents partenaires qui pourraient être utilement sollicités pour résoudre des sous-tâches

La notion de coopération dans le cadre de la théorie des AMAS a donc été définie comme la capacité d’un agent à travailler avec un autre agent, mais aussi de détecter et de traiter les situations non coopératives, ou les erreurs de coopération, en cours de fonctionnement. L’attitude coopérative de l’agent est donc « curative » c’est-à-dire qu’il agit pour traiter des problèmes de coopération.

Les travaux actuels sur la théorie des AMAS ont eu pour conséquence de compléter cette attitude par une attitude prescriptive qui prévient les erreurs de coopération en renforçant des actions coopératives comme, par exemple, agir en essayant de gêner le moins possible les autres.

La méthode se résume en ceci : dès que, pour un état du monde particulier, un agent détecte une situation non coopérative, il engage un processus de transformation des liens qu’il a avec les autres agents, pour revenir à une situation coopérative. Parce que le corpus de croyances d’un agent n’est pas parfait pour agir de manière coopérative, il doit le créer dynamiquement. Il procède pour cela par rétroaction sur ses actions (a priori coopératives) afin d’ajuster ses croyances ; le résultat devrait être un système organisé selon un modèle d’organisation plus optimal.

Comme des agents modifient localement leurs relations dans ce processus, c’est une activité auto-organisatrice au sein du multi-agent.

Dit autrement : chaque agent produit sa fonction partielle et possède le moyen de décider de changer les liens les unissant. Ce sont ces liens qui règlent la combinaison des fonctions engendrant la fonction globale . Ainsi, en fonction des interactions du système avec son environnement, l’organisation des agents se modifie pour faire face aux perturbations de l’environnement. Le système s’adapte à tout moment pour produire une nouvelle fonction globale.

7.3 – L’auto organisation dans les systèmes multi agents.

Le groupe de travail MARCIA en 1996 a donné la définition qui suit : “L’auto-organisation correspond à une réorganisation décidée de manière autonome par les agents au sein du système. [...] L’auto-organisation d’un système s’est produite si le système a changé de structure”.

Éric Bonabeau en1997 a proposé une définition précise qui introduit le concept d’émergence : “L’auto-organisation caractérise tout processus au cours duquel des structures émergent au niveau collectif (ou plus généralement apparition d’une structure à l’échelle N+1 à partir d’une dynamique définie à l’échelle N), à partir de la multitude des interactions entre individus, sans être codées explicitement au niveau individuel”.

L’auto-organisation d’une société d’agents peut être considérée comme un acte d’apprentissage collectif qui consiste en un réarrangement des éléments de cette organisation. Grâce aux interactions, les agents acquièrent de nouvelles connaissances et peuvent également connaître d’autres agents. Cette réorganisation dynamique de la société par modification des liens entre agents est un acte d’apprentissage si les modifications sont mémorisées et réutilisées.

Camazine, en 2001 donne la définition suivante « L’auto-organisation est un processus dans lequel des structures au niveau global émergent seulement des nombreuses interactions entre des composants du système d’un niveau plus bas ».

Les notions d’émergence et d’auto-organisation sont fortement liées. L’auto-organisation introduit des comportements, des structures ou des formes au niveau collectif qui sont nouveaux (nouvelles) relativement aux comportements, structures ou formes des parties qui le composent : c’est l’émergence.

L’auto-organisation, de ce point de vue, ne fait aucun présupposé quant à la finalité du système.

Les entités concevant le système auto-organisateur doivent seulement poursuivre un objectif individuel tout en s’adaptant aux éventuelles perturbations extérieures et en apprenant au fur et à mesure de leur fonctionnement.

Bien qu’aucune finalité ne soit explicitement programmée dans le comportement des agents, le système auto-organisateur parvient à fournir un résultat. C’est en cela qu’il y a émergence

L’auto-organisation est un mécanisme permettant d’obtenir une fonction émergente.

Il existe des règles globales pour le système qui expriment le périmètre des interactions autorisées dans le système. Adapter les interactions en fonction du respect ou non de ces règles va progressivement amener les agents à ne plus interagir avec ceux qui ne les respectent pas.

Cela crée un phénomène de contrôle social qui consiste à obtenir à partir de conception et de programmation locale et d’action, intérêts et vue locale, des résultats émergeant souhaités et relativement stables.

Le type d’organisation des tâches.

L’organisation hiérarchique ou semi-hiérarchique peut se déduire de l’observation de la topologie du système à modéliser. Un agent est un exécutant lorsqu’il n’est employé que pour résoudre des problèmes provenant d’autres agents. Dans ce type d’organisation, les agents coopèrent par partage de tâches et/ou par partage de résultats.

L’organisation hétérarchique correspond à des systèmes où il n’y a pas de relation hiérarchique entre les agents. Tous les agents sont au même niveau de spécialité et ont tous la possibilité d’interagir les uns avec les autres, les accointances sont quasiment identiques

La modularité exigée dans un système adaptatif a naturellement conduit vers une décentralisation du contrôle, car la mise à jour de cette connaissance dans un module centralisé nuisait à la modularité et à la facilité de mise à jour. En effet le superviseur représente à l’exécution un goulet d’étranglement et son unicité ne garantit pas la robustesse du système

7.4 Le phénomène d’émergence.

L’origine de la notion d’émergence pourrait bien être le postulat datant de la Grèce antique : "Le tout est plus que la somme de ses parties". Voici une définition donnée par Van de Vijver en 1997 : "D’une part, l’émergence présuppose qu’il y a apparition de nouveauté – propriétés, structures, formes ou fonctions –, et d’autre part, elle implique qu’il est impossible de décrire, d’expliquer ou de prédire ces nouveaux phénomènes en termes physiques à partir des conditions de base définies aux niveaux inférieur".

Malgré les disparités entre différentes approches de la notion d’émergence, quelques propriétés interdépendantes et communes permettent de caractériser un phénomène comme émergent ou non. Ainsi, un système sera dit émergent (d’après Georgé, 2003, 2004) si :

– le phénomène est ostensible, c.-à-d. qu’il s’impose à l’observateur au macro-niveau ;

– le phénomène est radicalement nouveau, c.-à-d. qu’il est imprévisible à partir d’une connaissance du micro-niveau ;

– le phénomène est cohérent et corrélé, c.-à-d. qu’il a une identité propre mais liée aux parties de micro-niveau ;

– le phénomène produit une dynamique particulière, c.-à-d. que le phénomène n’est pas pré-défini, s’auto-crée et s’auto-maintient.

Différents phénomènes physiques, biologiques, sociaux illustrent cette définition. Transformation de l’eau liquide en vapeur ou en glace, réduction du paquet d’ondes en mécanique quantique, les processus de construction des insectes sociaux (fourmis,…), La synchronisation progressive des applaudissements dans une salle de spectacle, le phénomène de la conscience humaine.

Ainsi en 1995, Searle fait de la conscience une émergence du fonctionnement neuronal complexe du cerveau :“La conscience est une propriété du cerveau de niveau supérieur ou émergente au sens tout à fait banal de "niveau supérieur" ou d’"émergent"…” . Mais les recherches en neurobiologie du cerveau nous montrent que nous sommes encore bien loin de comprendre ce qu’est la conscience émergeant à partir de l’interaction des neurones.

On observe que les phénomènes émergeant d’une organisation complexe nécessitent des outils conceptuels spécifiques et différents de ceux utilisés pour comprendre le niveau inférieur. Ainsi les lois de la chimie sont différentes de celles de la mécanique quantique, par exemple.

Remarquons que dans la philosophie du matérialisme dialectique, la quatrième loi de la dialectique dite : loi de transformation de la quantité en qualité est une formulation épistémologique du phénomène d’émergence. De ce point de vue, "À certains degrés de changement quantitatif se produit soudainement une conversion qualitative". (Friedrich Engels-, Anti-Dühring, p. 157.) "L’accumulation quantitative est progressive, évolutive, graduelle tandis que le bond qualitatif est rapide, vif, bref. On peut l’appeler également loi de l’évolution et de la révolution. L’évolution, la quantité qui s’accumule, se change brusquement en révolution, le saut qualitatif. Ne voir que l’évolution ou la révolution et pas le lien qui les unis est une vision métaphysique." .(sourcehttp://encyclomarx.ovh.org/index.ph... ) L’accumulation de tensions sociales, la réorganisation de rapports de production dans une société peuvent conduire à des situations de rupture avec l’ancien système : avec une révolution émerge de nouvelles structures sociales et organisations politiques.

Pour terminer ce paragraphe, voici quelques ressources et liens utiles.. Une bonne présentation de l’intelligence artificielle, SMA appliquée à l’intelligence collective http://personnel.univreunion.fr/cou...

Nous avons surtout utilisé, extrait notamment des définitions des trois premières thèses suivantes de l’université Paul Sabatier de Toulouse : Toutes les thèses de doctorat en informatique citées sont HDR (habilitation à diriger des recherches)

Thèse de doctorat d’informatique de Valérie CAMPS, université Paul Sabatier de Toulouse 1998 "Vers une théorie de l’auto- organisation dans les systèmes multi-agents basée sur la coopération : application à la recherche d’information dans un système d’information répartie." http://www.irit.fr/ Valerie.Camps/R...

Thèse de Marie-Pierre Gleizes. Idem. 2004. "Vers la résolution de problèmes par émergence." Présentée par Marie-Pierre Gleizes ftp://ftp.irit.fr/IRIT/SMAC/DOCUMENTS/RAPPORTS/HdR_MPGleizes_1204.pdf

Thèse de Jean-Pierre Mano. 2006. "Etude de l’émergence fonctionnelle au sein d’un reseau de neuro-agents cooperatifs." ftp://ftp.irit.fr/IRIT/SMAC/DOCUMENTS/RAPPORTS/TheseJPMano_0506.pdf

Plus spécialement axée sur le phénomène d’émergence, on peut se reporter l’étude de Jean-Pierre George : "L’émergence" (2003) ftp://ftp.irit.fr/IRIT/SMAC/DOCUMENTS/RAPPORTS/RapportIrit2003-12-R.pdf

Thèse (2009) de Nicolas Sabouret, Université Pierre et Marie Curie (UPMC, Paris) "Interactions sur le fonctionnement dans les systèmes multi-agents ouverts et hétérogènes" http://sma.lip6.fr/Csma/theses/HDR_...

Thèse de Laurent Vercouter (déc. 2010) université Jean Monet et école supérieure des mines de Saint-Étienne : "Contribution à la flexibilité et la robustesse des SMA, une approche fondée sur le contrôle social et l’adaptation dynamique." http://www.emse.fr/ vercouter/publi... (On a ici une modélisation de de la notion de confiance et de l’autocontrôle social entre agents.)

Thèse (pas HDR) de Thomas Génin (2010) à l’UPMC " Stratégies de formation de coalitions dans les systèmes multi-agents" http://thomasgenin.com/theseGeninTh... (Ici les agents sont munis d’une fonction d’utilité, de préférence, et sont considérés comme "égoïstes". )

Pour une étude et une modélisation des processus de décision collective , on peut se reporter aux deux thèses suivantes :

Thèse de Pascale Zaraté (2005) de l’institut polytechnique de Toulouse (INPT) "Des Systèmes Interactifs d’Aide à la Décision aux Systèmes Coopératifs d’Aide à la Décision : contributions conceptuelles et fonctionnelles" http://hal.inria.fr/docs/00/27/47/1...

Thèse d’Abdelkader Adla (2010),Université Sabatier de Toulouse. "Aide à la Facilitation pour une prise de Décision Collective : Proposition d’un Modèle et d’un Outil" http://thesesups.ups-tlse.fr/908/1/...

Fin de la deuxième partie. (A suivre)

Hervé Debonrivage


Signatures: 0
Répondre à cet article

Forum

Date Nom Message