III-3- Physique :
Les théories propres à la transmission et
à la mesure des signaux dans le cadre de la cybernétique ont
introduit le concept de science de l'information et en ont fait un champ
d'investigation particulier. Là encore, le concept est loin d'être
stabilisé, puisque cette théorie du signal est aussi bien connue
sous le nom de théorie de l'information que sous celui de théorie
de la communication, avec d'ailleurs les mêmes effets sémantiques
pervers qui font que l'on entretient facilement une confusion sur le fond et la
forme.
Cette ouverture scientifique a attiré de nombreux
esprits qui se sont efforcés d'élaborer une théorie
scientifique de l'information, voire d'appliquer la théorie de
l'information à la science. Léon Brillouin est parmi ceux-ci. On
lui doit une première grande synthèse dans ces domaines.
Contrairement à certains disciples qui agissent dans le
champ des sciences humaines, il prend soin de définir le champ de
validité de sa conception en restreignant le concept d'information
à une seule dimension. Il en donne une définition unique qui
écarte a priori ce qu'il appelle la "valeur humaine de l'information",
c'est-à-dire le sens, le contenu qu'elle véhicule, et qui n'est
compréhensible, évaluable que par les individus qui la
reçoivent. Comme la subjectivité de l'appréciation rend
particulièrement difficile la mesure de l'information, il est
nécessaire, pour établir une définition applicable au plan
scientifique, d'écarter cette "valeur humaine" de l'information. Pour
traiter l'information sur le plan quantitatif, pour pouvoir la mesurer, il faut
ignorer l'intérêt que présente l'information, sa valeur
d'usage, pour reprendre un concept de l'économie politique.
Après avoir circonscrit le concept d'information dans son
application scientifique, il peut recevoir une première
définition. L'information est reliée à
la réduction de l'incertitude. Plus un système
peut connaître d'états différents, plus grande est
l'incertitude, plus la quantité d'information devra être grande
pour la réduire. L'information se présente alors comme une
"fonction du rapport des réponses possibles après et avant qu'on
l'ait reçue"6. Si l'on obtient une information, le nombre des
réponses possibles diminue et lorsque l'information est complète
il est possible qu'une seule réponse soit pertinente. On peut
déjà entrevoir l'usage lapidaire qui peut être fait de
cette conception dans le domaine de la gestion de l'entreprise quand, rompant
avec la stricte délimitation de Brillouin, certains auteurs
étendent les concepts sans précaution.
Dans ce cas l'information réduit le degré
d'incertitude et conduit à une prise de décision ou
réponse plus rationnelle, moins arbitraire. Plus le degré
d'incertitude initial est grand, plus la masse d'information nécessaire
pour définir la solution sera importante.
Brillouin fait ensuite remarquer, à la suite de
Léo Szilard et de Claude Shannon, que l'information a un lien
remarquable avec la notion employée dans la thermodynamique que l'on
nomme entropie. Il n'entre pas dans notre propos d'aller plus avant dans ce
domaine. Il y a cependant un aspect de cette théorie qui revêt une
importance particulière, sinon capitale. En mettant en relation
l'entropie d'un système et l'information, Brillouin montre que toute
information se traduit par un accroissement de l'entropie. Dans les cas
limites, la précision la plus grande mobiliserait une énergie
infinie. Dans une telle conception, l'observateur n'est pas neutre dans le
système et il faut que le coût en entropie d'une observation soit
négligeable en regard de l'entropie du système pour pouvoir
l'ignorer.
Quant à l'information, elle a un prix, un coût,
une valeur croissante, consommatrice des ressources internes. Plus elle est
précise, plus le coût croît. En d'autres termes, le
coût de production marginal est croissant. Ce qui se constate dans le
physique des particules au niveau de la microphysique, nous le retrouvons au
niveau de la société et de l'entreprise, sur le plan
économique, qu'il soit macro ou micro économique.
|