ENTROPIE ET INFORMATION

Sujet d'actualité Au Québec l'accommodement raisonnable, un sujet d'actualité.
Répondre
J'm'interroge

[ Incroyant ]
Avatar du membre
[ Incroyant ]
Messages : 9984
Enregistré le : 02 sept.13, 23:33
Réponses : 1

ENTROPIE ET INFORMATION

Ecrit le 25 mars23, 06:21

Message par J'm'interroge »

ENTROPIE ET INFORMATION


L’irréversibilité de certains processus implique que tout tend de lui-même vers son état le plus probable. A cela correspond l’augmentation d’une valeur appelée entropie. / Tout corps se dégrade en composés plus simples et en énergie irrécupérable se dissipant à jamais. (Nous disons : « irrécupérable », car cette énergie n’est en l’état, capable d’aucun travail.) / L’entropie évoque à nos esprits : mort, dégradation, désorganisation, dissipation et sens de l’écoulement du temps. C’est parfaitement exact, mais l’entropie est également génératrice de structures. / Quelque soit leur complexité, l’apparition spontanée de certaines structures, ne s’oppose jamais à l’accroissement global de l’entropie. / Nous appelons « structure dissipative » : toute formation dont l’apparition permet un écoulement plus rapide de l’énergie, ou dit autrement : toute formation dont l’apparition favorise l’accroissement global de l’entropie. / L’entropie peut diminuer localement au point de prendre une valeur négative, mais les processus responsables de ce phénomène l’accroissent cependant dans l’ensemble. / La vie forme de petits remous dans un immense flux d’énergie se dégradant, de petits remous dans un océan d’entropie. / En lui-même, le monde n’a pas de finalité ; mais il connaît une direction et un sens. / Dans les équations physiques t peut être remplacé par S. Cela signifie que le temps et l’entropie sont une seule et même réalité. / Deux masses indépendantes ont l’une et l’autre tendance à tomber vers le sol. Lorsqu’elles sont couplées, la chute de la plus grosse masse peut soulever la plus légère. Il existe un phénomène analogue avec les réactions chimiques. / L’entropie est l’unique moteur de tous les changements spontanés que nous rencontrons dans l’univers. / L’ordre jaillit de l’enfoncement de l’univers dans le désordre. L’ordre jaillit localement par ce que le désordre s’installe plus vite ailleurs. / Les structures dissipatives sont celles dont la formation résulte d’un phénomène de dispersion ; on trouve dans cette catégorie beaucoup des structures éphémères du monde, voir la totalité des phénomènes de l’univers, aucun d’eux n’étant à priori éternel. / Quelque soit en effet le phénomène considéré, celui-ci disparaît dès que cesse l’écoulement de l’énergie ou le flux de matière qui l’alimente et le traverse, et est la cause de son maintient dans la durée. / Sans l’énergie solaire [par exemple,] qui nous parvient sous forme de lumière et de chaleur, la vie disparaîtrait très rapidement de la surface terrestre. / Lorsque nous découvrons quelque part une structure complexe, ne concluons pas immédiatement qu’elle résulte forcément d’un projet, car il peut s’agir simplement de l’interaction (du couplage) de plusieurs réactions produites par le glissement de l’univers vers un état de désordre supérieur c’est-à-dire de plus grande entropie. / Toute formation locale d’une cohérence structurelle (là où elle n’existait pas avant), doit être couplée avec un glissement encore plus rapide dans le désordre, ailleurs. / Pour vivre, il nous faut 1) dissiper et 2) a) entretenir le déséquilibre, mais aussi b) la diversité. Grâce à cela nous subsistons, car l’équilibre et l’uniformité, c’est la mort. / L’énergie se dégrade au fils des cycles naturels et à travers toute la structure ramifiée de la vie et de son évolution. / Une structure physique disparaît dés que cesse le flux d’énergie (et ou de matière) qui l’entretient. / Toute structure physique (et donc organique) se réduit à un flux d’énergie et ou de matière. / La matière elle-même n’est qu’un flux d’énergie. / Tout n’est que flux. / A partir de la détérioration de l’énergie, certaines structures se forment d’elles-mêmes. / L’apparition d’un certain ordre, d’une structuration de la matière ou de l’énergie est mue par un retour à l’équilibre. L’augmentation de l’entropie n’interdit donc pas l’apparition de formes et de structures de plus en plus complexes. Elle est au contraire ce qui rend possible toute évolution et toute émergence. / Comprenons bien que l’organisation spontanée de la matière, et par conséquent l’évolution de la vie vers des formes de plus en plus complexes, résultent de la croissance de l’entropie et non d’un phénomène inverse, même s’il est vrai qu’en se préservant et par son évolution, la vie semble remonter le courant et lutter contre, au point de lui offrir une certaine résistance. / Il est [donc] faux de penser qu’une diminution locale de l’entropie puisse être plus qu’une simple résistance à celle plus générale et croissante de l’univers. / Voir dans la vie organique une victoire sur l’entropie de l’univers (même si nous ne la posons que comme temporaire) est non seulement injustifié, mais contredit l’observation. / L’entropie est une fonction d’état qui sert à mesurer le degré de désordre d’un système. / Dans son livre « une brève histoire du temps », Stephen HAWKING nous explique qu’une tasse posée sur une table est dans un état élevé d’ordre. On peut passer aisément de la tasse sur la table à la tasse brisée sur le plancher mais on ne fera jamais l’inverse. L’accroissement du désordre, ou entropie, avec le temps est un exemple de ce que l’on appelle la « flèche du temps », indiquant une direction et un sens du temps. / L’entropie est [en effet] associée à l’intuition de l’écoulement du temps. / De nombreux phénomènes se produisent spontanément toujours dans un sens et sans jamais revenir à leur point de départ. Ils sont dits irréversibles. / La difficulté à donner une définition physique de l’entropie d’un système vient de ce qu’elle n’est pas conservée. Elle peut augmenter spontanément lors d’une transformation irréversible. Elle surgit de nulle part. Elle est comme « créée à partir de rien ». / Selon le second principe de la thermodynamique l’entropie d’un système isolé ne peut que croître. / Dans toute transformation, il y a une entropie interne au système considéré qui se crée. Elle s’ajoute à l’entropie apportée par l’extérieur. Cela veut dire qu’il y a toujours des phénomènes de frottement, de diffusion, que l’on considère comme des pertes d’énergie. En fait, conformément au Premier Principe, l’énergie se conserve. Par contre l’entropie totale augmente toujours. De là vient par exemple l’impossibilité de construire un moteur perpétuel. / Par définition l’entropie totale d’un système est conservée lors d’une transformation réversible, mais une telle transformation n’existe pas en réalité (à l’échelle macroscopique tout au moins). / Toute transformation irréversible est productrice d’entropie. / Plus l’entropie d’un système augmente, plus il s’éloigne d’un état où son énergie peut être utilisée pour produire un travail. C’est pourquoi une augmentation d’entropie correspond à une dégradation de l’énergie. / [Nous l’avons vu : …] L’entropie d’un système isolé ne peut que croître. / Quand se produit le phénomène d’auto-organisation, l’observation des systèmes montre qu’il y a un passage spontané du désordre à l’ordre. Ce passage n’a jamais lieu au niveau des systèmes isolés, mais seulement au niveau des systèmes dissipatifs. / Du fait de leurs différents métabolismes qui dégradent des structures matérielles et produisent de la chaleur irrécupérable (pour une activité métabolique), les organismes vivants sont des systèmes ouverts (dissipatifs). / [Nous avons vu qu’…] Une diminution d’entropie pour un système délimité n’est possible que si l’augmentation de l’entropie du milieu extérieur fait plus que compenser la diminution de l’entropie intérieure à ce système. Le bilan reste toujours conforme à la deuxième loi de la thermodynamique : une augmentation globale de l’entropie. / Une machine frigorifique prélève de la chaleur à une « source froide » pour la restituer à une « source chaude » ceci moyennant donc nécessairement un travail qui ne peut se faire sans produire de la chaleur. Chaleur prélevée plus chaleur produite : le bilan entropique reste positif. / [En effet, …] La chaleur cédée s’écoule toujours du corps le plus chaud vers le plus froid. Autrement dit, un corps dont la température est uniforme ne peut pas devenir spontanément plus chaud d’un côté et plus froid de l’autre. Intuitivement, la chaleur ne se concentre pas sans intervention extérieure, mais se diffuse. / Comme toute forme de diffusion, la diffusion de la chaleur est de nature entropique. / [Pour revenir à ce que nous disions précédemment : …] Un réfrigérateur est globalement un appareil de chauffage : il produit plus de chaleur qu’il ne fait de « froid ». D’où le non-sens qu’il y aurait à vouloir lutter contre le réchauffement planétaire à grand coup de climatiseurs ou plus généralement à vouloir lutter contre l’entropie ambiante à grand coup d’organisation ! / [Nous le savons maintenant, …] Les diminutions locales d’entropie ne s’opposent jamais à l’entropie ambiante. C’est même le contraire, puisqu’elles la renforcent. / Enoncé de Carnot : « Si une machine fournit du travail au cours d’un cycle, elle échange nécessairement de la chaleur avec 2 sources de températures différentes. » / La deuxième loi de la thermodynamique s’énonce aussi par le principe de Thomson-Kelvin-Planck : « On ne peut construire de machine qui, au bout d’un cycle, produit du travail en empruntant de la chaleur à une seule source. » En d’autres termes, tout moteur doit être refroidi. / On peut utiliser le différentiel de température (d’énergie) pour produire un travail (pousser un piston par exemple) mais on ne peut pas revenir à la situation initiale. / Bien que les frictions soient produites par un travail, un travail n’est possible que par la canalisation d’une énergie entropique de retour à l’équilibre. / Il n’y a pas de travail sans consommation d’énergie potentielle, sans augmentation de l’entropie thermodynamique. / L’énergie globale est bien conservée mais la partie transformée en chaleur ambiante n’est plus récupérable en l’état pour un travail. / L’accroissement de l’entropie est spontané, mais peut être aussi parfois provoqué. / L’application de la thermodynamique au système isolé (mais l’est-il vraiment ?) qu’est notre univers, pose des difficultés et conduit à des paradoxes. Notre univers n’est donc vraisemblablement pas un système isolé, c’est le moins que l’on puisse dire ! / L’entropie c’est ce qui rend le temps irréversible, les dégradations et les pertes d’informations irréparables, la mort certaine. – Mais la vie lui résiste. / L’augmentation de l’entropie est principe d’évolution. / L’ordre des causes est toujours le même, le temps a donc toujours la même direction. / Le temps est un mouvement évoluant spontanément d’une improbabilité de départ vers l’état le plus probable, en passant par les états les plus probables. Ce mouvement constitue l’entropie elle-même. / Le caractère irréversible d’une évolution vers l’état le plus probable se traduit par une impossibilité de reconstituer l’état précédent, de revenir dans le passé. / L’entropie obéit à la loi des grands nombres. / Plus le nombre d’éléments qui compose un système est élevé, plus il y a de manières de parvenir à son état le plus probable et plus son retour à l’équilibre est donc sûr. C’est pourquoi la diffusion de la chaleur, qui correspond à un phénomène d’agitation des atomes est à notre échelle absolument certaine. S’appliquant à la loi des grands nombres, l’entropie n’a de sens qu’à un niveau macroscopique. / L’entropie est une perte de contrainte. / « Retenez-moi ou je travaille ! » / On peut constater qu’il y a des phénomènes purement physiques de création d’ordre résultant de l’épuisement d’une force organisatrice qui laisse émerger des forces de différenciation plus faibles n’ayant pas pu s’exprimer auparavant, comme la gravitation, négligeable à l’échelle atomique mais décisive au niveau cosmique. / Un ordre qui n’était pas préexistant, peut [donc] se créer et s’amplifier avec le temps. Les phénomènes chaotiques procèdent ainsi par amplification de très faibles fluctuations, par différenciation d’une composante du bruit, entraînant une bifurcation. / L’entropie n’est pas une notion aussi objective qu’on a pu le croire d’abord, ce que manifeste pourtant le fait qu’elle ne s’applique qu’au niveau macroscopique, c’est-à-dire humain, et non pas (à ce que l’on sait) au niveau de l’atome, de sorte qu’il faut bien admettre son caractère anthropique ! (« Anthropique » du grec anthropos : « homme ») / L’entropie est également liée à une autre notion que celle du temps ou de l’irréversibilité, et qui n’a été quantifiée mathématiquement qu’au 20e siècle : l’information. / Curieusement [en effet], la notion d’entropie thermodynamique qui rend compte du phénomène on ne peut plus physique de transformation de la chaleur en travail, est identifiée avec celle statistique d’information. / La valeur d’une information étant dans son improbabilité, il est [effectivement] strictement équivalent de parler d’entropie ou de quantité d’information, à ceci près que l’information n’est autre que le contraire de l’entropie. / A l’inversion du signe près, il y a égalité stricte entre l’entropie et la quantité d’information. L’entropie peut en effet se définir comme l’information perdue, le désordre, la multiplication des configurations possibles ou des irrégularités, la perte de forces structurantes et le manque d’information qui en résulte. / L’information est contraire à l’entropie. La preuve en est que quand l’entropie d’un système augmente, l’information que nous pouvons en tirer diminue. / L’information permet de s’opposer à l’entropie. C’est vrai pour une finalité subjective, un système cognitif, un organisme biologique. / Si l’entropie est déjà une notion subjective d’ordre statistique, son lien avec l’information va plus loin puisqu’elle implique qu’on ne s’intéresse à l’entropie que pour lutter contre ! / Par ses capacités de reproduction, mais surtout parce qu’elle est indispensable aux processus de régulation où interviennent des mécanismes de rétroaction permettant la « correction d’erreurs », l’information est anti-entropique. / L’information est un élément de base fondamental du vivant. Elle est à l’origine de sa capacité de résistance face aux multiples agressions du temps et du milieu. / En réalité, seule l’information est reproductible. Son support ne l’est jamais. / La pertinence de l’information consiste à déclencher une réponse conditionnelle adaptée. / Les informations qui nous parviennent déterminent nos responsabilités et c’est notamment à la mesure des informations que nous avons sur des menaces qui pèsent sur nous (et qui sont liées à l’entropie) que nous pouvons y remédier et devenons responsables des issues à venir (nous devons corriger nos erreurs et trouver de nouvelles voies). / Chaque observation, chaque information prélevée à un coût entropique. Mais il n’y a souvent aucune commune mesure (proportion) entre le coût de l’acquisition de certaines informations et les économies qu’elles permettent de réaliser. / La décohérence, c’est-à-dire les pertes d’informations, est synonyme d’entropie. / Entropie et information intègrent toutes deux un caractère subjectif, cognitif et probabiliste. / Nous devons tirer la conclusion que nous ne sommes pas condamnés à ne rien faire et subir passivement, car nous pouvons changer l’avenir. / Non seulement nous pouvons, mais nous devons nous opposer à l’entropie, aux ravages du temps, aux destructions écologiques, en tirant parti des informations disponibles pour nous organiser, construire un ordre protecteur et durable contre les agressions extérieures. / Il est essentiel de comprendre à quel point nous sommes dépendants de notre environnement naturel. En tant qu’espèce, notre survie dépend de la relation que nous entretenons avec la nature. / Tout phénomène laissé à lui-même va à sa perte selon les lois de l’entropie universelle. C’est ce monde imparfait et fragile qui est entre nos mains et auquel nous devons redonner sens. / Il faut comprendre le monde avant de le changer, manifester notre liberté vivante en le sauvant de sa destruction et le rendre plus durable afin de continuer l’aventure humaine. / L’information est la clef de la lutte contre l’entropie. / Une perte d’information signifie toujours un accroissement de l’entropie. / Le monde de l’information et de la vie est celui de la lutte contre la destruction et la mort, c’est celui de la différenciation et de la complexification défiant l’usure du temps. / Le bilan entropique d’une action particulière est souvent imprévisible. Un travail de recherche par exemple, peut avoir été fait en pure perte ou tout changer par ses découvertes. / Le monde de l’information est un monde improbable qui lui aussi, tend inexorablement vers l’équilibre et la mort, si de l’information n’y met pas constamment bon ordre. / La vie organique est certes de nature dissipative, mais elle est fondée sur l’information, ce qui lui permet de se conserver mais aussi de se renforcer, dans une lutte acharnée contre l’entropie ambiante, faisant intervenir ses facultés de reproduction et d’adaptation à un milieu toujours changeant. / Cette individuation de la vie est inséparable de l’imprévisibilité de l’avenir qui fait de chacun le veilleur de l’humanité, mais nous divise tous entre pour-soi et pour-nous. / L’information sur l’état du monde se mesure à ce que peut en faire le destinataire pour sauver sa vie, éviter les dangers (passer entre les gouttes), s’adapter ou résister. / L’information est l’autre face de notre fragilité, de notre dépendance à un réel extérieur qui nous échappe et qu’on essaie de comprendre et d’apprivoiser. / Démonstration : comme « Entropie = Accroissement du désordre » et « Information = Réduction de l’incertitude », sachant que « Accroissement du désordre = Accroissement de l’incertitude », on en déduit que « Information = Néguentropie ». / L’entropie c’est l’accroissement du désordre et de l’incertitude autour de l’état le plus probable. Ce qui fait la valeur subjective de l’information c’est au contraire sa capacité à nous orienter par une réduction de l’incertitude sur l’avenir. Plus une information est improbable, plus grande sera sa valeur informative. / La boucle de rétroaction c’est l’intervention de la finalité dans la chaîne des causes. / Ce qu’on fait tourne mal si on ne rectifie pas le tir en permanence, et pour cela, il faut bien partir des effets négatifs, de l’écart par rapport aux objectifs. / L’information peut complètement surmonter l’entropie grâce à la redondance et à la correction d’erreurs. / L’entropie est omniprésente dans le domaine des communications et de l’information sous la forme du bruit qui brouille la réception et limite la portée des transmissions. Le bruit est ce qui réduit la quantité d’information transmise, accroît l’incertitude, c’est la part aléatoire inéliminable. / Il faut souligner qu’au niveau du signal (analogique) il n’y a pas de véritable correction d’erreurs, il y a inévitablement des pertes dans toute transmission et le recours à des filtres ou des amplifications ne permet jamais de restituer le signal originel. A chaque fois, on appauvrit le signal ou bien on génère un bruit de fond de plus en plus important. L’entropie y règne bien en maître, ce qui n’est absolument plus le cas dans le domaine du numérique ou du vivant qui permet une reproduction à l’identique presque entièrement délivrée de l’entropie. Comment est-ce possible ? Par la redondance et la correction d’erreurs qui n’ignorent pas du tout l’entropie mais en tiennent compte au contraire, afin de pouvoir s’en délivrer. / La correction d’erreurs est possible dès qu’on est dans un codage discontinu et non plus dans la continuité analogique. La discontinuité de l’information est la condition de sa reproduction. La correction d’erreurs est la condition de son exactitude. La discontinuité analytique (celle des codages numériques par exemple,) permet non pas d’éviter l’entropie, mais de la contourner en la cloisonnant par le contrôle de la redondance, et la comparaison. / La correction d’erreur tire parti du caractère discontinu de l’information et de sa redondance pour détecter voire corriger une erreur, par exemple grâce à un CRC (Code de Redondance Cyclique) largement utilisé en informatique. Ce n’est pas comme un signal analogique plus ou moins juste mais jamais strictement identique. Avec le numérique, c’est la même valeur ou il y a une erreur qu’il faut corriger (recommencer la transmission), c’est bon ou mauvais, c’est oui ou c’est non. Dès lors, la reproduction de l’information peut se faire absolument à l’identique, se révélant capable de surmonter l’erreur et l’entropie en les intégrant. Cela veut dire aussi qu’on peut utiliser un canal de transmission non fiable pour transmettre de l’information fiable à condition d’augmenter la redondance et de réduire la vitesse de transmission pour ne pas saturer sa capacité, forcément limitée. / Cette faculté de reproduction à l’identique des données numériques ou génétiques constitue la fonction anti-entropique de l’information (et de la vie), sa capacité à résister au temps. / L’information permet une reproduction à l’identique ainsi qu’une durée échappant à l’entropie (au temps physique) grâce aux corrections d’erreurs et régulations (compensation, adaptation, évolution, complexification, optimisation, mémoire, apprentissage). / L’information permet d’éviter le pire en profitant des chances qui se présentent. / Il n’y a d’information qu’en vue d’une action qui nous préserve de l’entropie (ce qui peut être une définition du travail, ce pourquoi il faut travailler pour vivre). L’information introduit la finalité dans la chaîne des causes. / C’est seulement lorsque l’information intervient dans les boucles de rétroaction (car elle n’y intervient pas toujours : certaines boucles de rétroaction sont purement physiques) qu’on a affaire à de véritables régulations, inséparables de finalités anti-entropiques. / Les boucles de rétroaction négatives équilibrent les emportements des boucles de rétroaction positives et assurent la stabilité et donc le maintient du système. / Rappelons que laissée à elle-même, sans régulation, une boucle de rétroaction positive mène à la dislocation ou à l’épuisement du système qui l’abrite. / L’information (de la matière) crée de l’ordre, mais tout comptabilisé, l’effort fourni pour le générer engendre plus de désordre qu’il n’en crée. / Le support « matériel » de l’information et l’information elle-même, sont deux choses bien distinctes. L’information appartient en définitive au monde de l’esprit, au domaine de la pensée. / Les technologies numériques se divisent en matériel (hardware) et logiciel (software) reproduisant la séparation du signal et du signe, de la matière et de l’esprit (séparation qui n’est pas aussi nette dans les organismes). / Le principe d’une boucle de rétroaction (exemple : un thermostat) c’est de se régler sur l’écart entre le résultat mesuré et la cible. On n’est plus alors dans la physique mais dans le pilotage par objectif introduisant la finalité dans la chaîne des causes et rejoignant les régulations biologiques. / Alors que la physique est le domaine de la causalité (où les causes ont des effets), le domaine de l’information ou de la vie est celui des régulations et des finalités (où les effets deviennent causes). / La valeur d’une information est dans son improbabilité. / Dans un système cognitif, l’information est toujours liée à une certaine intentionnalité. Il n’y a d’information pour lui (un tel système), qu’en vue d’une action qui le préserve de l’entropie. / Malgré la formidable efficience de l’information, on rencontre, comme dans la physique des hautes énergies, une limite à cette efficience et un épuisement de l’information au-delà d’un certain seuil (trop d’information tue l’information). On peut parler d’un coût croissant de l’information. La loi des « 90-10 » (ou « 80-20 ») énonce qu’il faut 10% du temps pour obtenir 90% de l’information et donc 90% du temps pour obtenir les 10% restant. On peut même dire que ce coût est exponentiel lorsqu’on s’approche des 100%. / Dans sa surabondance même, l’information sera toujours ce qui manque. / C’est l’improbabilité d’une information qui fait sa valeur, son côté exceptionnel, capable de causer un changement de comportement. Or, la vie est justement un développement adaptatif de réactions conditionnelles. / Le propre de l’information est de réduire l’incertitude, ce qui suppose une incertitude préalable et généralisée. / L’information, c’est ce qu’on ne savait pas. / Pour être entièrement subjectif, le monde du sens n’en est pas moins très efficient et donc réel. / Il n’y a pas d’apothéose de la vie, de but qu’il faudrait atteindre à la fin. Il n’y a pas de désir réalisé sur lequel il n’y aurait plus qu’à se reposer. Tant que nous vivons, la vie est devant nous. / Contrairement au monde physique, l’univers biologique est traversé de flux d’informations, de la cellule à l’organisme, et de l’organisme à l’écosystème. / L’information ne peut se comprendre en dehors du système qui lui donne sens. / C’est pourtant une évidence qu’une suite de 0 et de 1 n’a aucun sens, ce n’est une information que pour un programme qui sait l’interpréter. / Il doit être clair qu’un oui ou un non n’a de sens qu’en réponse à une question. / Il est intéressant de souligner que le minimum d’information correspond à une réponse par oui ou non à une question. / L’information est au minimum un oui ou un non et ne peut être isolée de la question à laquelle elle répond ou de la situation qui lui donne sens. / L’information est toujours liée à un système de communication et à un contexte. / Il est faux de parler de « flux » d’informations. L’information est cependant toujours associée à des flux ou transferts d’énergie et de matière. / Dans un système de communication il y a au moins deux éléments et l’information qui les relie. Mais il ne faut pas confondre information et interaction. Un système planétaire par exemple, ou encore un système atomique relient bien des éléments dans un tout, mais sans qu’intervienne aucune information, seulement des forces de liaison. / Pas d’information sans organisation, ni mémoire. / Comme le mot l’indique, l’in-formation est liée à la forme, au qualitatif, mais aussi avec l’idée d’intériorisation de la forme (in), de transmission d’une forme à un récepteur qui l’intègre activement (formation), « comprend le message ». L’information est intériorisée mais elle fait référence à l’extérieur puisqu’elle est indication, communication, transduction d’un signal. / L’information n’est rien en soi, elle est l’élément médiateur et régulateur d’un système spécifique, ce qui le relie aux changements extérieurs en assurant sa cohésion interne. / Une autre propriété fondamentale de l’information, c’est son caractère de « faire signe » et de renvoyer à autre chose qu’elle-même, autre chose que sa matérialité puisque l’information n’est pas matière mais forme (peu importe en quelle matière est une croix, ce sera une croix). C’est ce qui permet au signe de se transmettre d’un émetteur à un récepteur, ce qui permet aussi sa reproduction à un coût dérisoire, d’être reproduction du signe et non pas de la chose. / Cette capacité de répétition ou de reproduction de l’information est remarquable, opposant complètement les ressorts de l’information à ceux de la masse et de l’énergie. / Le monde du signe et de l’information est le monde de la re-connaissance, d’une connaissance indirecte des choses, et donc imparfaite, d’une régulation après-coup dans un monde incertain. / Le monde ne peut être connu qu’indirectement à travers nos sens et laissé à notre représentation. / Avec l’information on quitte le royaume de l’immanence des forces vitales pour un rapport tâtonnant (par essais-erreurs) à l’extériorité. / L’information nous confronte à la transcendance du monde, un réel inaccessible sur lequel on se cogne, conscience éveillée à notre ignorance première, à notre manque d’information. / Nous n’avons qu’un rapport indirect au réel, à travers une membrane, comme derrière un voile. Il n’y a jamais pour nous de symbiose totale, la réalité « extérieure » est toujours re-construite, re-présentée. / Il ne peut y avoir de l’information que s’il y a d’abord un questionnement actif, un manque d’information, une base d’incertitude. Non seulement l’information n’est pas une donnée passive, mais elle ne laisse pas indifférents, elle est ce qui fait la différence. / Pas d’information sans traitement de l’information, pas d’information sans interprétation du contenu. / L’information est relative (subjective et temporaire) / Une information n’est jamais objective et peut donc n’avoir de sens que pour-nous. Ce qui est information pour moi ne l’est pas forcément pour un autre. / L’information est relative à ce qu’on sait déjà, à ce qui précède. / Il n’y a donc vraiment pas d’information en soi. / Pour qu’il y ait information il faut d’abord un manque d’information initial, une demande d’information dans un but pratique, afin de s’orienter dans un monde incertain. / L’information, c’est ce que je ne savais pas, c’est une réponse à une question. / Il n’y a pas d’information sans signal physique. / Pour extraire l’information utile il faut ignorer le bruit ambiant et toutes les informations insignifiantes ou répétées. / Pas d’information sans traitement de l’information. Pas de données sans un programme capable de les exploiter. / Pour qu’il y ait une effectivité matérielle à l’information, il faut qu’elle aboutisse à une action. / Une information se révèle n’être à la base qu’un élément indissociable d’une boucle de régulation. / Dans une boucle de rétroaction les finalités deviennent causes. / La grande découverte de la cybernétique est celle de ce mécanisme universel : « la boucle de rétroaction » qui permet d’atteindre un objectif (de température par exemple) en se réglant sur l’écart avec l’information mesurée. / Une boucle de rétroaction est un processus récursif, circulaire où l’output contrôle l’input (où l’effet devient cause). / La cybernétique constitue l’information comme élément essentiel d’un système qui se règle sur ses effets en vue d’une certaine finalité. / [Rappelons que…] La cybernétique est la science des comportements finalisés. / L’information est une réduction de l’incertitude (c’est-à-dire de l’improbabilité). / On peut définir l’information objectivement comme improbabilité et subjectivement comme une réduction de l’incertitude permettant de lutter contre l’entropie, d’augmenter nos chances de durer. / La valeur d’une information n’est pas dans sa répétition, mais dans son caractère exceptionnel, réduisant l’incertitude en apportant des nouvelles décisives. Elle est dans sa singularité qui fait événement. C’est bien en cela que l’information permet de lever ou réduire l’incertitude. / Si l’information était parfaitement prévisible ou toujours la même, on pourrait s’en passer et elle finirait par passer totalement inaperçue ! / Aux journaux télévisés du soir, il n’est pas fait mention des trains qui sont arrivés à l’heure, mais des événements les plus marquants ou les plus insolites de la journée. / La réduction de l’incertitude est équivalente à une entropie négative potentielle, c’est-à-dire une augmentation de nos capacités de prévision, de réaction et donc de résistance à l’entropie. / Dans le monde subjectif de l’information, entropie = ignorance, oubli, méconnaissance, erreur. / L’information est la levée de l’incertitude (ce que je ne savais pas), elle requière une histoire passée un savoir accumulé, des expériences vécues. L’information tranche et précipite la décision. / La valeur d’une information n’est pas en elle-même, mais dans la réduction des réponses possibles et des degrés de liberté qui nous sont laissés. / La quantité d’information est mesurée par le logarithme du nombre de choix possibles. Ainsi, une situation de choix binaire est caractérisée par une unité d’information. Elle correspond à ce que nous appelons un bit. / Dans un sens technique, la quantité d’information mesure le rapport entre le nombre de réponses possibles avant la réception du message et le nombre de réponses qui restent possibles après sa réception. C’est une mesure en termes de liberté de choix, de possibilités qui restent ouvertes, mesure de notre ignorance. / L’information sert à s’orienter dans la prise de décision en réduisant l’incertitude ainsi qu’à réagir aux changements extérieurs. / L’information, c’est ce que je ne savais pas avant, la réponse à ma question. / L’imperfection de l’information, notre rationalité limitée et la division des savoirs, implique la supériorité des organisations sur les individus isolés. / En généralisant on peut dire que l’entropie d’un système à un instant donné est égal à l’entropie maximale diminuée de toute l’organisation incorporée, c’est à dire de toute l’information que l’on peut connaître (mesurer) de ce système. / L’information comporte nécessairement des redondances. / Des transmissions numériques à la phonologie et l’ADN, on retrouvera en effet cette indispensable redondance de l’information. / Même au niveau sémantique et subjectif, ce qui fait information, c’est une singularité, une discontinuité qui se détache d’un fond continu monotone et du bruit environnant. C’est un phénomène semblable à celui physique d’une sonnerie, répétition d’un son anormalement fort retentissant dans le brouhaha extérieur. / Le rapport : « bruit aléatoire désordonné » sur « signal improbable ordonné » est ce que la théorie du signal partage avec la théorie de l’information. / Si la sonnerie du réveil est bien réelle, s’il n’y a pas d’information sans un substrat matériel et qu’aucune information ne peut avoir d’effet sans énergie ou travail, on voit bien pourtant que l’information n’est pas une caractéristique de la matière elle-même ou du son. / L’in-formation n’est effective que pour un récepteur aux capacités limitées, qui la filtre et la distingue du bruit ambiant par sa pertinence, sa valeur d’information pour lui. / Trop d’informations tue l’information (saturation du canal). / Il faut bien qu’il y ait un signal matériel mais ce qui fait l’information c’est une rupture, un changement inattendu qui fait événement pour quelqu’un. / Il n’y a pas de signe sans un signal physique mais le signe ne doit pas être identifié à son support matériel puisqu’il peut y avoir transfert d’information d’un support à l’autre, traduction ou transduction d’un système à un autre. On a vu que c’était possible parce qu’information et signe renvoient à autre chose qu’eux-mêmes, ils indiquent un événement extérieur, peu importe comment. Cela devrait nous convaincre de ne pas confondre la théorie du signal ou des communications avec la théorie de l’information dont elles ne sont qu’une composante et qui escamotent la structure formelle de l’information et la dynamique du processus, l’intériorité subjective ou cognitive, en se focalisant sur les échanges. / L’unité de l’information dans un signal se définit comme une redondance improbable. / Une information doit être répétée pour être vraiment significative. Pour distinguer le signal émis du bruit de fond il faut qu’il se manifeste par un pic significatif, répété ou durant assez longtemps pour le distinguer d’un parasite toujours possible. C’est cette redondance qui va constituer la fiabilité de l’information et sa robustesse. / Il est possible de compresser un signal en réduisant la redondance à son minimum sans perte d’informations ni de fiabilité. Mais cette redondance ne peut jamais être nulle car elle est indispensable à l’intelligibilité et doit être inversement proportionnelle à la fiabilité du canal emprunté. / Redondance ne signifie pas forcément qu’on répète tout, mais qu’on insère au moins des contrôles par exemple une checksum (somme des bits envoyés), dont la plus simple, et universellement appliquée, s’appelle la « parité » (indiquant seulement si la somme est paire ou impaire, 0 ou 1), ce qui ne mobilise pas beaucoup de ressources mais constitue un niveau très faible de sécurité. Le respect d’une syntaxe constitue aussi un contrôle comme l’envoie d’un caractère « on » en début de transmission et « off » en fin de transmission (ce qu’on retrouve aussi dans l’ADN). / Pour garantir une transmission il faut : 1) utiliser le bon canal (support de transmission), 2) un codage reconnu (mode de transmission), 3) que l’information véhiculée soit repérée (improbabilité), 4) que son contenu se répète (redondance) afin de la rendre vérifiable, 5) qu’elle soit effectivement vérifiée (contrôle), et enfin, 6) que sa bonne réception soit attestée (accusé de réception). / Ce que l’information garde de subjectif au niveau matériel c’est le nécessaire codage - décodage ce qui correspond à la transduction entre le signal physique et l’information elle-même. / L’information peut être vue comme une discontinuité. / Division du continu, « discrétisation » du réel, la discontinuité de l’information lui donne son caractère de « tout ou rien », de bifurcation, de choix entre différentes options mutuellement exclusives plutôt que d’une variation continue de plus ou de moins, sans ruptures sensibles. / On en prend difficilement toute la mesure, mais pour qu’il y ait des idées claires et distinctes, il faut qu’elles soient discontinues. / Au niveau matériel chaque information se vaut puisqu’on ne peut tenir compte de son contenu. Il y a pourtant des informations beaucoup plus importantes et décisives que d’autres. On doit donc bien constater qu’il n’y a aucune proportionnalité entre l’effet d’une information (tout ou rien) et l’énergie en jeu (qui reste constante, que l’information soit cruciale ou inutile). On n’est pas dans un rapport de forces calculable. On peut illustrer cette disproportion entre l’information et ses effets par un courant très faible qui commande l’ouverture d’une alimentation électrique de grande puissance. / Il est un moment magique où le signal devient signe, où la matière physique se fait le support d’un autre monde, celui de l’information, de la vie et de l’esprit, qui ne prend appui sur la matière et le monde des causes, que pour prendre son envol vers une plus grande liberté. / Il est un passage de la matière continue, dépourvue de sens, à l’information discontinue, signifiante et reproductible. / La redondance est indispensable pour valider une information qui pourrait n’être sinon qu’une anomalie aléatoire dépourvue de toute signification. / Il y a toujours beaucoup de redondances dans nos phrases comme dans toute communication pour éviter les malentendus innombrables. / Plus un signal contient d’information plus il doit être redondant. / L’intelligibilité d’un texte est fonction inverse de la quantité d’information qui s’y trouve. / Plus l’on veut enseigner de choses, plus il faut se répéter. / L’énergie et l’information, la matière et l’esprit, sont vraiment deux univers aux logiques incommensurables ; on peut même dire que l’un est l’envers de l’autre. / L’information appartient à un autre monde que celui de la matière et de l’énergie, elle appartient au monde des idées, inséparable d’une persistance dans l’être qui l’inscrit dans la durée, à celui de la cognition et de l’adaptation, base de la reproduction et de la régulation homéostatique. / Ceci est on ne peut plus vrai, mais il ne faut pas oublier qu’il n’y a pas d’information sans matière, sans entropie, sans un monde incertain. / L’information c’est subjectivement : 1) « ce qu’on ne savait pas », la réponse par oui ou non à une question, et objectivement : 2) « une différenciation », une différence qui fait la différence. / Le concept d’information permet d’entrer dans un univers où il y a à la fois de l’ordre (la redondance), du désordre (le bruit) et en extraire du nouveau (l’information elle-même). / L’information peut prendre une forme organisatrice (ou programmatrice au sein d’une machine cybernétique par exemple). L’information devient alors ce qui contrôle l’énergie et confère une certaine autonomie. / Les capacités de reproduction de l’information sont absolument essentielles pour la reproduction du vivant comme pour une simple transmission. A partir de cette propriété remarquable, liée à sa discontinuité et permise par sa redondance, l’information va aussi permettre la régulation vitale, le maintien d’une homéostasie interne par le mécanisme de la correction d’erreurs, de la rétroaction et de l’adaptation par réaction conditionnelle. / Il n’y a d’information subjective que pour un système cognitif, une intentionnalité. / Alors que la physique est le domaine de la causalité (où les causes ont des effets), le domaine de l’information ou de la vie est celui des régulations et des finalités (où les effets deviennent des causes). On n’est plus dans une « obligation de moyens » d’une force aveugle mais dans une « obligation de résultat » vitale qui nous oblige à corriger nos erreurs. / La théorie des systèmes tentera de rendre compte de l’imbrication des flux d’informations, de matières et d’énergie, de leurs circuits et de leurs régulations, en distinguant information circulante et information-structure (ADN). / Il y a dans l’information un mouvement vers le réel. Nous informer est un besoin vital. / Les informations qui nous viennent des quatre coins de la Terre, nous rendent tous responsables du monde et de notre avenir commun. Notre responsabilité ne peut plus s’arrêter aux limites étroites de notre famille ou de notre clan. / S’il est possible de se protéger des dangers connus, nous n’avons en revanche aucune chance de nous préserver de ce que nous ignorons. / L’information nous met en face de nos responsabilités. / Il n’y a besoin d’information que dans un monde complexe et incertain, soumis aux aléas, à l’imprévisibilité du temps. / Le monde de l’information est paradoxalement celui de l’ignorance (l’information c’est toujours ce qu’on ne savait pas). Il n’y a pas d’accès à l’être, pas de prise directe (mystique) sur le réel, sauf à s’y cogner. / Le mystère nous précède, l’ignorance est première, justifiant la plus grande prudence dans l’exploration des possibles (principe de précaution). / L’information sera toujours ce qui manque. / L’information qui nous renseigne sur le passé s’adresse à une liberté c’est-à-dire à une indécision portant sur l’avenir, pour qu’un choix soit fait le concernant. / La liberté est toujours tournée vers l’avenir. / Comme le dit Bergson : « la liberté n’a pas de causes, elle n’a que des motifs ». / Elle vise une finalité, un effet. / Alors que la physique est le domaine de la causalité passive (où les causes ont des effets), le domaine de l’information ou du vivant est celui des régulations et des finalités actives (où les effets deviennent causes), on peut dire que c’est le domaine de la liberté. / Par sa plasticité et sa capacité de bloquer les réponses instinctuelles, le cerveau est l’organe du dépassement de l’animalité. Sa construction en trois cerveaux superposés (reptilien, limbique, néocortex) correspond à chaque fois à l’inhibition du niveau inférieur, retardant la réaction immédiate afin de prendre en compte d’autres informations et stratégies. / Pour ce qui est de l’apparition et du développement de l’organe cérébral au cours de l’évolution, c’est encore une fois la loi de l’unité par intégration qui s’est exprimée. Les synthèses consécutives se sont en effet emboîtées, de façon à ce que les unités antérieures soient annexées par les plus récentes, l’unité fonctionnelle de l’ensemble étant préservée grâce à cette intégration, qui coordonne en un centre toujours plus élevé, des activités toujours plus nombreuses. / La liberté c’est ne pas être dominé par une chaîne de causes. / Puisqu’elle y introduit la finalité, la liberté rompt avec la causalité pure. / Produites par l’énergie qui les traverse en se diffusant, les structures dissipatives apparaissent d’elles-mêmes. Ce sont des créations d’ordre à partir du désordre, phénomènes d’auto-organisation souvent chaotiques et de nature purement thermodynamique. Les phénomènes informationnels ou organisationnels sont quant à eux des créations d’ordre à partir de l’ordre, phénomènes d’autocatalyse, de reproduction et de correction d’erreur où interviennent les boucles de rétroaction et l’intention, autrement dit « l’acte créateur ». / Tout ne relève donc pas que du hasard ou de la nécessité, ni de la seule intentionnalité. Il y a l’un et l’autre. / Comprenons bien que l’énergie et la matière appartiennent à l’univers de la thermodynamique. Toutes deux se dégradent irréversiblement. Pour ce qui est de l’information, il en va différemment. Celle-ci appartient à un autre monde, celui de la forme pure et de l’esprit, monde qui n’est pas soumis au temps, mais qui a la propriété de sécréter sa propre durée. / Si l’un et l’autre monde sont intimement liés, celui de l’information se construit à mesure que l’autre, le monde de la matière et de l’énergie se détériore, et précisément parce qu’il se détériore. / Inversement, le monde de la matière et de l’énergie se détériore, à mesure que l’autre se construit, et précisément parce que cet autre monde, celui de l’information, se construit. / La reproductibilité de l’information la distingue sans appel de la matière (et de l’énergie). / Le château de sable n’est qu’une forme dans le sable. / Le lapin que nous voyons dans le nuage est-il vraiment dans le ciel, ou seulement dans notre imagination ?
La réalité est toujours beaucoup plus riche et complexe que ce que l'on peut en percevoir, s'en représenter, concevoir, croire ou comprendre.

Nous ne savons pas ce que nous ne savons pas.
Humilité !

Toute expérience vécue résulte de choix. Et tout choix produit sont lot d'expériences vécues.
Sagesse !

aerobase

[ Aucun rang ]
Avatar du membre
[ Aucun rang ]
Messages : 1243
Enregistré le : 05 janv.22, 00:54
Réponses : 1

Re: ENTROPIE ET INFORMATION

Ecrit le 25 mars23, 06:31

Message par aerobase »

Merci JMI

J'ai un doute sur cet extrait
J'm'interroge a écrit : 25 mars23, 06:21 L’intelligibilité d’un texte est fonction inverse de la quantité d’information qui s’y trouve.
L'information (binaire )

0110

est un extrait de 01101001

La question alors est la suivante

cette information 0110 est elle intelligible?

J'm'interroge

[ Incroyant ]
Avatar du membre
[ Incroyant ]
Messages : 9984
Enregistré le : 02 sept.13, 23:33
Réponses : 1

Re: ENTROPIE ET INFORMATION

Ecrit le 25 mars23, 06:39

Message par J'm'interroge »

Oui, certains extraits sont douteux. Sache que je ne les valide pas tous.
Ce sont des extraits bruts.
La réalité est toujours beaucoup plus riche et complexe que ce que l'on peut en percevoir, s'en représenter, concevoir, croire ou comprendre.

Nous ne savons pas ce que nous ne savons pas.
Humilité !

Toute expérience vécue résulte de choix. Et tout choix produit sont lot d'expériences vécues.
Sagesse !

aerobase

[ Aucun rang ]
Avatar du membre
[ Aucun rang ]
Messages : 1243
Enregistré le : 05 janv.22, 00:54
Réponses : 1

Re: ENTROPIE ET INFORMATION

Ecrit le 25 mars23, 06:43

Message par aerobase »

J'm'interroge a écrit : 25 mars23, 06:39 Oui, certains extraits sont douteux. Sache que je ne les valide pas tous.
Ce sont des extraits bruts.
bah en fait j'ai dit une connerie car pour parler d'information il faut contextualiser et là je te balance 0110 comme ça sans contexte

donc j'ai dit une connerie

J'm'interroge

[ Incroyant ]
Avatar du membre
[ Incroyant ]
Messages : 9984
Enregistré le : 02 sept.13, 23:33
Réponses : 1

Re: ENTROPIE ET INFORMATION

Ecrit le 25 mars23, 06:45

Message par J'm'interroge »

Oui il faut un contexte et une information pour en être une doit être traitable et non seulement ça, elle doit être traitée.
La réalité est toujours beaucoup plus riche et complexe que ce que l'on peut en percevoir, s'en représenter, concevoir, croire ou comprendre.

Nous ne savons pas ce que nous ne savons pas.
Humilité !

Toute expérience vécue résulte de choix. Et tout choix produit sont lot d'expériences vécues.
Sagesse !

aerobase

[ Aucun rang ]
Avatar du membre
[ Aucun rang ]
Messages : 1243
Enregistré le : 05 janv.22, 00:54
Réponses : 1

Re: ENTROPIE ET INFORMATION

Ecrit le 25 mars23, 06:47

Message par aerobase »

oui j'ai parlé trop vite

Comme quoi il est important de bien réfléchir avant de parler (et surtout avant de raconter n'importe nawak lol)

Répondre
  • Sujets similaires
    Réponses
    Vues
    Dernier message

Retourner vers « GÉNÉRAL Libre »

Qui est en ligne

Utilisateurs parcourant ce forum : Amazon [Bot] et 57 invités