Back to: Main Page > Philosophie

Entropie et complexité algorithmique

Entropie = résistance au changement, solidité d'un état.

Entropie : / une certaine manière de décrire (nb. d'états "réels" correspondant à un état "visible") [2 variables : entreopie = stabilité d'un système de caractéristiques (définition de l'état macroscopique) / certaines perturbations (définition de l'état microscopique) ]. Ou encore entropie = mesure d'exceptionnalité / états microscopiques considérés comme équiprobables, ou = interchangeabilité.

Ceci -> (si usuellement entropie=désordre) ordre = ce qui est fragile, ou rare (i.e. tout n'est pas interchangeable, indifférent).

Analogie avec la complexité algorithmique = 1) codage de l'information (suppression de certains aspects), 2) sous-programmes donnés du programme (= connaissances antérieures, ou ce qu'on peut ignorer comme ne faisant psa de différence pour la complexité algorithmique, cf. états microscopiques) ; = 1) ce qu'on veut différencier, 2) ce qu'on peut différencier.

Back to: Main Page > Philosophie

To leave a comment: contact (domain) yann-ollivier.org