La formule du savoir
Translation: [ Google | Babelfish ]
Categories: [ Books ]
Étant données une probabilité a priori qu'une théorie est vraie et une observation, le théorème de Bayes permet de calculer une probabilté a posteriori qui prend en compte cette observation. Il permet donc d'affiner la crédence (un anglicisme, on devrait parler du « crédit accordé à ») d'une théorie, sa plausibilité, au vu des observations. Bien que simple, le théorème de Bayes à cependant un grand nombre d'applications même si des statisticiens célèbres l'ont par le passé honni parce qu'il fait appel à un a priori alors que la recherche d'objectivité en sciences devrait bannir tout a priori pour ne se concentrer que sur les faits. Dans la pratique cependant, un scientifique demandera un grand nombre de contre-exemples avant de rejeter une théorie fondamentale sur laquelle reposent un grand nombre d'autres théories et d'applications : il s'agit bien là d'un a priori, d'une crédence très élevée de cette théorie fondamentale.
Depuis ce temps, le bayesianisme a lentement fait sont entrée dans les sciences, en particulier dans les domaines de l'intelligence artificielle dont nombre de théories sont fondées sur le théorème de Bayes, et dans les sciences cognitives : il semblerait que cerveau soit une machine à faire des inférences bayesiennes. Étrange donc que lorsqu'on fait un raisonnement explicite, on ait tellement de mal à appliquer ledit théorème.
En dehors des cas très simples, le théorème de Bayes est impossible à appliquer, car il requiert de prendre en compte les crédences de toutes les théories alternatives à la théorie étudiée, et ceci est impossible. La complexité de Solomonoff (ou de Kolmogorov) d'une théorie étant définie comme la longueur minimale du programme informatique qui permet de calculer la crédence de cette théorie (en acceptant la thèse de Church-Turing selon laquelle tout l'univers peut être simulé par un machine de Turing universelle et un programme adéquat, et que toute théorie peut être représentée par une suite de bits selon la théorie de l'information de Shannon), certaines théories ont des complexités comparables à la taille de l'univers visible. Il est donc nécessaire de calculer des approximations des crédences de ces théories, et c'est ce que font le cerveau et certains algorithmes d'intelligence artificielle.