« La formule du savoir » est un livre écrit par Lê Nguyên Hoang, qui tient la chaîne YouTube Science4All. C'est donc un camarade du Café des sciences, et lui-même parle de son livre dans cette vidéo.

Introduction

Comme je regarde régulièrement le travail de Lê (et de Monsieur Phi, et de la plupart des gens cités dans le livre), je n'ai pas forcément autant appris qu'un lecteur découvrant le sujet. Grâce à ce livre j'ai toutefois beaucoup appris sur le formalisme de la formule de Bayes, et j'ai enfin une idée de ce qu'est le bayésianisme et de comment cette approche est utilisée actuellement dans la recherche en intelligence artificielle.

A vrai dire, davantage que la lecture proprement dite de « La formule du savoir », c'est la réflexion sur les thèmes abordés dans le livre que j'ai le plus appréciée. Mathématique, informatique, épistémologie, physique quantique, éthique, politique… J'ai dévoré ce livre, fait de nombreuses recherches sur internet, et beaucoup échangé à chaud avec un ami1).

Mais ce n'était pas une lecture facile pour moi, car même si je partage de nombreux forts points d'accord avec Lê (interprétation physique de la thèse de Church, constructivisme en mathématique, importance de la morale des IAs, le conséquentialisme, la mort comme maladie, etc.), j'ai également de non moins forts points de désaccords (méthode et rôle de la science, le réalisme, l'utilitarisme, etc.). J'espère ne pas commettre ici un sophisme de l'homme de paille, mais voici un échantillon de certaines des positions (pour le moins ambitieuses) du livre (telles que je les ai comprises2)) :

« Il n'y a pas de réalité, uniquement des mesures ! Il n'y a pas de vérité, uniquement des prédictions ! Il n'y a pas de causalité, uniquement des corrélations ! Il n'y a pas d'objectivité, uniquement des interprétations personnelles ! Le bayésianisme n'est pas seulement une approche utile à l'apprentissage automatique, c'est la philosophie unifiée du savoir ! Nous ne devrions pas être gouvernés par les gens, mais par une super-intelligence artificielle, ou au moins la communauté des experts ! Et ceux qui ne sont pas d'accord avec ça sont des hooligans ! » (Attention : ce n'est pas une citation.)

J'avoue que j'écris en partie cette critique pour mettre de l'ordre dans mes idées, mais pas seulement. Lê ne se contente pas de décrire le réel, mais il prend également position et fais un certain récit de la science et la société. Et je trouve certaines de ses prises de position dangereuses, d'autant plus qu'il a maintenant une large audience. Aussi, je ne me contente pas seulement de critiquer son livre, mais je tente également de produire un contre-discours. Je tiens toutefois à expliciter dès maintenant que j'attaque les idées et non la personne, et que j'ai beaucoup de respect pour Lê et son travail (colossal).

Je réponds d'ailleurs non seulement à « La formule du savoir » mais aussi à l'ensemble de l’œuvre de Lê, puisque ce livre en est une version résumée à un instant t. Ainsi, j'utiliserais non seulement le livre mais aussi certains de ses épisodes ainsi que l'excellent podcast Axiome qu'il produit avec Monsieur Phi.

J'ai mis beaucoup (trop) de temps à écrire cette (longue) critique, allant jusqu'à mettre certaines sous-sections en bonus pour faciliter la lecture. Je ne fais toutefois qu'esquisser certains sujets sans les développer suffisamment, donc ma critique est forcément incomplète. De plus il est tout à fait possible que j'ai fait des erreurs, donc Lê (ou les autres), n'hésite(z) pas à me corriger, par exemple sur le Discord du Café des sciences. Cette page étant un blog, contrairement à un livre, elle aura la possibilité d'évoluer selon les critiques qui me seront faites à mon tour, ou l'avancée de ma propre pensée.

La méthode scientifique

Au vu de l'acharnement de Lê tout au long de son livre à opposer la pensée bayésienne à ce qu'il appelle la « méthode scientifique », et à grandir la première en dévalorisant la seconde, il m'a semblé utile de cadrer la discussion en revenant sur ce qu'est la méthode scientifique, et notamment le (si décrié dans le livre) critère de réfutabilité de Popper. Notamment, nous verrons que, si, les scientifiques appliquent bien la « méthode scientifique », et qu'ils le font pour de bonnes raisons (pas seulement :-? à cause de la pression des pairs).

Objectivité, croyance et connaissance

Après avoir beaucoup remanié ma critique, je pense que le cœur du désaccord entre Lê et moi est le statut de l'objectivité. Pour Lê il s'agit d'un mythe nuisible, alors que selon moi il s'agit de l'un des fondements de l'approche scientifique. Afin de m'assurer qu'il ne s'agit pas d'une querelle sur les mots, je vais préciser ce que j'entends par là.

Quelque chose (une connaissance ou un objet) est objectif s'il ne dépend pas de la personne considérée, par opposition à subjectif (une croyance, un jugement de valeur, un goût, etc.). Par exemple, deux expérimentateurs (avec les mêmes circonstances, informations et protocoles) constateront les mêmes effets (objectifs) du tabac sur l'humain, mais pourront tout de même être en désaccord (subjectivement) sur son éventuelle interdiction. Nous reviendrons plus tard sur l'opposition descriptif/prescriptif.

Certes, un individu n'a jamais accès exactement aux mêmes informations qu'un autre, mais ce n'est pas de la subjectivité, c'est de la localité, c'est à dire une dépendance à la position occupée (dans l'espace et le temps, mais aussi dans le champ social, etc.). Enfin, quand quelque chose ne dépend pas du contexte considéré (par exemple est vrai en tout temps et tout lieu), on parle d'universalité.

En temps que bayésien subjectiviste, Lê confond connaissance et croyance, en formalisant la notion de connaissance de façon probabiliste par des « crédences » (pas le meuble, mais le mot anglais pour croyance ou crédit). Nous avons tous des croyances3), c'est à dire des adhésions affectives à des propositions. Elles sont (plus ou moins) importantes pour nous, et nous basons (en partie) notre vision du monde sur elles. Pour autant, qu'est-ce qui nous permettrait de les tenir pour vraies ? Comment savoir que nous savons quelque chose ? Qu'est-ce qu'une connaissance ?

Je n'adhère pas à la présentation classique4) d'une connaissance comme une croyance vraie justifiée, notamment à cause du problème de Gettier. Ce que nous tenons pour une connaissance peut très bien s'avérer faux, par exemple si de nouvelles preuves viennent la contredire. Mais surtout, une adhésion affective n'a pas de raison d'être corrélée avec un raisonnement argumenté. L'une est subjective dans le sens où elle dépend de notre vécu, l'autre est objectif car n'importe qui suivant les règles de raisonnement pourra constater que la preuve est valide mais (j'insiste ici) sans pour autant être forcé d'y adhérer.

En effet, on peut savoir que quelque chose est prouvé sans y croire5) (par exemple, un consensus scientifique contre-intuitif), et on peut croire quelque chose sans preuve (par exemple si cela est affirmé par un proche ou une autorité). Ainsi, connaissances et croyances sont indépendantes, et on peut définir la rationalité6) comme la correspondance entre les deux7) : si je sais je crois, si je ne sais je ne crois pas. Mais cela ne nous dit toujours pas ce qu'est une connaissance… une proposition seulement vraie / justifiée8) ?

Nous croyons souvent savoir quelque chose, mais ne pas être capable de le justifier. Socrate d'ailleurs interrogeait les gens sur leur savoir intuitif, et les menait à admettre une contradiction. Cette contradiction (appelée aporie) sur une croyance qui leur importe les menait à réévaluer leurs hypothèses, et à s'interroger de nouveau. Au lieu de croire qu'on sait, reconnaître qu'on sait qu'on ne sait pas, et aspirer à savoir davantage. Il s'agit ni plus ni moins que de la naissance de la philosophie (occidentale). Le « Je sais que je ne sais pas. » n'est pas faignant (comme le dit Lê), il est la première étape nécessaire à la recherche.

Pour savoir qu'on sait, il faut justifier cette connaissance par une autre connaissance, et ainsi de suite. Ainsi, la certitude nous échappe9). En revanche, nous savons quand nous ne savons pas : quand une proposition est incohérente10), ou quand elle contredit les observations11). Le scientifique ne sait pas : c'est un chercheur, pas un savant. Il peut y avoir un progrès dans les connaissances suite à son travail, mais jamais une certitude. Je n'ai pas une définition claire et définitive de connaissance à proposer, en revanche je vais par la suite indiquer des propriétés que doit (à mon humble avis) vérifier une connaissance, comme le critère de réfutabilité de Popper et le principe de parcimonie.

Notez aussi (ce sera important) que les apories peuvent être dépassées par la dialectique, qui cherche à construire des connaissances par l'examen successif de positions distinctes voire opposées12). Cette discussion des idées permet de dépasser les positions individuelles. Pour conclure sur l'objectivité, je tiens à préciser qu'historiquement, la science s'est construite de manière para-doxale, contre l'opinion, l'intuition et les a priori. Lê cherche à les remettre au centre en mettant sur le même plan connaissance et croyance, mais son approche ne permet pas de tenir compte du fait que quelqu'un puisse être (quasi ?) certain de quelque chose, sans que ce soit une connaissance pour autant.

Pourtant, à l'échelle individuelle, si je n'arrive pas à former un argument qui puisse être accepté par n'importe qui, pourquoi cet argument me convaincrait-il, moi ? Si mes raisons d'y adhérer ne peuvent être convaincantes que pour moi, et que je n'arrive pas à expliquer pourquoi pourtant j'y adhère, peut-être que je ne suis qu'en train de rationaliser une intuition qui n'a pas lieu d'être. Ainsi, c'est la recherche d'objectivité13) qui me protège contre mes propres biais (affectifs), en suspendant mon jugement le temps de l'analyse (contrairement à l'approche subjectiviste de Lê qui s'appuie sur, voire naturalise, les biais et exalte le jugement personnel par les paris). Je développerai l'aspect collectif de l'objectivité dans la partie sur le rôle social de la science, continuons maintenant l'exploration de la notion de connaissance.

Le critère de réfutabilité de Popper

Qu'est-ce qui serait nécessaire pour qu'une théorie soit vraie14) ? Au minimum, qu'elle soit cohérente (ce qui peut s'avérer impossible à prouver à cause du second théorème d'incomplétude), et qu'elle ne soit jamais contredite par les expériences (ce qui nécessiterait de faire une infinité d'expériences avant de conclure).

Comment établir une connaissance à partir d'un nombre fini d'observations ? C'est le problème de l'induction. Par exemple, j'ai toujours vu des cygnes blancs. Tous les cygnes sont-ils blanc ? Nope, il existe des cygnes noirs. Tout ce que je peux dire c'est que les cygnes que j'ai vus sont blancs.

L'idée de l'inductivisme probabiliste est que chaque nouvel évènement favorable à la théorie vient corroborer de plus en plus la théorie. Bertrand Russel critique cette approche en racontant la fable d'une dinde inductiviste, qui est nourrie chaque matin par le fermier, et qui donc chaque matin augmente la « plausibilité » de la théorie selon laquelle elle sera nourrie chaque matin. Elle est donc de plus en plus confiante, jusqu'à ce que le matin de Noël le fermier lui brise la nuque. La répétition n'est pas une preuve de la vérité d'une théorie.

Non, nous ne pouvons savoir qu'une théorie est vraie, uniquement qu'elle n'est pas encore fausse (à notre connaissance). Le critère de réfutabilité de Popper consiste à séparer la science de la non-science (problème de la démarcation) en affirmant qu'une théorie est scientifique si elle peut être réfutée. Plus précisément :

  1. Réfutabilité logique : De la théorie doit pouvoir être déduit au moins un énoncé réfutable.
  2. Réfutabilité empirique : Cet énoncé doit pouvoir être testé empiriquement.
  3. Réfutabilité méthodologique : Afin d'assurer l'objectivité du résultat, ce test empirique doit pouvoir être reproduit.

Une telle théorie est dite réfutable. Un test empirique confirmant que la théorie prédit quelque chose qui n'était pas prédit auparavant par les théories alternatives, ou réfutant un énoncé d'une théorie alternative, est appelé une expérience cruciale. Les expériences cruciales sont particulièrement importantes, car elles permettent de trancher parmi les théories possibles15).

Notez que pour éviter les théories ad hoc on peut exiger que l'énoncé réfutable soit original, car il n'aurait pas un grand intérêt s'il était déjà réfuté ou était déjà prouvé. Pour certains c'est d'ailleurs le « risque de se tromper » qui donne une valeur à cette approche. On pourrait toutefois argumenter qu'un meilleur ordonnancement de « faits » déjà connus peut être un progrès en soi, mais cette exigence permet au moins un accroissement des connaissances communes en incitant à faire des expériences cruciales.

Notez que l'imprécision des résultats (erreur de mesure ou de manipulation), et le fait de devoir s'appuyer sur un paradigme scientifique pour concevoir l'expérience (hypothèses admises, instruments utilisés, etc.), font qu'une science comprise au sens de Karl Popper ne peut jamais être certaine, mais toujours incomplète, imprécise, non suffisante : « Le jeu de la science est en principe sans fin. Celui-là se retire du jeu qui décide un jour que les énoncés scientifiques ne requièrent pas de test ultérieur et peuvent être considérés comme définitivement vérifiés » (La logique de la découverte scientifique, 1973). Comme dirait Popper, tous les modèles sont faux. La notion de vérité très attaquée dans le livre de Lê n'est donc selon Popper au mieux qu'un idéal à atteindre.

Ainsi, une théorie ne peut être réfutée qu'en tenant compte de l'incertitude épistémique pour l'expérience cruciale, et ses réplications. Mais la reproductibilité n'est pas une « exigence fréquentiste » (comme le dit Lê) mais une exigence d'objectivité : ce n'est pas le fait qu'une expérience soit suffisamment répétée qui importe, mais que le résultat ne dépende pas d'un expérimentateur ou d'un cadre local donné.

J'ai l'impression que Lê ne comprend pas que le critère de réfutabilité de Popper n'impose que la cohérence entre théories et observations. Une théorie (potentiellement) réfutée n'a plus sa place (dans l'état de l'art présent, mais pas dans l'absolu à cause de l'incertitude épistémique) comme théorie explicative, ou à la rigueur dans un cadre restreint (comme la mécanique de Newton). Et quand deux théories expliquent les mêmes faits, elles sont effectivement indiscernées par l'expérience, et il faut rajouter un critère supplémentaire : le principe de parcimonie.

Avant de passer à la suite, je souhaiterais montrer que le poppérisme présenté par Lê dans son ouvrage est un homme de paille, qui réduit le critère de réfutabilité à la position fréquentiste, et tire des conclusions erronées des deux exemples suivants :

  1. En 2011, l'expérience OPÉRA (p.60) a annoncé avoir détecté des neutrinos plus rapides que la lumière, ce qui contredit les fondements de la relativité restreinte, et donc aurait dû (selon Lê) réfuter cette théorie. Pour lui, le fait que les physiciens aient pensé qu'il s'agissait d'une erreur expérimentale montrerait qu'ils ne sont pas poppériens, et cite d'autres exemples historiques destinés à montrer que les scientifiques sont convaincus de leur théorie avant qu'elle n'ait été testée. Tout d'abord, j'insiste encore sur le fait que croire n'est pas savoir, et j'ajouterais que ce n'est pas parce qu'un scientifique isolé est persuadé que cela en fait une connaissance (ou un consensus, d'ailleurs). Ensuite, la théorie n'était pas la seule hypothèse H1. Que la mesure soit correcte est une autre hypothèse H2. S'il y a une contradiction, ça ne veut pas dire que H1 est fausse, mais que l'une des hypothèses est fausse. Les scientifiques ont en fait bien agi selon le critère de réfutabilité en cherchant laquelle (H2 en l'occurrence) était fausse16).
  2. Le soleil d'xkcd (p.77) : « Pour conclure la méthode scientifique doit rejeter l'hypothèse alternative. » Non, le critère de réfutabilité se contente de filtrer les hypothèse recevables. De plus, ici il s'agit d'une critique du fréquentisme, pas du poppérisme. « la conclusion de notre pure bayésienne semble beaucoup plus sensée » Non plus. La bayésienne sans vécu devrait obtenir la même conclusion que le fréquentiste. Lui donner accès à davantage d'information par son a priori pour montrer qu'elle ne tombe pas dans le piège, et ce afin de pouvoir conclure que le fréquentisme est ridicule, est de la malhonnêteté intellectuelle. Pour comparer les deux, il faut donner la même quantité d'information à la méthode alternative. Notamment, si un poppérien a déjà un modèle de la mécanique du système solaire, il ne conclura pas nécessairement que le soleil a disparu (voir exemple précédent). Le bayésianisme n'a pas le monopole de la connaissance cumulative. En particulier, un poppérien exigera que la théorie utilisée tienne compte également des expériences passées.

Le principe de parcimonie

Le principe de parcimonie est souvent appelé rasoir d'Ockham (ou d'Occam) : « Les multiples ne doivent pas être utilisés sans nécessité », mais on le retrouve dès Aristote (voire Empédocle ?). Il vise, parmi les théories scientifiques pouvant expliquer des observations, à préférer la (ou les ?) plus parcimonieuse(s) possible(s). Reste à préciser ce qu'on entend par « parcimonieux ».

J'ai tendance à distinguer :

  • La parcimonie logique, si une hypothèse peut être logiquement déduite des autres, et donc peut être éliminée sans réduire l'expressivité de la théorie. L'hypothèse « tranchée » par le rasoir est encore vraie, mais elle est un théorème et plus un axiome.
  • La parcimonie ontologique, si une entité est postulée pour justifier la théorie, mais n'est en fait pas nécessaire pour décrire (et prévoir) les phénomènes (comme le disait Laplace à Napoléon au sujet de Dieu : « Citoyen premier Consul, je n'ai pas eu besoin de cette hypothèse »), ou génère davantage de problèmes qu'elle n'en résout « Une affirmation extraordinaire demande des preuves plus qu'ordinaires »17).

Le principe d'identité des indiscernables18) (l'identité de Leibniz) consiste à affirmer que deux objets ayant les mêmes propriétés sont en fait le même objet19), ou dit autrement que deux objets ne peuvent être distingués que s'il existe une propriété où ils diffèrent. Pour un observateur donné, cela implique que seule une expérience permet de discriminer deux descriptions du monde, ou dit autrement si deux descriptions du monde rendent compte des mêmes expériences alors elles sont équivalentes.

En utilisant la parcimonie ontologique et l'identité de Leibniz, nous pouvons donc déduire qu'une théorie utilisant une entité non-testable peut toujours être éliminée au profit d'une variante de cette théorie sans l'entité non-testable. C'est le sabre-laser de Newton, une version plus acérée du rasoir d'Okham proposée par Mike Alder. Ainsi, la science est nécessairement matérialiste (voir les excellentes vidéos de Mr Phi sur le sujet).

Le principe de parcimonie vient filtrer parmi un ensemble de théories les théories les plus pertinentes, là où le critère de réfutabilité de Popper permet de filtrer une théorie par elle-même et non contre les autres (encore que le critère d'originalité imposerait un filtre en comparant aux théories passées). Mais là encore il s'agit de conditions nécessaires et non suffisantes, et il pourrait subsister plusieurs théories, surtout qu'il n'est pas toujours aisé (ou même possible) de comparer deux théories pour déterminer laquelle est la plus parcimonieuse.

Comment trancher ? Pour les sciences expérimentales20), par l'expérience justement. Le critère de réfutabilité incite à mettre en place des expériences cruciales, qui trancheront entre des théories (les plus parcimonieuses possibles) encore debout. Et si, par manque de moyens, elles ne peuvent encore être discernées, elles sont (pour l'instant) équivalentes.

Enfin, la théorie de l'induction à la Solomonoff permet de quantifier le principe de parcimonie (ce qui est très cool, on ne va pas se mentir :-)) en liant la plausibilité a priori d'une théorie à sa longueur. Sans rentrer dans les détails (abordés dans le livre), l'idée est de choisir un langage (à une constante près, ce choix n'est pas supposé être important), puis de lister toutes les théories possibles du langage, et de leur attribuer une probabilité a priori décroissant exponentiellement en leur longueur, de façon à ce que la somme des probabilités fasse $1$. Ainsi, plus la théorie est difficile à décrire moins elle est « plausible », et les théories ad hoc (plus longues à cause des exceptions introduites) sont désavantagées.

Néanmoins, une théorie déjà réfutée mais plus courte ne devrait pas être prise comme description du monde (éventuellement comme approximation), même si elle est compatible avec « presque » toutes les expériences. Pour Lê, une seule expérience empêchant une théorie simple d'être validée est vue comme suspicieuse et (si j'ai bien compris) devrait être éliminée. Sans aller jusque là, c'est effectivement une bonne raison pour tenter de reproduire cette expérience (dans la mesure du possible), ce qui permettra de réduire l'incertitude épistémique, et de plus mécaniquement augmentera son nombre d'instances dans le calcul de Solomonoff.

Le bayésianisme

Avant de lire « La formule du savoir », j'étais confus sur ce qu'est le bayésianisme et sur ses conséquences (donc merci Lê :-)).

Dans les problèmes de probabilités présentés dans le livre, j'avais tendance à donner les bonnes réponses, mais en listant tous les cas possibles. J'étais également familier avec l'utilisation de l'espérance mathématique pour prendre la meilleure décision quand le problème était présenté sous forme probabiliste.

Si la formule de Bayes est un moyen pratique de ne pas avoir à lister tous les cas, voire à raisonner sur potentiellement une infinité de cas, c'est cool. En revanche, je n'avais jamais jamais entendu parler de la « guerre » entre bayésiens et fréquentistes. Je dois avouer que les seuils de p-valeur21) m'ont toujours paru arbitraires, et que donner une valeur a priori à des hypothèses (distribution uniforme, ou utiliser la complexité de Kolmogorov Solomonoff) ne m'a pas paru choquant.

Bref, je me soupçonnais d'être bayésien sans le savoir, mais une partie du discours de Lê sur le bayésianisme me semblait pour le moins étrange… Après avoir réfléchi aux concepts qu'il aborde, je pense que la pensée bayésienne est une application de la méthode scientifique aux probabilités, et que c'est un homme de paille de les opposer et de caricaturer l'une pour grandir l'autre. Plus précisément, je pense que notre opposition réside surtout dans l'interprétation (et donc l'utilisation) ce qu'est une probabilité, et dans la relation entre probabilités et les critères de démarcation de la méthode scientifique.

Bayésien contre fréquentiste

Pour les fréquentistes, une probabilité est interprétée comme une fréquence, c'est à dire comme le résultat moyen d'une répétition (potentiellement infinie) de l'évènement. Pour les bayésiens, une probabilité est interprétée comme la plausibilité (formalisée par le théorème de Cox-Jaynes) d'une hypothèse.

Un fréquentiste, en définissant la probabilité comme un passage à la limite, tombe en plein dans la critique de Russel : il faut littéralement faire un nombre infini d'observations22), ce qui est en pratique impossible. Un bayésien n'a pas ce problème, puisqu'il extrait l'information sous forme probabiliste d'un ensemble fini d'observations.

Autre problème : comment concilier réfutabilité et probabilité ? Par exemple, comment réfuter qu'un dé soit truqué ? En effet, même s'il tombe cent fois sur $5$, on pourrait « juste » ne pas avoir eu de chance. Pour le fréquentiste, il faut établir un seuil arbitraire au delà duquel le résultat serait très improbable (il aurait une probabilité $p$ assez faible) sachant que la pièce est équilibrée : c'est la p-valeur. Ainsi, une fois ce seuil déterminé, il ne faut plus faire une infinité mais un nombre arbitrairement grand d'observations.

Par exemple, étant donné un dé à six faces, un fréquentiste souhaitera lancer un zillion23) de fois le dé pour déterminer la probabilité qu'il tombe sur $5$. Mais ce n'est pas possible si le dé est en glace. Pourtant, par défaut (d'information), il peut nous sembler raisonnable de supposer a priori que le dé est équilibré, et d'ajuster cette probabilité (par la formule de Bayes, justement) selon les quelques résultats que nous pouvons obtenir avant qu'il ne fonde.

L'inférence bayésienne permet de contourner le problème en donnant la probabilité que la pièce soit truquée sachant les tirages précédents. En la comparant à la probabilité que la pièce soit truquée de telle ou telle façon, il est possible de choisir la théorie la plus probable (ou les théories les plus probables, par exemple pour utiliser une forêt de modèles).

Nuançons ces propos en indiquant que dans le TenL#66, Nathan de la chaîne Le chat sceptique explique que bayésiens et fréquentistes donnent (selon lui) les mêmes résultats. Lê l'a convaincu malgré tout que l'approche bayésienne est plus « englobante », c'est à dire permet de considérer toutes les théories en même temps plutôt qu'avec une séquence de questions vrai/faux. De plus, l'approche fréquentiste peut être adaptée s'il y a beaucoup de données par rapport aux paramètres du modèle, et si ces données sont faciles (peu coûteuses) à obtenir. L'approche bayésienne quant à elle permet de faire au mieux avec peu de données, mais est plus coûteuse à calculer.

Il faut aussi noter que dans l'approche bayésienne il est possible de « pénaliser » un modèle qui s'est trompé dans ses prédictions, donc on ne peut pas juste s'obstiner éternellement sur la même théorie, heureusement. Ainsi, une expérience contradictoire ne viendra pas réfuter strictement parlant un modèle, mais uniquement réduire sa plausibilité. Le critère de réfutabilité n'est donc pas contredit par cette approche : de même qu'on est passé du booléen (vrai/faux) aux probabilités, ce critère est passé de qualitatif à quantitatif. Ainsi, pour l'instant, pas de problème pour moi (contrairement à Lê qui tape le critère de réfutabilité en le croyant fréquentiste). Au contraire, je trouve même que quantifier le moment de changer de modèle, et mieux évaluer la pertinence que par la p-valeur, me semble être un beau projet. :-)

Notons enfin que la formule de Bayes est parfois appelée « probabilité inverse » car elle permet d'inférer les causes à partir des effets. Mais elle n'est en rien une violation de la causalité. Les phénomènes peuvent se dérouler de façon causale, et pourtant à partir d'observations présentes nous pouvons déduire des choses sur le passé. Il faut toutefois noter que de cette façon nous ne pouvons faire des estimation que sur les théories que nous envisageons (voir l'exemple du cadavre sur la route d’Épicure).

Subjectiviste contre objectiviste

L'expérience de pensée des dés en glace est due à Myron Tribus, pour qui une probabilité est la traduction numérique d'un état de connaissance. Le bayésianisme est une quantification de la connaissance (ou du savoir ?) par des probabilités et plus un booléen vrai/faux. Il faut toutefois ne pas confondre :

  • La probabilité qu'un évènement arrive.
  • Le poids accordé par une personne à la croyance qu'un évènement arrive.
  • La probabilité que la théorie prouve que l'évènement va arriver, étant données des probabilités aux hypothèses

Comme il y a différentes façons d'interpréter les probabilités, il y a plusieurs écoles dans le bayésianisme. Lê oppose surtout :

  1. Les objectivistes, qui pensent que la probabilité reflète l'incertitude sur le savoir, et qu'avec les mêmes informations n'importe qui (même un robot) partagerait les mêmes probabilités.
  2. Les subjectivistes, pour qui les probabilités reflètent un degré de croyance personnelle (Lê utilise l'anglicisme de « crédence »).

L'opposition se base sur l'interprétation des probabilités, mais aussi sur la construction des a priori. Pour Lê et les subjectivistes, il faut assumer la subjectivité et croire son intuition par défaut. Pour les objectivistes, la construction de bons a priori (comme précédemment avec la complexité de Solomonoff) est un champ d'étude à part entière avec de nombreuses méthodes disponibles.

Par exemple, en absence d'information entre plusieurs hypothèses nous sommes indifférents, donc supposer une distribution uniforme n'est pas en soi un problème. On peut même donner des a priori non uniformes, par exemple24) décroissant exponentiellement en la longueur du programme nécessaire pour les simuler (c'est à dire en la complexité de Kolmogorov Solomonoff).

En raison de la distinction entre croyance et connaissance, et de l'importance de l'objectivité pour le rôle social de la science, l'approche objectiviste me semble plus compatible avec la méthode scientifique. Elle est également plus fructueuse, par exemple le théorème de Cox-Jaynes peut être vu comme une tentative de formalisation rationnelle de la notion de plausibilité. Plus précisément, il énonce qu'un ensemble raisonnable d'hypothèses sur la notion de plausibilité, et prouve qu'elles sont en fait équivalentes à la logique bayésienne. De plus, la formule de Bayes est une formalisation de l'induction enfin rationnelle car cohérente, et que toute autre alternative serait biaisée.

Attention toutefois à ne pas trop sacraliser ce résultat : des variantes dans les hypothèses mènent à des variantes dans la logique utilisée25). Toutefois, la méthode s'est avérée fructueuse, notamment en recherche en intelligence artificielle, et elle répond de manière quantitative au problème de l'induction et à celui de l'ornithologie en chambre (Lê insiste d'ailleurs à raison sur le fait que « sans contexte, c'est la mauvaise probabilité qu'on teste »).

Mais (si j'ai bien compris) le théorème de Cox-Jaynes ne dit rien sur l'interprétation subjectiviste du bayésianisme, qui ne repose pas sur ce théorème. Il s'agit dans ce résultat de la probabilité logique (ou épistémique, ou inductive), et non d'une probabilité comme degré de croyance (ou d'ailleurs d'une quantification d'une probabilité ontologique26)). Il s'agit de relations logiques entre propositions, des relations objectives entre observations et théories. Deux mécanismes de déduction non biaisés avec les mêmes informations (mêmes a priori27) et observations) auront les mêmes valeurs à la fin.

Je suis donc très étonné que Lê se dise subjectiviste, alors qu'il se base sur des résultats objectivistes28) comme les a priori basés sur la complexité de Solomonoff ou le théorème de Cox-Jaynes, et je voudrais qu'il s'en explique.

Le bayésianisme pragmatique

Je vois bien l'intérêt de l'approche bayésienne pour gérer un savoir présenté sous forme probabiliste, notamment dans des cas comme l'apprentissage automatique des réseaux de neurones actuels. Le problème est qu'à chaque nouvelle observation il faut mettre à jour (selon la formule de Bayes) le poids de toutes les théories envisagées, ce qui est un calcul trop lourd.

Dans le cadre de Solomonoff, ce sont toutes les théories exprimables dans un langage qui sont listées. Cela permet d'envisager toutes les théories possibles sans en oublier, mais comme le précise Lê lui-même cela rend l'inférence de Solomoff incalculable. Ainsi, un bayésien pragmatique doit se contenter d'hypothèses et d'heuristiques selon les problèmes auxquels il est confronté, ce qui est raisonnable, mais vient amoindrir la prétention à une « philosophie unifiée du savoir ».

A ce propos, qu'est-ce qui justifie un sous-titre aussi ambitieux ? Une seule chose (à ma connaissance) dans le livre de Lê : le paradoxe de Stein. Effectivement, en combinant trois variables non-corrélées, il est possible de minimiser le risque des trois variables prises comme un tout davantage qu'en minimisant les trois variables indépendamment, car les risques peuvent se compenser les uns les autres. C'est utile par exemple pour optimiser trois communications passant par le même câble téléphonique. Mais cela n'aide en rien si on s'intéresse à une des trois variables en particulier, car on ne sait pas laquelle des trois composantes a été optimisée par cet estimateur commun. C'est donc un argument assez moisi.

Notons que d'un point de vue pragmatique, l'approche bayésienne est plus couteuse à calculer que la fréquentiste, ou que juste utiliser le « meilleur modèle ». A vrai dire, c'est probablement la baisse rapide du coût du calcul qui l'a rendu réalisable aujourd'hui. Cependant, je ne suis pas statisticien, mais l'avènement du Big Data n'est-il pas également un avantage pour l'approche fréquentiste ?

Selon Lê, la « méthode scientifique » (fréquentisme ? poppérisme ?) a bien marché jusque là parce que les descriptions des modèles étaient courtes par rapport à la quantité de données disponibles en sciences expérimentales (physique, chimie, etc.), mais pour les sciences historiques29) (sociologie, économie, etc.) les modèles sont sous-déterminés par les données. Pourtant, justement, maintenant nous disposons de beaucoup de données avec le Big Data, donc nous devrions pouvoir gérer des théories plus longues, non ?

Mais il n'y a pas que le problème de la longueur des théories, mais aussi leur nombre. Un bayésien doit lister toutes les théories possibles avant de mettre à jour la moindre information. S'il oublie une théorie, elle lui échappe complètement, et l'analyse devient incomplète. Ainsi, j'ai l'impression que cet usage des probabilités permet de quantifier au sein d'un cadre de pensée donné (les théories envisagées), mais sans étendre magiquement ce cadre. C'est donc bien un outil utile, mais comme les autres, avec son cadre d'application et ses hypothèses.

Si un bayésien pragmatique ne peut gérer une infinité de théories, il doit donc se contenter d'un ensemble fini de théories pertinentes. Le problème est que quel que soit l'ensemble de théories choisi au départ, si le problème à résoudre est suffisamment général, il faudra probablement finir par considérer certaines théories comme n'étant plus pertinentes, ainsi qu'à considérer de nouvelles théories au vu des observations recueillies. Bref, enlever et ajouter des théories à l'ensemble des théories pertinentes considéré, et ce de façon dynamique selon les données obtenues. Pour ne pas être condamné à résoudre des problèmes très particuliers, avec peu de paramètres ou tels que les possibles ont été filtrés en amont par des experts, il faut que le système faisant de l'apprentissage automatique puisse générer de nouvelles théories.

Je conviens qu'un réseau de neurones peut abstraire des concepts à partir d'observations (genre le concept de « chat », ce qui est impressionnant). Mais peut-il fabriquer des théories entières ? Cela ne me paraît pas clair, et a l'air assez incalculable si on ne veut pas seulement une théorie rendant compte des observations, mais la théorie la plus courte (si elle existe), afin qu'elle soit traitée et transmise plus facilement.

En effet, la communication entre systèmes est également un facteur important à considérer. Par exemple, l'humanité est déjà une (ou plutôt, plusieurs) super-intelligence collective, et vu l'architecture d'Internet la super-intelligence suivante deviendra peut-être aussi un réseau et non seulement un super-ordinateur isolé30).

Reste la manière de gérer un ensemble de théories pertinentes. Lê défend qu'une moyenne entre des modèles incompatibles serait plus efficace pour faire des prédictions que de prendre le « meilleur modèle ». C'est ce qu'il appelle la sagesse des forêts (Adaboost, Prix Netflix), qui utilise la multiplicité des explications (même incohérentes entre elles), en restreignant l'importance des moins bonnes explications, pour se prémunir de la surinterprétation. Selon Lê, cela contredit la pertinence de la recherche de LA vérité.

Une des choses qui me dérangent dans ce genre d'approche est qu'il s'agit souvent de modèles avec plein de variables libres, qui certes rendent des observations, mais ne permettent pas d'en tirer une explication. Mais ce n'est pas un point qui dérangerait Lê, car selon lui il n'est pas utile de produire des modèles intelligibles.

Lê nous invite donc à rejeter le critère de réfutabilité (qui n'est comme nous l'avons vu précédemment qu'une exigence de cohérence entre pensée et expériences), et il nous invite également à garder en tête des théories incompatibles. Abandonner la cohérence, ainsi que la recherche de LA vérité. Le problème, encore une fois, c'est qu'il démonte là un homme de paille : la recherche du « meilleur modèle » n'a jamais été de se donner une liste a priori de modèles pertinents et de se restreindre à choisir le moins pire parmi ceux-là.

La méthode dialectique consiste, au lieu de garder en tête plusieurs modèles, de les comparer selon leurs qualités propres, et de construire un nouveau modèle avec le meilleur de chacun (quitte à faire évoluer le cadre de pensée lui-même). A vrai dire, prendre uniquement la moyenne pondérée des modèles me semble une façon bien rudimentaire de les faire « discuter » entre eux. D'ailleurs, selon les propres critères de Lê31), la dialectique est meilleure car le modèle obtenu aura vraisemblablement une description plus courte que la somme de la description de tous les modèles que la forêt conserve à chaque étape. Sans compter que rechercher la cohérence est une incitation puissante (par exemple la quête actuelle de réunification de la physique).

Enfin, dans une forêt chaque modèle a une impression (on pourrait parler d'intuition artificielle) personnelle différente. Donc faire la moyenne pondérée (selon l'accord aux observations, ce qui est une versions quantitative du critère de réfutabilité) de ces impressions n'est-il pas une manière d'en tirer un contenu objectif ? Ainsi, l'exemple donné par Lê ne vient pas contredire la recherche d'un meilleur modèle, mais vient soutenir expérimentalement l'importance de l'objectivité en science.

Science et société

Bien, parlons politique. Le sujet est évidemment sensible car un discours sur des sujets politiques peut représenter un enjeu de pouvoir, surtout s'il est suivi par une audience importante. Que je sois opposé à certains propos politiques de Lê, c'est une chose, mais quand ces arguments sont repris tels quels sur Discord ou dans les commentaires souvent sans subtilité et surtout présentés comme des faits32) et non des opinions, c'en est une autre. Je soupçonne d'ailleurs que c'est parce que le lecteur/spectateur ne peut aisément distinguer ce qui dans les propos de Lê relève du consensus scientifique ou de l'opinion personnelle.

Et encore une fois, je pense nécessaire de cadrer la discussion, dans la mesure où nous y gagnerions tous à clarifier mots et concepts pour, à défaut d'être d'accord sur ce qu'il faudrait faire, être d'accord sur ce qui relève de positions communes ou de divergences réelles.

La guillotine de Hume

Lê (me semble-t-il) et moi adhérons à la thèse de l'orthogonalité : une entité peut gagner en connaissances et intelligence, et pourtant potentiellement chercher à atteindre n'importe quel but. Un exemple de cela est le maximiseur de trombones, qu'on retrouve notamment dans le livre Superintelligence (de Nick Bostrom), illustré par le très chouette jeu Universal Paperclips, qui a été abordé par Lê. Notamment, le cliché qu'une civilisation ou des êtres très avancés seront nécessairement pacifiques, altruistes, etc. est juste une projection de nos propres désirs : en réalité rien n'indique que ce sera le cas. Dit autrement, une avancée en connaissances ne se traduit pas par une « avancée en moralité » (quoi que cela puisse vouloir dire).

La thèse de l'orthogonalité est (je pense) équivalente à la guillotine de Hume (voir par exemple cet épisode de la Tronche en Biais) : on ne peut pas inférer du prescriptif (ce qui devrait être) à partir du descriptif (ce qui est). Ainsi, je pense que logiquement Lê devrait adhèrer à la guillotine de Hume (il me corrigera si je me trompe), mais ça ne me semble guère cohérent avec ses positions. Notez que l'indépendance entre fait et valeur rappelle l'indépendance entre connaissance et croyance (dont je parlais en première partie), ce qui n'est pas un hasard33). ;-)

Pour éclaircir un peu la terminologie, quand le prescriptif est pensé à l'échelle individuelle je l'appelle éthique34) (c'est à dire une étude de l'éthos, le comportement), alors que s'il est pensé à l'échelle de la société je préfère parler de politique (c'est à dire l'étude de la polis, l'organisation de la cité). De plus, j'utilise le mot but et non « objectif », pour ne pas créer de confusion avec l'objectivité recherchée en science, et parce qu'en raison de la guillotine de Hume rien n'est plus subjectif qu'un objectif35).

Ce qui justifie la présence de philosophie morale dans le livre de Lê est de nous convaincre que si nous sommes conséquentialistes et rationnels (c'est à dire, pour lui, bayésien), nous devons attacher de l'importance à une bonne théorie de la connaissance (c'est à dire, pour lui, le bayésianisme). Je trouve que (dit comme ça) c'est assez orienté, mais pas faux dans le fond. La thèse de l'orthogonalité / la guillotine de Hume implique que la science ne peut nous dire ce qui est désirable. Mais la science a néanmoins une place en éthique et politique : elle permet de décrire le monde tel qu'il est, et pour un monde possible que l'on souhaite atteindre, nous montre si cela est seulement possible, et si oui quels sont les moyens et coûts pour atteindre notre but. A ce sujet, je recommande cette vidéo de la chaîne Esprit Critique.

Le rôle social de la science

Lê présente une vision où la science est réduite à faire des prédictions, au lieu de construire des explications. D'ailleurs, je trouve intéressant que le titre du livre soit « La formule du savoir » et non de la connaissance… Le savoir est un contenu intellectuel mis en relation36) avec le vécu et le contexte d'un individu (ou d'un groupe). Quand ce contenu est largement inconscient et lié à une pratique particulière, on parle plutôt de savoir-faire.

La connaissance (scientifique37)) est produite par la raison, c'est à dire la mise en relation des données de façon objective, sans faire intervenir de préjugé ou d'émotion38). C'est, par exemple, parce qu'il leur manquait l'abstraction que dans ma vidéo sur l'école ionienne que j'ai dit que les Égyptiens de l'antiquité avaient bien un savoir(-faire) en mathématique, mais qu'il n'était pas (une connaissance) scientifique.

De plus, Lê a tendance à réduire la science à une démarche personnelle : comment moi je peux faire les meilleures prédictions possibles, sachant mon historique et les données disponibles. L'utilisation de la pensée scientifique à l'échelle personnelle est effectivement importante, notamment pour des raisons éthiques, mais sa construction est l'affaire d'un groupe et non d'individus isolés, aussi géniaux39) soient-ils. De plus, faire des paris est amusant entre amis, et peut s'avérer important pour qu'étant donné un but nous prenions la meilleure décision vu l' état des connaissances à un instant précis. Mais le rôle de la science est de construire et de mettre à disposition des connaissances pour tous, pas d'appliquer un savoir-faire personnel pour l'aide à la décision.

Lê et moi serons d'accord pour dire que réfléchir est couteux. J'irais jusqu'à dire que cela est trop couteux pour un individu isolé ou même un petit groupe, vu les exigences de la survie. L'activité scientifique ne trouve donc sa place que dans un contexte de division du travail40). C'est à dire que l'effort individuel est important au point de devoir s'y consacrer entièrement41) et que l'utilité sociale devient manifeste à grande échelle. Ainsi, une connaissance scientifique nécessite beaucoup42) d'effort, mais (étant objective) peut être utilisée par tous, ce qui la rend rentable avec suffisamment d'individus.

Un liant important dans les groupes de petite taille est la confiance entre individus (fides, qui a donné le mot « foi »), d'où l'importance de la réputation. Quand le groupe devient trop grand et qu'une partie suffisante de la population ne connaît plus tout le monde, cet effet s'estompe et il faut des institutions (comme la police, qui vient de polis, la cité). C'est selon moi une autre raison pour laquelle la pensée scientifique est particulièrement adaptée à des grandes échelles (villes, et au-delà43)), car elle repose sur une confiance non en des individus mais en des méthodes.

La foi repose davantage sur la confiance en des individus, d'où une propagation de religions par les proches ou les figures d'autorité. Mais la foi n'est pas uniquement religieuse, par exemple actuellement le manque de confiance en les institutions favorise la résurgence de mouvements religieux mais aussi nationalistes. Je pense que Lê serait d'accord sur ces mécanismes de constitution et de défense de groupe, qu'il désigne sous le terme (très connoté négativement) d'hooliganisme 44), que je désignerais plutôt par une expression comme tribalisme 45). C'est une attitude assez rationnelle en réalité : si on croit que les institutions à grande échelle (l'Europe, la cinquième république, la science, etc.) ne servent plus l'intérêt commun (ou au moins notre intérêt propre), il semble meilleur de se replier sur des groupes plus proches de nous46).

Attention : Je ne dis pas ici qu'il est vrai ou non que ces institutions ne servent plus l'intérêt commun, ou qu'il soit souhaitable ou non de se replier sur ses endogroupes. Ici j'exprime uniquement ce que je comprends de ce que ressentent/pensent ceux qui le font.

De plus, Lê rejette l'importance des explications, car ce sont en fait des théories dont la description pourra être interprétée par les cerveaux humains. Pour lui, cela restreint l'espace des théories possibles et empêche de rechercher les meilleures. Se focaliser sur les explications serait trop anthropocentré, et le fait de vérifier nous-même les théories explicatives n'a pas une grande valeur. Je ne suis pas d'accord que ce soit si anthropocentré que cela, dans la mesure où la science est construite de manière assez modulaire et donc que des théories trop grandes pour des cerveaux humains ont déjà été produites (il n'y a qu'à voir le degré extrême de spécialisation dans chaque discipline et sous-discipline). Et pour finir, la possibilité de vérification par les gens a deux intérêts :

  1. La compréhension commune nous permet de travailler collectivement en utilisant les modèles mentaux, et de plus permet (contrairement à un oracle) de fournir des pistes de recherche.
  2. Que les gens puissent comprendre (aussi profondément qu'ils sont prêts à investir en temps) les situations me paraît nécessaire pour obtenir un « consentement éclairé ».

Enfin, le mantra de Lê « Tous les modèles sont faux, certains sont utiles » me semble une position scientifique peu productive. En effet, le travail scientifique étant collectif et générant de vraies nouvelles informations, son issue me semble assez imprévisible, et donc l'estimation présente de l'utilité d'un travail scientifique me semble un très mauvais indicateur de son utilité future. Paradoxalement, je pense donc que le plus utile en science est de ne pas vraiment viser l'utilité. En revanche, s'inspirer des problèmes techniques et faire discuter les disciplines entre elles me semble de très bonnes sources d'inspiration qui s'avèrent souvent fructueuses. :-)

Mais plus important encore, quand (à l'instar du paragraphe précédent) des gens vous parlent d'utilité, demandez-vous toujours ce que cela signifie vraiment. Utile pour faire quoi ? Utile à qui ?

L'utilitarisme moral

En suivant l'exemple de Ruwen Ogien47), la philosophie morale peut être distinguée entre les positions déontologiques (où priment le respect des principes peu importent les conséquences) et conséquentialistes (où priment les conséquences et qu'importent les principes). Par exemple, dans cette vidéo Monsieur Phi nous relate l'exemple de Kant (un déontologiste) pour lequel il ne faut pas mentir, même pour protéger des gens d'être tués (car le meurtre ne serait pas de notre fait).

Avant de continuer, notons qu'il peut y avoir de bonnes raisons conséquentialistes pour être déontologistes. Par exemple, dans ces variantes du dilemme du tramway, la clause qu'aucune information ne fuiterait est pour moi absolument nécessaire, non pour préserver ma propre réputation mais pour garantir la fonction même de l'hôpital48) : si le médecin n'applique pas le serment d'Hippocrate les gens ne souhaiteront pas y venir et donc l'hôpital sera inutile. Ainsi, la déontologie professionnelle est nécessaire à l'exercice des professions dans le cadre d'une division du travail, et donc est socialement nécessaire.

Chaque conséquentialiste se dote d'une fonction, appelée fonction d'utilité, capable de donner un score à chaque monde possible. Un acte est dit moral s'il permet d'aboutir à un monde avec un meilleur score que sans cet acte. Il s'agit donc de juger les conséquences, et non les intentions ou les principes. Je suis assez d'accord avec ça, mais à quelques nuances près.

Même en admettant qu'il soit possible dans l'instant d'évaluer les conséquences d'une action sur l'état du monde, chacun le fait selon ses connaissances à cet instant49). Mais je peux me tromper. Par exemple, si après avoir fait une action (que j'estimais bonne) j'apprends de nouvelles choses qui me font penser maintenant qu'elle était mauvaise, cela signifie uniquement que le moi du présent n'aurait pas fait le même choix, pas que le moi du passé a été immoral (il a bien été moral, selon ses connaissances du moment). Faire dépendre la moralité des conséquences soulève aussi le problème de réussir pour de mauvaises raisons50), ou échouer malgré avoir fait de son mieux (ce qui n'en est pas moins une bonne action). Ainsi, je nuancerais le conséquentialisme par une prise en compte des connaissances et moyens disponibles… un conséquentialisme pragmatique, donc. ;-)

Mais bon, pour la suite considérons que je suis bien conséquentialiste, comme Lê. Le nœud du problème, c'est que nous sommes en désaccord sur la fonction produisant ce score. Lê est un utilitariste (classique), c'est à dire qu'il évalue les conséquences morales d'une action selon le bonheur des gens. Mais comment obtenir un score global à partir de plusieurs valeurs individuelles ?

S'il faut maximiser la somme des bonheurs individuels, comme le rendement est décroissant, il faudrait juste augmenter un maximum le nombre d'individus quitte à ce qu'ils vivent dans des conditions dégradées, comme dans le (non-)roman Tous à Zanzibar. C'est la fameuse « conclusion répugnante ». Ce problème est réduit si on prend la moyenne et non la somme, afin de tenir compte de la qualité de vie. Mais dans ce cas il resterait acceptable de sacrifier une minorité pour le bonheur du plus grand nombre. Or, même une situation comme celle de la nouvelle Ceux qui partent d'Omelas de Ursula K. Le Guin (où le sacrifice d'un enfant permet une société utopique) me semble inacceptable. Pour moi, il faut plutôt maximiser le score de celui qui a le moins51), ce qui a le bon goût de garantir que tout le monde a intérêt à vivre dans cette société.

Ceci étant clarifié, il s'avère que pour moi le bonheur des gens est un but plein de bonnes intentions, mais peu convaincant.

S'il s'agit du bonheur en temps que plaisir, il ne s'agit que d'un état produit par notre corps pour que nous suivions des comportements favorables selon la pression sélective. Mais ça ne veut pas dire que c'est bon pour nous, car notre intérêt personnel peut diverger de ce qui a été sélectionné dans la nature… il n'y a qu'à voir notre attirance pour le gras et le sucre qui était utile quand ces nourritures étaient rares, mais qui dans les sociétés occidentales génèrent de l'obésité52). D'ailleurs, dans le futur un but ultime de bonheur pour tous pourrait être atteint en plongeant toute l'humanité dans un état d'extase perpétuelle provoquée par la drogue, ce que je ne trouve pas souhaitable. Enfin, l'adaptation hédonique rendrait vaine la recherche même du bonheur.

Même si on prend le bonheur de façon plus abstraite comme la satisfaction des préférences, qui ne vient pas vraiment résoudre les problèmes précédents, il resterait d'autres problèmes comme : Comment la mesurer ? Que faire si la personne n'est pas encore claire sur ses préférences, ou si ses préférences évoluent ? Comment convaincre quelqu'un que ce que nous sommes en train de lui faire est ce qu'il voudrait qu'on lui fasse s'il avait le temps et les informations pour y réfléchir à fond ? Pour ces raisons, et bien que je reconnaisse volontiers les bonnes intentions des utilitaristes (et même que je me reconnais dans certains de leurs combats, par exemple l'altruisme efficace), je trouve leur fonction d'utilité répugnante.

Personnellement, je crois qu'il vaut mieux maximiser non le bonheur mais la liberté des gens, c'est à dire la capacité à réaliser ses désirs mais aussi de pouvoir évoluer dans ses désirs53). Pas juste la liberté en droit (par exemple le droit de circuler), mais la liberté de fait (j'ai les moyens de m'acheter un billet de train, ou les transports sont gratuits). Cela permettrait aux gens d'explorer par eux-mêmes leurs préférences, de les concrétiser (la satisfaction des préférences est donc une conséquence de la liberté), d'en apprendre, et de pouvoir continuer à évoluer sans contrainte superflue. En résumé, je souhaite donc maximiser la liberté de la personne la moins libre. Attention, je ne dis pas qu'il s'agit de LA bonne fonction d'utilité, uniquement qu'il s'agit de la mienne. ;-)

Le but de cette partie n'était pas de convaincre que ma fonction d'utilité est la bonne (et d'ailleurs à cause de la guillotine de Hume je ne pense pas cela possible) mais de montrer que ces questions n'ont rien d'évidentes ni de naturelles. En particulier, si les buts sont indépendants des connaissances54), comment comparer deux fonctions d'utilité55) ? Cela mène à une forme de relativisme moral56). En particulier, l'utilitarisme moral n'est pas objectivement LA bonne morale. D'ailleurs, Lê doute que ce soit la bonne morale pour une superIA (et je le rejoins sur le fait que le problème est ouvert et complexe).

Qu'il n'y ait pas de morale objective ne nous empêche cependant pas de débattre et d'échanger des idées, notamment pour la prise de décision collective, c'est à dire la politique. Même si nous avons des buts finaux différents, nous pouvons converger sur les buts instrumentaux. Ensuite, la question de savoir si ce sont ces intérêts communs ou les intérêts de quelques uns qui seront poursuivis par la société relève du régime politique.

Technocratie contre démocratie

Oui, dans le titre j'ai utilisé le mot commun technocratie, c'est à dire le gouvernement des experts, et non le mot épistocratie forgé par Lê. Selon lui, par exemple, Wikipédia est épistocratique car la capacité d'édition est proportionnelle à l'influence, ce qui se rapprocherait de l'idée bayésienne de donner un poids plus important aux meilleurs modèles. Même si cela était vrai, il n'y a pas de raison que la « meilleure » manière de fabriquer des connaissances soit nécessairement la « meilleure » façon de gérer la vie politique. En particulier, il ne faut pas confondre fabriquer / utiliser l'état de l'art en science, et fixer les buts de la société.

Mais je ne suis pas convaincu que ce soit LA raison pour laquelle Wikipédia a autant de succès. Je suis davantage convaincu par cette vidéo d'Hygiène mentale qui insiste sur le fait que Wikipédia fonctionne en raison de ses principes fondateurs. Les gens se comportent comme les institutions les déterminent, et c'est bien pour cela que je suis d'accord avec Lê sur le fait que les institutions doivent fournir des incitations pour produire les comportements (et en particulier ceux qu'elles supposent). Wikipédia laisse la liberté à ses utilisateurs de faire des modifications, et le cadre donné permet à ces modifications de converger vers une encyclopédie écrite par tous et d'excellente qualité.

Pour moi le fonctionnement de Wikipédia est plutôt une application du principe de subsidiarité, c'est à dire qu'une décision doit être prise le plus possible à l'échelle des premiers concernés. A quoi reconnaît-on qu'ils se sentent concernés ? Ici, au fait qu'ils souhaitent contribuer, justement. La communauté scientifique a un fonctionnement similaire : un biologiste ne va que rarement discuter de résultats mathématiques, tout simplement parce qu'il n'est généralement pas intéressé par ces questions (par rapport aux questions de sa discipline). Ainsi, la séparation des expertises (un expert n'est reconnu pertinent que dans son sujet d'étude) souhaitée par Lê est une conséquence du principe de subsidiarité.

Mais Lê insiste surtout sur le côté inégalitaire : plus tu es fiable, plus tu obtiens de pouvoir, pour « le plus grand bien ». Le mythe de la méritocratie est cependant critiquable, voir par exemple cet article résumant une étude montrant que la compétence ne détermine pas le succès, et que pour le financement scientifique il vaut mieux répartir équitablement les ressources plutôt que de les attribuer aux plus « méritants ». Sans compter que l'idée de mérite est une justification pour des inégalités « justes », donc qui reste suspendue à l'idée de la justice et de la morale que l'on peut avoir.

Cela étant dit, il n'en reste pas moins vrai qu'un expert a effectivement de meilleures connaissances sur son sujet que la vaste majorité des citoyens. Cela signifie-t-il pour autant qu'il serait légitime de leur confier le pouvoir ? Non : par la guillotine de Hume, ce n'est pas parce qu'ils sont plus savants dans un domaine qu'ils savent mieux quel est le meilleur but à atteindre. Ce qu'ils savent est uniquement, étant donné un but, de dire s'il est réalisable, de donner les moyens et les coûts pour le réaliser, et de dire les conséquences attendues. Mais en aucun cas de prendre la décision. La science propose, la politique dispose.

Selon le principe de subsidiarité, ceux qui sont légitimes à déterminer quel est le but à atteindre sont justement les premiers concernés. Ensuite, que la décision soit exécutée en s'appuyant sur les connaissances des experts n'est en rien contradictoire. C'est d'ailleurs ce qui est (plus ou moins bien) fait actuellement, voir par exemple l'intervention de Jean-Marc Jancovici pour la commission d'enquête sur le coût réel de l'électricité. Cela étant posé, je vois deux arguments pour lesquels il ne serait pas souhaitable (à mon avis) que les experts dirigent :

  1. Si les scientifiques se mettent à faire de la politique, ils deviendront alors des politiciens et ne seront plus des scientifiques. En effet, ils auront alors intérêt à utiliser leur position de savant pour gagner des avantages personnels, et ce faisant à instrumentaliser voire falsifier les études produites. La communauté scientifique ne peut converger vers la production de connaissances que si elle est autonome, et en particulier qu'il n'y ait pas d'intervention du pouvoir politique ou économique dans le champ scientifique.
  2. Si ceux qui prennent les décisions ne sont pas ceux qui vont les subir, il y a un risque fort que les gouvernants sacrifient les intérêts des gouvernés, par simple ignorance de la réalité du terrain, ou tout simplement par intérêt personnel. D'ailleurs, la corruption vient encore augmenter ce risque si le nombre de gouvernants est faible dans le temps.

Pour éviter ces problèmes, il faut identité entre gouvernés et gouvernants, c'est à dire la démocratie.

Lê a été surpris de la réaction positive de sa communauté à sa vidéo critiquant la démocratie, parce qu'il pensait que la plupart des gens sont entrainés depuis tout petit à être des « hooligans de la démocratie ». Mais, je ne suis pas surpris, c'est même courant chez notre classe sociale (jeune, éduqué, urbain et connecté) de penser que « les gens sont cons, ignorants, irrationnels, manipulables… ». De plus, contrairement aux idées répandues, les centristes sont les plus défavorables à la démocratie et non pas les « extrêmes » (signe qu'en ces temps troublés les classes moyennes préfèrent un pouvoir autoritaire que maintenir l'état de droit57)).

Tout d'abord, on ne peut pas réduire la démocratie au mauvais système actuel (système représentatif et non direct, système de vote loin d'être optimal, etc.). Dire que les gens se comportent mal dans un mauvais système (qu'il serait peut-être plus juste de qualifier d'aristocratie élective que de démocratie), ne permet pas de conclure que les gens sont intrinsèquement cons, ignorants, irrationnels, manipulables, etc. et donc que la démocratie serait inefficace58). C'est en forgeant qu'on devient forgeron. C'est justement parce que les institutions ne sont pas assez démocratiques que les gens n'ont pas de responsabilités, et donc ne confrontent pas leurs idées au réel, n'échangent pas en vue de résoudre un problème et n'ont pas d'intérêt à faire l'effort de se renseigner davantage. Nos institutions rendent les gens irresponsables59).

Oui, les gens ne sont pas des « vulcains » (voir Against Democracy, de Brennan), mais pour avoir des institutions démocratiques il faut leur donner les moyens de l'être. Par exemple le suffrage universel (masculin :-() a été mis en place en France (avec la troisième république) de pair avec l'éducation gratuite et obligatoire. Plutôt que de déplorer une nature humaine, il faut mettre en place les institutions produisant les comportements souhaités60).

Enfin, Lê dit que s'il existait une personne bienveillante et plus compétente il voudrait qu'elle décide pour lui, mais aussi (et c'est surtout ça qui me choque) pour les autres. Déjà, il s'agit d'un argument royaliste classique, ayant le contre-argument tout aussi classique : comment, sans pouvoir, peux-tu t'assurer que le dirigeant restera compétent et bienveillant à ton égard ? Pour garantir que les intérêts soient bien alignés, il suppose une IA avec une « bonne » morale (problème non résolu à ce jour), ou alors un moi++ c'est à dire une version de soi ayant eu suffisamment de temps et d'information pour gagner en moralité61). Mais je pense que le moi++, au sens où l'entend Lê, n'a pas de raison de converger. Simuler les « soi » futurs, c'est juste tenter d'estimer sa propre évolution dans de bonnes conditions. Or, de nouvelles expériences vont me faire évoluer, et il n'est pas clair que selon ces expériences, je n'évolue pas dans des directions (et donc des moralités) opposées.

En fait, j'ai l'impression que Lê cherche surtout à formaliser une notion de supériorité morale, pas seulement pour le dépassement de soi, mais aussi pour imposer sa notion de la moralité aux autres62). Il me semble qu'il s'agit de ce que mon vieux professeur d'épistémologie (Nicolas Bouleau) appelait le « préjugé de supériorité analytique », un biais consistant à supposer que si les autres soutiennent un avis avec lequel on n'est pas d'accord c'est qu'ils sont irrationnels (par exemple, les scientifiques ne sont poppériens que par la pression des pairs, les gens croient en la démocratie uniquement par endoctrinement scolaire, etc.). Désolé, mais il peut arriver que d'autres soient en désaccord avec toi aussi pour de bonnes raisons, que ce n'est pas juste que tu n'as pas assez fait preuve de pédagogie. Et j'ajouterais que je ne trouve pas moral que tu sois prêt à manipuler les autres pour leur bien selon l'idée que tu te fais du bien.

Critiques

Dans les sections précédentes j'ai déjà critiqué pas mal de points soulevés par Lê. Je rappelle/complète ici les critiques les plus importantes que j'ai à faire sur le fond et la forme, et j'en profite pour expliciter certaines questions que j'aurais voulu voir détaillées dans le livre.

Je rappelle encore que j'attaque les idées et non la personne, et qu'il ne serait pas surprenant que j'ai commis des erreurs d'interprétation, aussi n'hésitez pas à critiquer la critique ! ;-)

Sur le fond

Le rejet forcené de l'objectivité et de la méthode scientifique me semblent dangereux, surtout dans un livre de vulgarisation scientifique. Lê dévalorise la réflexion consciente, mettant l'accent sur les a priori, l'intuition, la phase post-rigoureuse en math, et la réflexion inconsciente sur de longues durées. Oui, en science, tout est bon pour trouver de l'inspiration : l'intuition, la drogue, la prière… Cela, avec le style personnel, fait de la science une activité créatrice. Mais pour expérimenter, rédiger, ou évaluer le travail des autres, il faut en passer par la rigueur. C'est ce qui fait de la science aussi une activité technique.

De plus, son approche est individualiste et orientée sur la prise de décision, et non collective et orientée vers la production de connaissances, ce qui va à l'encontre de l'approche scientifique dès son origine.

La confusion entre croyance et connaissance me semble également dangereuse. Par exemple, Lê dit qu'un bayésien dans un groupe de croyants a intérêt à croire en Dieu pour prédire le comportement du groupe… sauf que non. Il a besoin de comprendre la croyance des autres, pas de croire lui-même. D'autant plus que donner un intérêt à croire en Dieu quelques pages avant de rejeter (encore) la « méthode scientifique » me semble un mauvais message à passer au public (dans de la vulgarisation scientifique). Message qui de plus va à l'encontre de l'autonomie intellectuelle nécessaire au travail scientifique.

D'autant plus que même s'il est amusant de mettre au même niveau sciences, pseudo-sciences et croyances sur le principe et rejeter les pseudo-sciences uniquement sur l'accord envers les observations, je pense que c'est rater la spécificité de l'activité scientifique. Ce n'est pas le contenu qui fait qu'une discipline est scientifique, mais la méthode utilisée, et je pense que les zététiciens ont raison de critiquer les pseudo-sciences sur les bases de leur méthode.

Comme dit dans la seconde section, la méthode scientifique n'est pas le fréquentisme et ne s'oppose pas au bayésianisme (au moins objectiviste). La logique bayésienne peut être vue comme une extension probabiliste de la logique booléenne. Le critère de réfutabilité et le principe de parcimonie n'y sont pas réfutés, c'est juste qu'ils y ont une forme quantitative et non qualitative, ce qui rend l'approche fructueuse pour l'apprentissage automatique. Le bayésianisme ne s'oppose pas à la méthode scientifique, mais en est une application aux probabilités, notamment pour tenir compte de l'incertitude épistémique.

J'ajouterais que les méthodes fréquentistes peuvent être utiles. Je ne comprends pas l'acharnement de Lê à associer les fréquentistes aux poppériens et aux objectivistes, alors que le critère de réfutabilité peut s'appliquer aux théories présentées sous forme fréquentiste et bayésienne, et que parmi les bayésiens il existe des subjectivistes et des objectivistes.

La formule de Bayes n'est pas LA formule du savoir, elle est utile dans certains cas, ce qui est déjà bien. Comme Lê, je crois aussi que le savoir est connexe (comme conséquence du matérialisme scientifique), mais rien dans le livre ne vient prouver une « philosophie unifiée du savoir ». Enfin, pour ne pas rallonger inutilement la critique, je passe sur d'autres points mineurs où ni lui ni moi ne sommes vraiment compétents63) mais qu'il n'était pas utile d'aborder dans le livre.

Sur la forme

Utiliser le bayésianisme pour justifier mathématiquement d'utiliser ses biais, ou insister sur le fait que le cerveau soit bayésien, me semblent (présentés comme dans le livre en tout cas) être des tentatives de naturalisation de l'approche bayésienne. De façon générale, durant la lecture j'ai souvent eu l'impression d'un deux poids, deux mesures, par exemple :

  1. Lê prend l'exemple des illusions d'optique pour montrer que le cerveau humain est très efficace :-?, et n'aborde les biais cognitifs que pour souligner que les gens sont irrationnels et qu'il faut utiliser la formule de Bayes pour être rationnel.
  2. Il ne voit la causalité que comme un a priori sans valeur, en dehors de faciliter la compréhension par de simples humains, mais pourtant il fait la distinction habituelle que corrélation n'est pas causalité.
  3. Il dénigre la notion d'explication (qui n'est qu'une théorie assez courte pour être interprétée par un simple humain), mais l'utilise pour défendre l'idée d'enseigner ses trucs préférés à l'école (comme le bayésianisme).

Ce « deux poids, deux mesures » n'est en fait pas surprenant… Dans un Axiome Lê dit lui-même qu'il a des crédences absolues en le bayésianisme, et Monsieur Phi lui fait remarquer que ce n'est pas une attitude très bayésienne. De façon générale, que Lê ait eu besoin pour soutenir son récit du bayésianisme d'affirmer que la théorie est le fruit de génies incompris et de démonter tout le reste de la communauté scientifique n'est pas seulement une erreur de storytelling, mais un complexe de Galilée.

Il me faut aussi dire qu'à la lecture de « La formule du savoir », l'enthousiasme de Lê a pour moi été davantage un frein qu'un moteur, et a réduit ma confiance en ses propos au lieu de me motiver à continuer. Entendons-nous bien, j'ai bien conscience qu'un vulgarisateur ne fait pas que transmettre des résumés de connaissances scientifiques, mais doit aussi donner envie. Notre travail est à la fois technique (synthétiser un contenu fidèle et accessible) et affectif (susciter la curiosité et l'enthousiasme envers la chaîne, le contenu scientifique et la science elle-même). Mais64), en tordant trop ces idées pour qu'elles deviennent attrayantes on finit par attirer l'attention sur… des idées qui sont devenues non-scientifiques. En résumé, et je rappelle que j'ai beaucoup de respect pour le travail colossal de Lê, mais je tiens à ce qu'il soit dit que vulgariser un contenu scientifique de façon non-scientifique n'est plus faire de la vulgarisation scientifique. Je ne dis pas que c'est ce que fait Lê (probablement pas), mais je me (vous ?) pose la question. Et à la réflexion, je me demande si vue la façon qu'a Lê de présenter les choses le public peut vraiment distinguer ce qui relève du consensus scientifique ou de l'opinion personnelle.

En particulier, vu l'extrême croyance et l'enthousiasme biaisé de Lê, je pense qu'on peut dire que le livre est empreint d'une ferveur religieuse qui m'inquiète, mais pas autant que l'absence de réaction (je suis le seul à me poser ce genre de questions ? :-?). A ce stade, j'aimerais vraiment me tromper, mais je voudrais surtout qu'on en parle. Pour finir, je dirais qu'ironiquement Lê a le biais de traiter par défaut de « hooligan »65) ceux qui ne partagent pas son point de vue, mais est lui-même un hooligan du bayésianisme.

Quelques questions

Pour finir, quelques questions. Je ne peux m'empêcher de penser que j'aurais trouvé plus productif de voir ces aspects développés dans le livre, plutôt que la répétition d'exemples en faveur du bayésianisme (sans montrer en quoi ils sont représentatifs de l'état de l'art), ou les tentatives abusives de ridiculiser les pensées alternatives (notamment scientifiques).

L'approche fréquentiste étant plus rapide à calculer mais nécessitant davantage de données que l'approche bayésienne, n'est-elle pas avantagée par l'avènement du Big Data ? Faut-il une approche bayésienne pour déterminer la « qualité » des ces données ?

Étant donnée l'importance que Lê et moi accordons aux incitations (« incentives » en anglais), l'approche bayésienne donne-elle des incitations suffisantes pour obtenir le plus d'information possible avec le moins possible d'expériences potentielles (une stratégie expérimentale) ? Notamment aller réfuter les théories existantes, ou chercher les expériences cruciales permettant de trancher entre théories alternatives ?

La pure bayésienne traite (de façon non calculable) toutes les théories exprimables en même temps (pour un langage donné). Le bayésien pragmatique (si j'ai bien compris) ne peut le faire qu'avec un nombre fini de théories pertinentes. Peut-il créer de nouvelles théories (comme le fait la méthode dialectique avec la méthode scientifique) ?

Un réseau de neurones peut abstraire des concepts, par exemple l'image d'un chat. Mais peut-il fabriquer des théories entières, si possible avec la description la plus courte pour qu'elle soit transmissible facilement ?

Le bayésianisme rend compte des données passées, mais permet-il de penser les évènements nouveaux (futurs possibles, expériences cruciales) ? Au contraire, n'y a-t-il pas un risque de mettre de côté une expérience contradictoire si la plausibilité du modèle est trop grande ?

Comme le soulignent Kuhn et Lacatos, ce sont les programmes de recherche qui déterminent quelles sont les questions qui sont considérées comme scientifiques pour la communauté. Dans la mesure où pour un bayésien les expériences ne feraient progressivement qu'augmenter le poids de la théorie (ou des théories) choisie(s), est-ce que cela ne risque pas de réduire les chances d'avoir une révolution scientifique ?

Bonus

Je mets ici certaines réflexions que j'ai rédigées vu les thèmes abordés dans le livre, mais que j'ai préféré laisser à la fin de l'article, puisqu'elles n'étaient pas nécessaires à la critique de « La formule du savoir ». Donc bravo d'être arrivés là, et amusez-vous bien. :-)

Déterminisme et intentionnalité

Je suis plutôt un bayésien objectiviste quand le problème est présenté sous forme probabiliste. Mais pour moi une telle présentation n'est pertinente qu'à cause de l'incertitude épistémique, car je pense le réel comme étant déterministe.

Je crois en le principe de causalité66), c'est à dire que « d'une cause déterminée résulte nécessairement un effet ; et, inversement, si aucune cause déterminée n'est donnée, il est impossible qu'un effet se produise » (Spinoza, l’Éthique). J'adhère également au principe de localité, c'est à dire que chaque entité a un nombre borné de voisins et qu'il existe une vitesse maximale de l'information. Ainsi, conformément à l'interprétation physique de la thèse de Church-Turing, l'univers est mécaniste.

Pierre Simon de Laplace (que Lê voit comme un génie67)) écrit dans l'introduction de son Essai philosophique sur les probabilités : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’Analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle et l’avenir, comme le passé serait présent à ses yeux. »

Cette intelligence est d'ailleurs nommée démon de Laplace, et rejoint les expériences de pensée du démon de Maxwell, et du démon de Solomonoff (dont parle Lê dans son livre). Ainsi, pour moi le « réel » est déterminé68).

La mécanique quantique selon moi ne change pas cela, car parmi les nombreuses interprétations69) des expériences menées70) il y en a avec le déterminisme, avec la localité, voire les deux (en abandonnant la définissabilité contrefactuelle, voir la note précédente). Il existe d'ailleurs une interprétation bayésienne subjectiviste de la physique quantique postulant que les propriétés quantiques sont en réalité des expériences subjectives, qui contiennent davantage que ce qu'un enregistrement à la troisième personne pourrait fournir. C'est pour moi clairement une tentative de dualisme (voir les excellentes vidéos de Mr Phi sur le sujet), donc en temps que matérialiste c'est éliminatoire (car fait intervenir des entités non mesurables).

Lê critique la causalité en disant que c'est une idée intuitive mais sans grande valeur, à part éventuellement pour expliquer des trucs aux humains, et qu'il faudrait s'autoriser en science à examiner de la rétro-causalité (ou le finalisme, ou l'intentionnalité). D'une part, c'est déjà le cas (par exemple l'interprétation de la physique quantique à deux vecteurs). D'autre part, ça n'a rien de nouveau. Lê n'a pas l'air de se rendre compte que l'intentionnalité et le finalisme ont imprégné toute la pensée médiévale et de la renaissance, et qu'elle reste le mode de réflexion par défaut des gens même aujourd'hui (« La nature veut… fait en vue de… vocation à… » etc.). Justement, c'est en remettant en cause cette attitude que les scientifiques ont pensé les éclairs par les vents et les nuages et non par les dieux, ou une évolution des espèces au lieu d'une création.

Non, le joueur d'échecs ne déplace pas sa pièce parce que l'issue de la partie influe sur lui, mais parce qu'il a un désir présent. Penser de façon causale et non intentionnelle permet par exemple d'envisager une mécanique des désirs, par exemple pour penser comment les institutions produisent les incitations et les affects. Comme admis dans le livre, dans toute théorie physique où une forme d'intentionnalité peut apparaître, elle peut être transformée en théorie causale. Or, cette transformation est souvent instructive et fructueuse pour comprendre le déroulement des phénomènes, et faire de meilleures prédictions.

C'est donc une suggestion dangereuse, car elle n'apporte rien à la science elle-même, mais par contre vient renforcer les courants de pensée qui se sont historiquement opposés à l'analyse scientifique du monde.

Le réalisme scientifique

Avant de commencer cette sous-section, j'ai une question pour vous : peut-on parler scientifiquement de réalité, puisque la nature de la réalité (derrière les observations) est de la métaphysique ? Je me permets de le faire ici parce que Lê a abordé le sujet dans « La formule du savoir », mais il me paraissait important que ce soit explicité. ;-)

Comme je l'ai dit en introduction, dans la mesure où le livre de Lê est représentatif du reste de son travail, je fais une critique plus générale de ses interventions. Notamment, ici, il m'a semblé utile de commencer par l'opposition entre lui et Monsieur Phi, que l'on voit à la fin de l'Axiome 11 et au début de l'Axiome 12 :

  • Lê est un instrumentaliste : La valeur d'une théorie ne se mesure qu'à son succès prédictif, et ne prétend pas fournir d'explication sur une soi-disant réalité extérieure. Un modèle n'est pas vrai, il est utile.
  • Mr Phi est un réaliste (scientifique) : Une bonne théorie cherche à reproduire le comportement des objets réels, et révèle des aspects jusque là inconnus de notre réalité. Le succès d'un modèle vient de ce qu'il approxime le monde. A un instant $t$, le consensus scientifique est notre meilleure description de la réalité, et en ce sens il est « vrai » jusqu'à preuve du contraire.

Ces positions ne viennent pas de nul part, j'aimerais contextualiser ce débat historiquement, avant de livrer ma propre position.

Le réalisme scientifique était plutôt de mise jusqu'au XXème siècle, où le développement de la physique quantique (et ses interprétations pour le moins contre-intuitives) a poussé les physiciens à une attitude plus utilitariste. Popper a critiqué le positivisme du Cercle de Vienne, en affirmant le problème de l'induction : ce n'est pas parce qu'un phénomène se répète qu'il continuera de le faire. Évidemment, Popper n'est pas à la pointe de la philosophie des sciences (et je ne suis moi-même pas au fait de l'état de l'art). Plus récemment, Kuhn et Lacatos soulignent que les scientifiques travaillent dans des paradigmes (ou des programmes de recherche) qui déterminent quelles sont les questions qui sont considérées comme scientifiques pour la communauté, et donc les expériences vont en quelque sorte valider les attentes (et le cadre conceptuel) des expérimentateurs. Cela me laisse deux questions pour l'approche bayésienne :

  1. Dans la mesure où pour un bayésien les expériences ne feraient progressivement qu'augmenter le poids de la théorie (ou des théories) choisie(s), est-ce que cela ne risque pas de réduire les chances d'avoir une révolution scientifique (au sens de Kuhn) ? Dans cet ordre d'idée, il me semble que Lakatos confirme que la science avance vraiment quand elle cherche à réfuter non des théories mais des programmes de recherche (version améliorée du critère de Popper).
  2. Est-ce que le bayésien pourra déterminer quelles expériences faire et éviter la brusque transition d'un meilleur modèle à un autre ? Ou est-il adapté pour naviguer à l'échelle individuelle au sein d'un paradigme, mais qu'il faille le critère de réfutabilité pour réfuter ces paradigmes ?

Pour moi la position instrumentaliste ne fait pas vraiment sens, car les explications sont utiles. Mais surtout parce que si nos mesures se comportent comme s'il y avait un monde extérieur, par le principe de parcimonie il est plus simple de supposer que le monde existe réellement (plutôt que de supposer une simulation, par exemple), ce qui réfute le solipsisme. Cela fait donc de moi plutôt un réaliste. Notez que de façon amusante, de part sa position subjectiviste, Lê flirte beaucoup avec le solipsisme, mais il admet dans son livre qu'en utilisant le bayésianisme le solipsisme est en fait peu probable.

Par contre Lê et moi sommes d'accord sur le fait qu'une entité ne pouvant être mesurées (directement ou indirectement) n'est pas réelle (voir le matérialisme). D'ailleurs, les supposés entités extérieures produisant ces mesures (les quatre éléments, l'éther luminifère, l'espace statique, etc.) sont progressivement tombées dans les oubliettes de l'histoire des sciences. En ce sens-là, je ne suis pas réaliste à strictement parler, mais plutôt un structuraliste. C'est à dire que ce qui est révélé par le progrès scientifique ne sont pas les entités mais les relations entre entités supposés. Par exemple, je ne crois pas en l'existence de l'espace-temps, mais je crois que les objets se comportent selon les équations71) décrivant leur interaction avec l'espace-temps. Historiquement, les entités vont et viennent, mais les relations sont raffinées. Ainsi les équations de Newton sont un cas particulier des équations d'Einstein en supposant que la lumière a une vitesse infinie (voir The Speed of Light is NOT About Light de PBS Space-Time).

L'incertitude épistémique

L'approche bayésienne semble être une bonne extension aux probabilités des critères qualitatifs usuels de la méthode scientifique. Mais il reste à justifier de l'utilité des probabilités elles-mêmes. Nous avons en déjà distingué plusieurs interprétations, notamment que le réel soit indéterminé ou la modélisation de notre ignorance. Pour ma part, je crois que le réel est complètement déterministe, et que l'apparent indéterminisme vient de variables cachées c'est à dire une cause dont nous ignorons, pour le moment, l'existence et/ou dont le contrôle nous échappe.

Mais ce n'est pas parce que le réel est déterministe que notre connaissance sur le réel l'est. Il y a différentes raisons qui expliquent ce que Lê et Monsieur Phi ont appelé l'incertitude épistémique (bien que je trouve ce choix de mots assez malheureux).

  • II y a des informations que nous ignorons, personnellement ou collectivement. C'est même une conséquence du principe de localité.
  • Il y a aussi de l'imprécision dans les mesures, c'est à dire une incapacité à déterminer explicitement l'état de toutes les causes (nous n'arrivons pas à les savoir, ou nous n'arrivons pas à empêcher des perturbations extérieures), elles sont donc souvent davantage des intervalles que des valeurs.
  • De plus, nous pouvons mal transmettre l'information aux autres, et nos modèles sont incomplets72).
  • Enfin, nous ne disposons que de ressources finies pour traiter l'information, et les erreurs/imprécisions peuvent diverger au lieu de converger, comme cela est expliqué dans l'excellente vidéo de ScienceEtonnante sur les systèmes chaotiques.

Avoir des modèles pour gérer ce manque de connaissances et ces perturbations me semble effectivement souhaitable, et l'utilisation de statistiques pour gérer le « bruit » me semble effectivement pertinent. Mais je trouve cela étrange d'appeler cela de l'incertitude, car il n'y a pas de certitude en science. Nous accumulons progressivement de l'information et essayons de la traiter au mieux. Mais ce savoir n'est pas incertain, juste incomplet, et les objets que nous étudions ne sont pas entièrement déterminés par nous. La question est alors de savoir si la logique bayésienne est le bon outil pour mesurer ce manque d'information et de contrôle, et cela ne me paraît pas entièrement clair.

Les modèles de gestion de l'information doivent à la fois pouvoir estimer la propagation de l'erreur, et corriger cette erreur avec de nouvelles informations. Si je comprends correctement la formule de Bayes, j'ai l'impression qu'elle fait les deux, mais je ne le sais pas (le livre ne répond pas à ces questions). Ainsi, tant que le manque d'information et de contrôle sont exprimés sous forme probabiliste, le bayésianisme (objectiviste) semble bien être une approche fructueuse, avec différentes méthodes ayant chacune leur cadre d'application. Mais ce n'est pas cela que défend Lê. Lui, il défend qu'il s'agit de la philosophie unifiée du savoir.

Ce que je trouve étonnant avec l'incertitude épistémique (c'est à dire le manque d'information ou de contrôle), c'est qu'on ne peut pas savoir à quel point il nous manque des informations, ni ce qui pourrait influencer malgré nous le résultat. Pour mesurer cette « incertitude », il faut le faire avec des hypothèses. Par exemple que la pièce ne fait que pile ou face (ce serait dommage pour le modèle si elle fait tranche 10% du temps), ou les perturbations sont supposées dans un intervalle de confiance, etc. Pourquoi parler d'incertitude épistémique, au lieu d'ignorance (sur l'état des causes et des processus en jeu) ou d'impuissance (manque de contrôle sur les causes) ? Pourquoi ne pas faire la différence entre les deux, ainsi que sur ce qui relève de l'ignorance/impuissance temporaire, et ce qui relève de limites physiques ou logiques ?

L'intelligence artificielle

Dans cette sous-section, je voudrais livrer quelques réflexions personnelles sur le développement de l'intelligence artificielle. Étant matérialiste, je ne vois aucune raison pour laquelle une intelligence comparable à un humain ou à l'humanité toute entière ne pourrait être produite artificiellement. Je ne pense pas que l'humanité soit si spéciale, surtout que nous comprenons mal (individuellement ou collectivement) ce qui nous rend intelligent. Donc il me semble raisonnable de penser qu'une intelligence artificielle, produite à une époque où nous comprendrons mieux l'intelligence et sur un support artificiel propice au raffinement technologique, sera capable de s'auto-améliorer au point de dépasser l'humanité. Pour moi, il ne fait donc guère de doute qu'une super-intelligence artificielle soit possible. Et qu'en conséquence la recherche sur l'éthique artificielle devrait être d'une grande priorité.

Cela arrivera-t-il un jour ? dans un futur proche ? Aucune idée73). Le développement de l'IA a connu des périodes d'enthousiasme (comme maintenant) mais aussi des périodes de désillusions. La variabilité des prédictions incitent certes à prendre au sérieux dès maintenant l'éthique artificielle ainsi que les droits des IAs, mais pas à dire que la superIA est pour demain.

Je pense qu'entre Deep Blue qui a battu Garry Kasparov aux échecs en 1997 et AlphaGo qui a battu Lee Sedol au go en 2016, il y a eu un saut technologique : l'apprentissage profond par les réseaux de neurones. Plutôt que de calculer toutes les possibilités (même pondérées), le réseau de neurones peut évaluer le terrain et filtrer les possibles à explorer. Il possède une intuition artificielle.

Maintenant que l'intuition artificielle est débloquée nous faisons de grands progrès dans certains domaines où nous étions précédemment bloqués (par exemple la reconnaissance d'image), et ce sera bien suffisant pour avoir un impact conséquent sur nos sociétés. Mais ça ne veut pas dire pour autant que tous les problèmes sont maintenant débloqués (même si je ne demande qu'à être surpris, en l'occurrence ^^).

Il ne me semble toutefois pas raisonnable de réduire la production de connaissances à un entrainement de l'intuition. Si je devais parier, je dirais que ce serait comme supposer qu'un ordinateur à la Deep Blue peut facilement faire de la reconnaissance d'images, et qu'il y a (au moins) un saut qualitatif à faire à nouveau. De quelle nature ? Je ne sais pas trop, mais si ça vous intéresse voilà quelques spéculations personnelles…

Admettons que comme le dit Lê le cerveau humain soit un produit de l'évolution par un procédé bayésien. Nos cerveaux peuvent être entrainés à faire certaines tâches, mais des tâches réalisées dans nos civilisations sont littéralement surhumaines puisqu'elles ne pourraient être accomplies séparément par aucun de nous. Nos sociétés (ou plutôt, nos institutions) forment des super-intelligences « artificielles ». L'une de ces superIA se caractérise par sa capacité à produire des connaissances : la communauté scientifique. Notre travail collectif sur plusieurs siècles74) a permis d'utiliser le savoir-faire des humains, de le synthétiser sous une forme ne dépendant pas de son support humain afin qu'il soit transmissible, et d'en tirer une compréhension permettant d'expérimenter et de déduire de plus en plus. La technologie en a été l'un des produits, en plus d'un moyen améliorant en retour les capacité à mesurer et à traiter l'information.

Je pense qu'un tel processus pourrait être mené par une superIA. Peut-être ne sommes-nous qu'un maillon entre les animaux et ce qui vient après ? En tout cas, en temps qu'espèce, nous avons clairement intérêt à réfléchir à comment une telle superIA pourrait avoir des buts compatibles avec les nôtres, avant d'en produire une pour laquelle (par défaut) ce ne sera pas le cas et qui nous balayera75).

1) Qui se reconnaîtra, et que je remercie chaleureusement pour avoir supporté autant de réflexions en si peu de temps.
2) Les points d'exclamation représentent l'enthousiasme de Lê.
3) Précision utile : toutes les croyances ne sont pas religieuses. Nous croyons aussi à la monnaie, au libre-arbitre, aux droits de l'homme, etc. Et ce n'est pas une mauvaise chose, même d'un point de vue rationnel. Voir la conférence Why humans run the world de Yuval Noah Harari.
4) Par exemple dans cette vidéo de Monsieur Phi sur le trilemme d'Agrippa.
5) Je paraphrase ici la proposition XIV de la quatrième partie de l’Éthique de Spinoza. Il faut noter que les scientifiques sont sensibles à la vérité d'un argument parce que leur communauté valorise ce comportement, mais il n'a pas de raison d'être répandu dans toute la société.
6) Ma définition de la rationalité est ici différente de celle de Lê, puisque lui la définit comme étant l'application de la formule de Bayes.
7) A l'instar de la vidéo d'Hygiène Mentale Athéisme, Agnosticisme - Croire ou ne pas croire ?.
8) Même si elle n'est pas suffisante, la justification est nécessaire car « ce qui est affirmé sans preuve peut être nié sans preuve » (Euclide).
9) C'est également le cas pour les « révélations » : pourquoi croire la parole de Dieu ? Parce qu'il dit le vrai ? Mais c'est lui qui le dit… Cela ne réfute ni le déisme ni la science, je rappelle uniquement que dans les deux cas il y a des hypothèses non justifiées, et donc pas de certitude.
10) D'une proposition incohérente on peut déduire immédiatement n'importe quoi, donc il n'y a plus de justification (non-triviale) possible.
11) Elle n'est alors plus « vraie », au sens de correspondance avec le réel, mais nous y reviendrons dans la partie sur le réalisme scientifique.
12) Le fameux « thèse, antithèse, synthèse » utilisé pour les dissertations au bac de philosophie.
13) A ne pas confondre avec la neutralité, voir ce billet de blog d'une heure de peine.
14) Au sens de la vérité-correspondance, détaillée danscette vidéo de Monsieur Phi. Je tiens au passage à signaler qu'il n'est pas impossible que j'ai confondu « vrai » et « prouvé » (Monsieur Phi dirait « valide ») de temps en temps dans cette critique, aussi n'hésitez pas à me le signaler.
15) Et si toutes les théories réfutables ont été réfutées, c'est à dire qu'il n'y a plus de théorie possible ? Cet argument présenté dans le livre me semble peu tenable, car grâce au travail des chercheurs la difficulté est généralement de trancher entre des théories plutôt que de manquer de théories. Mais si aucune théorie en accord avec les observations ne peut être produite, dans ce cas peut-être que cela sera le signe que l'univers n'est pas intelligible. Après tout la science est une tentative d'explication du réel, tentative pour l'instant fructueuse mais non garantie de réussite. Toutefois, Lê et moi adhérons à l'interprétation physique de la thèse de Church-Turing, à savoir que l'univers est une gigantesque machine. Donc même si la réalité est complexe elle n'est pas indescriptible. La question de savoir si l'humanité y arrivera en revanche reste ouverte. Pour moi Lê ne présente cet argument que pour grandir le bayésianisme au détriment de ce qu'il croit être la méthode scientifique. En effet, comme dans le bayésianisme on évalue les théories les unes contre les autres et non contre un critère, il n'y a jamais d'absence de théorie possible. Toutefois, dans le cas où aucune théorie ne serait plus en accord avec les observations, toutes les probabilités associés s'effondreraient (tendraient toutes vers la même valeur nulle, donc deviendraient de fait de plus en plus indiscernables), donc même sans admettre l'interprétation physique de la thèse de Church-Turing, l'interprétation probabiliste n'est pas meilleure dans ce cas précis.
16) Cette interprétation de l'expérience n'est pas de moi, il me semble l'avoir entendue dans une conférence d’Étienne Klein, mais je ne retrouve plus le lien. Un grand merci si quelqu'un retrouve la conférence avec le bon timecode !
17) Proverbe zététique incitant à privilégier par défaut l'explication la plus prosaïque.
18) Souvent critiqué par le fait qu'il pourrait exister deux objets avec les mêmes propriétés… mais ce serait oublier qu'ils partagent (notamment) leurs positions spatio-temporelles. Par définition, s'ils ne peuvent être distingué en aucune façon, c'est bien le même objet.
19) Mathématiquement : Pour tout x et y, x = y si et seulement si pour tout prédicat P, P(x) implique P(y). Et oui, c'est bien implique, car à la place de P on peut prendre non-P et obtenir l'autre sens par contraposée.
20) Par opposition aux sciences historiques (comme l'histoire ou l'astronomie) ou déductives (comme la mathématique, et une bonne partie de la physique et de l'informatique théorique). Je détaille cette distinction dans la sous-section sur le bayésianisme pragmatique.
21) De 5% en sciences expérimentales, et 1% pour les zététiciens.
22) Sur la difficulté de la définition de la probabilité comme fréquence, voir What is the Chance of an Earthquake?.
23) Un nombre arbitrairement grand : million, billion, trillion, etc.
24) Il me semble que j'avais déjà intériorisé cette idée suite à ma lecture des textes d'Eliezer Yudkowsky sur LessWrong, ou de la lecture du livre «L'étoffe de la réalité » de David Deutsch.
25) Donc ce n'est pas tout à fait une extension « unique » de la logique classique à une logique probabiliste, ce qui vient nuancer le propos de Lê.
26) Par exemple, dire que nous savons à 99% qu'une météorite a mis fin aux dinosaures ne dit pas que l'évènement passé était aléatoire en soi, mais ne fait que parler de notre degré de connaissance actuel. J'aborderai le réalisme scientifique et l'incertitude épistémique plus en détail dans la section bonus.
27) En absence totale d'information, c'est le principe d'indifférence (attribuer le même poids aux alternatives) qui est objectif. S'il y a une raison rationnelle d'attribuer d'autres valeurs, ceci constitue alors une information, et dans ce cas cette information doit être également apportée au deuxième mécanisme pour dire que les deux ont bien les mêmes informations, voir précédemment le cas du soleil d'xkcd.
28) Comme précisé dans la première partie, il est normal que deux mécanismes ayant des observations différentes aient des connaissances différentes, mais il s'agit de localité et non de subjectivité.
29) Par sciences historiques, j'entends les disciplines scientifiques où il est possible de faire des mesures (comme l'histoire, la sociologie, l'économie, la biologie évolutionniste ou l'astronomie), mais pas de les répliquer ou de contrôler les variables comme c'est le cas dans les sciences expérimentales.
30) Toutefois, il est possible qu'une super-IA émerge comme ordinateur centralisé, contrairement aux humains qui ne peuvent (pour l'instant) augmenter la taille de leur cerveau.
31) J'ajouterais que contrairement à moi, Lê défend l'importance de partager les mêmes croyances dans une société, ainsi obtenir et communiquer un modèle unique devrait être favorable à la constitution d'un « capital moral ».
32) En passant, comme j'utilise plusieurs fois le mot « fait » dans cette partie, je tiens à préciser que c'est uniquement par commodité. Je ne pense pas qu'un fait existe au sens où la nature nous livrerait spontanément et clairement des informations : la nature ne parle pas seule, elle ne répond que si on l'interroge.
33) N'a valeur que ce que nous croyons qui a valeur, l'adhésion affective nous poussant à croire étant la même que celle nous poussant à désirer. Pour paraphraser Spinoza, nous ne désirons pas une chose parce qu'elle est intrinsèquement bonne, mais nous disons qu'elle est un bien parce que nous la désirons. Ainsi, les valeurs sont un discours sur nos désirs, qui sont produits (de même que les croyances) par les affects.
34) Je réserve plutôt le terme de morale au manichéisme bien/mal, qui correspond à un régime de désirs bipolarisés, voir remarque précédente.
35) Et de plus, je trouve étrange que les gens disent se battre pour une « cause » alors qu'en réalité ils se battent pour une conséquence… Je pense que ce n'est pas qu'une facétie du langage, et qu'elle est due à notre culture imprégnée de la notion d'intentionnalité.
36) Ainsi, le savoir ne se limite pas à des choses qu'on ingère, qu'on restitue, puis qu'on oublie parce qu'elles n'ont aucun lien avec nous.
37) On parle aussi de connaissance (maîtrise/compétence) d'une langue, ou la connaissance (avoir été témoin) d'un fait en particulier, donc il vaut mieux préciser « scientifique » quand le contexte est ambigu, même si cela laisse faussement entendre qu'il y a d'autres formes de connaissance (la « connaissance par révélation » par exemple pour certains religieux).
38) Ce que Spinoza appellerait les affects, voir son Éthique.
39) J'en profite pour m'élever contre la tendance à glorifier à l'excès des personnages illustres faisant l'histoire. Ceux dont nous retenons les noms sont souvent uniquement ceux qui sont au bout d'une longue chaîne de travail, et réduire la science au travail de quelques « génies » serait en ignorer la réalité en temps que collectif de travail. Mettre au contraire en avant que chacun contribue à son échelle me paraît à la fois plus réaliste, et un meilleur message à envoyer aux jeunes chercheurs ou aux citoyens.
40) Voir par exemple la vidéo de Monsieur Phi sur le sujet.
41) En passant, c'est pour cette raison que condamner les chercheurs à la recherche… de financement (ha ha) est un gâchis.
42) De plus en plus, pour certains.
43) Je dois nuancer mon propos par le fait que je n'ai pas l'impression que les grands empires favorisent la pensée scientifique sur le long terme.
44) Je ne l'ai pas encore lu celui-là, mais il me semble qu'il s'agit d'une référence à Against Democracy de Jason Brennan.
45) Je sais que mes propos peuvent choquer certains croyants, aussi je tiens à préciser que j'utilise le mot tribalisme sans connotation négative, et que nous sommes tous des croyants puisque nous avons tous (moi compris) des adhésions affectives.
46) Même si le fait que ces groupes luttent entre eux puissent générer une situation collective pire malgré tout. On peut y voir une sorte de dilemme du prisonnier.
47) Dont je recommande le livre « L'Influence de l'odeur des croissants chauds sur la bonté humaine et autres questions de philosophie morale expérimentale ».
48) Je pinaillerais en indiquant qu'une absence totale de transparence de l'hôpital devrait en soit le rendre trop suspicieux pour être utile.
49) Si le conséquentialisme n'est pas à propos de la connaissance des conséquences mais des conséquences elles-mêmes, il s'agit d'une métaphysique, puisque le fait d'être moral ou non ne dépend pas de la situation dans laquelle nous sommes, mais de quelque chose qui n'est pas (encore) réel pour nous : le futur.
50) Ce qui paradoxalement en ferait presque pour moi une action mauvaise même si le résultat est bon, serait-ce une éthique de la vertu ?
51) Notez que cela n'implique pas nécessairement l'égalitarisme, si celui qui a le moins voit sa position augmenter suite à l'introduction d'une inégalité, par exemple comme dans la théorie de la justice de John Rawls.
52) Surtout si ces désirs sont renforcés par la publicité et la société de consommation, mais c'est un autre sujet.
53) La réalisation de ses désirs n'est pas suffisante puisque les désirs comme le consentement peuvent être fabriqués. Si quelqu'un arrive à forcer autrui à désirer, il ne s'agit plus d'une liberté même s'il y a consentement ou plaisir.
54) On pourrait quand même arguer comme Kant que pour qu'une obligation soit morale elle doit être possible, comme en logique déontique.
55) Il faudrait une fonction d'utilité sur les fonctions d'utilité, etc.
56) Je tiens à signaler que j'estime valide la preuve de l'argument frappant de Michael Huemer, mais pas la conclusion en faveur du réalisme moral. En effet, l'argument permet de déduire l'existence (non constructive) d'un état de l'univers objectivement meilleur, mais n'apporte aucun information sur ce qu'il serait. Ainsi, un univers où un tel état existe n'est pas distinguable d'un univers où un tel état n'existe pas. Donc, à cause du principe d'identité des indiscernables une telle position est équivalente au relativisme moral.
57) Je n'ai pas envie de prendre un point Godwin maiiis… disons que la situation actuelle m'inquiète et que le discours de Lê repris par d'autres ne fait rien pour me rassurer…
58) Encore une fois, efficace… pour quoi faire, et pour qui ?
59) J'ajouterais qu'un « permis de vote » comme proposé dans un Axiome ne viendrait que renforcer cette tendance, sachant que les gens s'autocensurent déjà car ne s'estiment pas légitimes.
60) Pour être constructif, voilà quelques exemples de mesures pour ceux qui souhaiteraient poursuivre ce but : favoriser la démocratie directe (au moins à l'échelle locale) ou la démocratie liquide, utiliser le référendum populaire, le tirage au sort et le mandat impératif, rendre gratuit l'éducation et l'accès aux publications scientifiques, donner un statut et un financement aux vulgarisateurs, favoriser une presse indépendante et supprimer la publicité (économie de l'attention), libérer du temps pour les gens en réduisant les heures de travail, leur assurer une autonomie économique par un revenu de base suffisant ou un salaire à vie (qui serviraient notamment de bourse étudiante et de misthos, c'est à dire de moyen de se consacrer à la vie publique), etc.
61) Ce qui me paraît étrange : par la guillotine de Hume, la moralité n'est pas une compétence. Au mieux, ce qui peut être amélioré sont la connaissance des conséquences ainsi que la cohérence dans ses désirs, ce qui (soyons clair) est déjà pas mal. :-)
62) Par exemple, dans ce passage d'Axiome, Lê, tu penses que ton moi++ serait d'accord avec toi ? Mais comment pourrais-tu le savoir, surtout au vu de ta propre évolution morale ? Et tu dis carrément que YouTube devrait manipuler les gens (pour qu'ils suivent ce à quoi, toi, tu aspires)… qu'on ne peut pas se fonder sur ce que les gens veulent (parce qu'ils ne veulent pas la même chose que toi)… que si les gens avaient davantage réfléchi, ils seraient d'accord avec toi (car tu as « raison »)… et qu'il n'est pas efficace d'expliquer aux humains, qu'il vaut mieux qu'une IA les pousse à se comporter comme si on leur avait expliqué… Ton futur désirable me semble monstrueux, désolé. :-(
63) Par exemple, il me semble qu'il est douteux de dire que le troc ait existé en tant que tel. Il me paraît également assez critiquable que l'économie de marché permette effectivement d'aligner les intérêts individuels avec l'intérêt collectif, ne serait que parce qu'il faut des hypothèses (parfois non réalistes), que les intérêts personnels ne se réduisent pas aux intérêt marchands, et que la notion d'intérêt collectif mériterait un accord préalable. Enfin, dire que c'est l'économie de marché qui a permis la division et donc la spécialisation du travail me semble juste faux. La division du travail est apparue avec le surplus agricole et l'organisation politique des premières cités (par exemple, les scribes en Égypte). En revanche, dire que l'économie capitaliste a accru la division du travail me paraît plus raisonnable, encore qu'il faudrait tout un article pour préciser proprement ce que nous pourrions entendre par là
64) Et c'est un problème que j'ai encore plus avec Bruce Benamran de la chaîne e-penser, qui a la fâcheuse manie de traiter de génies les gens du passé s'ils avaient des intuitions (sans forcément de raisons) conformes à notre compréhension actuelle de l'univers, et de crétins ceux qui avaient des propos différents même s'ils avaient à l'époque de bonnes raisons de le penser. Je me joins notamment à Monsieur Phi pour qu'on arrête le « Aristote-bashing ».
65) Une version qu'on trouve plus couramment dans le discours public est d'accuser son adversaire de faire de l'idéologie. Je trouve que le terme est utilisé toujours négativement sans vraiment être défini, même par les vulgarisateurs, aussi je voudrais m'y attarder un peu. Une idéologie n'est qu'un système d'idées, avec des contenus descriptifs (ce qui est) et des contenus prescriptifs (ce qu'il faudrait). Ce n'est pas un gros mot. Oui, il ne faut pas que nos valeurs nous empêchent de recueillir et d'analyser les informations, c'est à dire que le prescriptif obscurcisse le descriptif. Mais cela étant dit, nous avons tous une idéologie, même ceux qui affirment ne pas en avoir et n'être que pragmatiques. Ceux-là ne font que profiter du fait que l'idéologie dominante est à ce point omniprésente qu'elle en devient invisible et naturelle. Quelqu'un de « non-politisé » en réalité reprendra souvent à son compte des idées de l'idéologie dominante sans les avoir préalablement remises en question. Et j'insiste encore une fois sur le fait que le contenu descriptif d'une idéologie peut se révéler incorrect au vue de l'état de l'art en science, mais en revanche le contenu prescriptif est juste un but collectif recherché par les gens qui y adhèrent, que ce soient les royalistes, les libéraux, les socialistes, les fascistes, les anarchistes, etc.
66) J'apprécierais d'ailleurs que des philosophes me disent si le principe de causalité est la même chose que le principe de raison suffisante.
67) Je n'aime pas le terme de « génie » car il place ces gens au-dessus des autres au nom de propriétés innés. La science est un travail collectif, pas le fruit de grands hommes. Et je pense qu'il faut mettre en avant le travail fourni par ces « génies » davantage que sur leurs qualités comme « la bosse des maths » ou autre superstitions qui consolent de ne pas comprendre. Je pense que Lê ne serait pas en désaccord avec ça, mais qu'il a tendance pourtant à soutenir le cliché du « génie » dans sa façon de communiquer.
68) Ce qui certes contredit le mythe du libre-arbitre. Mais cela ne signifie pas pour autant que nous ne faisons pas de choix, même si j'entends ici le mot « choix » en un sens spinozien de victoire d'un affect sur les autres pour la prise de décisions. Ainsi « les hommes se croient libres parce qu'ils ont conscience de leur choix mais pas des causes qui les déterminent. »
69) En passant, Lê dit plusieurs fois qu'il ne faut pas dire « Je ne sais pas » et à la place oser parier. Mais, en acceptant les limites de son ignorance, il décide quand même de dire « je ne sais pas » quant aux interprétations de la physique quantique.
70) En particulier, la violation des inégalités de Bell conduit à devoir éliminer au moins l'une des trois propriétés parmi le déterminisme, la localité, et la définissabilité contrefactuelle. C'est cette dernière qui est la plus suspicieuse à mes yeux car selon les inégalités de Heisenberg il n'y a pas de sens physique à manipuler dans les équations des couples (vitesse, position) définis. Je trouve d'ailleurs intéressant le point de vue de considérer la position et la vitesse non comme des propriétés intrinsèques de l'objet mais comme des propriétés contextuelles. Ainsi, les inégalités de Heisenberg pourraient être interprétées comme le fait qu'il est impossible de stocker toutes les informations contextuelles uniquement localement. Mais je n'ai pas étudié le sujet, donc mon avis n'a guère de valeur en l'occurrence.
71) Et plus précisément, je crois que la seule chose qui existe, c'est l'information (voir ma vidéo sur tau). J'utilise pour cela l'identité des indiscernables (de Leibniz), à savoir que deux objets ne pouvant être distingués par une expérience (donc ayant les mêmes propriétés) doivent être considérés comme un seul objet. L'équation d'un objet détermine ses interactions possibles, donc définit un seul objet. Pour moi, c'est l'équation qui existe, concept analogue au « logos » grec. Selon moi, une théorie scientifique est une simulation du monde qui tourne dans nos cerveaux. Et selon l'identité des indiscernables, le monde ne pourrait être distingué d'une simulation parfaite, donc en ce sens seule l'information existe.
72) J'ai envie d'ajouter (et Lê sera d'accord, je pense) que nos modèles sont nécessairement incomplets.
73) Pour moi, cela dépend surtout de si notre civilisation va s'effondrer (ou non) à cause de la crise écologique et de ressources provoquées par nos systèmes politiques et économiques.
74) Oui, pas des millénaires, car nous n'avons pas toujours été scientifiques.
75) Sans méchanceté, juste que nous pourrions être une gêne pour son but, ou simplement parce que nous sommes constitués de matériaux utiles.