Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
Prochaine révision Les deux révisions suivantes
fr:reflexion:formule-savoir [2018/11/24 17:41]
apeiron [Technocratie contre démocratie]
fr:reflexion:formule-savoir [2018/11/28 15:24]
apeiron [Technocratie contre démocratie]
Ligne 21: Ligne 21:
 ====== La méthode scientifique ====== ====== La méthode scientifique ======
  
-Au vu de l'​acharnement de Lê tout au long de son livre à opposer la pensée bayésienne à ce qu'il appelle la << méthode scientifique >>, et à grandir la première en dévalorisant la seconde, il m'a semblé utile de cadrer la discussion en revenant sur ce qu'est la méthode scientifique,​ et notamment le (si décrié dans le livre) critère de réfutabilité de Popper. ​Et notamment, nous verrons que si, les scientifiques appliquent bien la << méthode scientifique >>, et qu'ils le font pour de bonnes raisons ​et pas seulement ​(!) à cause de la pression des pairs...+Au vu de l'​acharnement de Lê tout au long de son livre à opposer la pensée bayésienne à ce qu'il appelle la << méthode scientifique >>, et à grandir la première en dévalorisant la seconde, il m'a semblé utile de cadrer la discussion en revenant sur ce qu'est la méthode scientifique,​ et notamment le (si décrié dans le livre) critère de réfutabilité de Popper. ​Notamment, nous verrons quesi, les scientifiques appliquent bien la << méthode scientifique >>, et qu'ils le font pour de bonnes raisons ​(pas seulement ​:-? à cause de la pression des pairs).
  
  
Ligne 243: Ligne 243:
 ===== Technocratie contre démocratie ​ ===== ===== Technocratie contre démocratie ​ =====
  
-Oui, dans le titre j'ai utilisé le mot commun //​technocratie//,​ c'est à dire le gouvernement des experts, et non le mot [[https://​www.youtube.com/​watch?​v=7yztDRsarcY|épistocratie]] forgé par Lê. Selon lui, par exemple, Wikipédia est épistocratique car la capacité d'​édition est proportionnelle à l'​influence,​ ce qui se rapprocherait de l'​idée bayésienne de donner un poids plus important aux meilleurs modèles. Même si cela était vrai, il n'y a pas de raison que la << meilleure >> manière de fabriquer des connaissances soit nécessairement la << meilleure >> façon de gérer la vie politique. En particulier,​ il ne faut confondre fabriquer / utiliser l'​état de l'art en science, et fixer les buts de la société.+Oui, dans le titre j'ai utilisé le mot commun //​technocratie//,​ c'est à dire le gouvernement des experts, et non le mot [[https://​www.youtube.com/​watch?​v=7yztDRsarcY|épistocratie]] forgé par Lê. Selon lui, par exemple, Wikipédia est épistocratique car la capacité d'​édition est proportionnelle à l'​influence,​ ce qui se rapprocherait de l'​idée bayésienne de donner un poids plus important aux meilleurs modèles. Même si cela était vrai, il n'y a pas de raison que la << meilleure >> manière de fabriquer des connaissances soit nécessairement la << meilleure >> façon de gérer la vie politique. En particulier,​ il ne faut pas confondre fabriquer / utiliser l'​état de l'art en science, et fixer les buts de la société.
  
 Mais je ne suis pas convaincu que ce soit LA raison pour laquelle Wikipédia a autant de succès. Je suis davantage convaincu par [[https://​www.youtube.com/​watch?​v=_W0CK0TRWc8|cette vidéo]] d'​Hygiène mentale qui insiste sur le fait que Wikipédia fonctionne en raison de ses principes fondateurs. [[https://​www.les-crises.fr/​lordon-sur-france-culture/​|Les gens se comportent comme les institutions les déterminent]],​ et c'est bien pour cela que je suis d'​accord avec Lê sur le fait que les institutions doivent fournir des incitations pour produire les comportements (et en particulier ceux qu'​elles supposent). Wikipédia laisse la liberté à ses utilisateurs de faire des modifications,​ et le cadre donné permet à ces modifications de converger vers une encyclopédie écrite par tous et d'​excellente qualité. Mais je ne suis pas convaincu que ce soit LA raison pour laquelle Wikipédia a autant de succès. Je suis davantage convaincu par [[https://​www.youtube.com/​watch?​v=_W0CK0TRWc8|cette vidéo]] d'​Hygiène mentale qui insiste sur le fait que Wikipédia fonctionne en raison de ses principes fondateurs. [[https://​www.les-crises.fr/​lordon-sur-france-culture/​|Les gens se comportent comme les institutions les déterminent]],​ et c'est bien pour cela que je suis d'​accord avec Lê sur le fait que les institutions doivent fournir des incitations pour produire les comportements (et en particulier ceux qu'​elles supposent). Wikipédia laisse la liberté à ses utilisateurs de faire des modifications,​ et le cadre donné permet à ces modifications de converger vers une encyclopédie écrite par tous et d'​excellente qualité.
Ligne 267: Ligne 267:
 Enfin, Lê dit que s'il existait une personne bienveillante et plus compétente il voudrait qu'​elle décide pour lui, mais aussi (et c'est surtout ça qui me choque) pour les autres. Déjà, il s'agit d'un argument royaliste classique, ayant le contre-argument tout aussi classique : comment, sans pouvoir, peux-tu t'​assurer que le dirigeant restera compétent et bienveillant à ton égard ? Pour garantir que les intérêts soient bien alignés, il suppose une IA avec une << bonne >> morale (problème non résolu à ce jour), ou alors un //moi++// c'est à dire une version de soi ayant eu suffisamment de temps et d'​information pour gagner en moralité((Ce qui me paraît étrange : par la guillotine de Hume, la moralité n'est pas une compétence. Au mieux, ce qui peut être amélioré sont la connaissance des conséquences ainsi que la cohérence dans ses désirs, ce qui (soyons clair) est déjà pas mal. :-))). Mais je pense que le moi++, au sens où l'​entend Lê, n'a pas de raison de converger. Simuler les << soi >> futurs, c'est juste tenter d'​estimer sa propre évolution dans de bonnes conditions. Or, de nouvelles expériences vont me faire évoluer, et il n'est pas clair que selon ces expériences,​ je n'​évolue pas dans des directions (et donc des moralités) opposées. Enfin, Lê dit que s'il existait une personne bienveillante et plus compétente il voudrait qu'​elle décide pour lui, mais aussi (et c'est surtout ça qui me choque) pour les autres. Déjà, il s'agit d'un argument royaliste classique, ayant le contre-argument tout aussi classique : comment, sans pouvoir, peux-tu t'​assurer que le dirigeant restera compétent et bienveillant à ton égard ? Pour garantir que les intérêts soient bien alignés, il suppose une IA avec une << bonne >> morale (problème non résolu à ce jour), ou alors un //moi++// c'est à dire une version de soi ayant eu suffisamment de temps et d'​information pour gagner en moralité((Ce qui me paraît étrange : par la guillotine de Hume, la moralité n'est pas une compétence. Au mieux, ce qui peut être amélioré sont la connaissance des conséquences ainsi que la cohérence dans ses désirs, ce qui (soyons clair) est déjà pas mal. :-))). Mais je pense que le moi++, au sens où l'​entend Lê, n'a pas de raison de converger. Simuler les << soi >> futurs, c'est juste tenter d'​estimer sa propre évolution dans de bonnes conditions. Or, de nouvelles expériences vont me faire évoluer, et il n'est pas clair que selon ces expériences,​ je n'​évolue pas dans des directions (et donc des moralités) opposées.
  
-En fait, j'ai l'​impression que Lê cherche surtout à formaliser une notion de supériorité morale, pas seulement pour le dépassement de soi, mais aussi pour imposer sa notion de la moralité aux autres((Par exemple, dans [[https://​youtu.be/​YqPf2iufTZA?​t=12928|ce passage d'​Axiome]],​ Lê, tu penses que ton moi++ serait d'​accord avec toi ? Mais comment pourrais-tu le savoir, surtout au vu de ta propre évolution morale ? Et tu dis carrément que YouTube devrait manipuler les gens (pour qu'ils suivent ce à quoi, toi, tu aspires)... qu'on ne peut pas se fonder sur ce que les gens veulent (parce qu'ils ne veulent pas la même chose que toi)... que si les gens avaient davantage réfléchi, ils seraient d'​accord avec toi (car tu as << raison >>​)... et qu'il n'est pas efficace d'​expliquer aux humains, qu'il vaut mieux qu'une IA les pousse à se comporter comme si on leur avait expliqué... Ton futur désirable me semble monstrueux, désolé. :-()). Il me semble qu'il s'agit de ce que mon vieux professeur d'​épistémologie (Nicolas Bouleau) appelait le << préjugé de supériorité analytique >>, un biais consistant à supposer que si les autres soutiennent un avis avec lequel on n'est pas d'​accord c'est qu'ils sont irrationnels (par exemple, les scientifiques ne sont poppériens que par la pression des pairs, les gens croient en la démocratie uniquement par endoctrinement scolaire, etc.). Désolé, mais il peut arriver que d'​autres soient en désaccord avec toi //aussi// pour de bonnes raisons, que ce n'est pas juste que tu n'as pas assez [[https://​www.youtube.com/​watch?​v=1kBy0NhalGw|fait preuve de pédagogie]]. Et j'​ajouterais que je ne trouve moral que tu sois prêt à manipuler les autres <​del>​pour leur bien</​del>​ selon l'​idée que __tu__ te fais du bien.+En fait, j'ai l'​impression que Lê cherche surtout à formaliser une notion de supériorité morale, pas seulement pour le dépassement de soi, mais aussi pour imposer sa notion de la moralité aux autres((Par exemple, dans [[https://​youtu.be/​YqPf2iufTZA?​t=12928|ce passage d'​Axiome]],​ Lê, tu penses que ton moi++ serait d'​accord avec toi ? Mais comment pourrais-tu le savoir, surtout au vu de ta propre évolution morale ? Et tu dis carrément que YouTube devrait manipuler les gens (pour qu'ils suivent ce à quoi, toi, tu aspires)... qu'on ne peut pas se fonder sur ce que les gens veulent (parce qu'ils ne veulent pas la même chose que toi)... que si les gens avaient davantage réfléchi, ils seraient d'​accord avec toi (car tu as << raison >>​)... et qu'il n'est pas efficace d'​expliquer aux humains, qu'il vaut mieux qu'une IA les pousse à se comporter comme si on leur avait expliqué... Ton futur désirable me semble monstrueux, désolé. :-()). Il me semble qu'il s'agit de ce que mon vieux professeur d'​épistémologie (Nicolas Bouleau) appelait le << préjugé de supériorité analytique >>, un biais consistant à supposer que si les autres soutiennent un avis avec lequel on n'est pas d'​accord c'est qu'ils sont irrationnels (par exemple, les scientifiques ne sont poppériens que par la pression des pairs, les gens croient en la démocratie uniquement par endoctrinement scolaire, etc.). Désolé, mais il peut arriver que d'​autres soient en désaccord avec toi //aussi// pour de bonnes raisons, que ce n'est pas juste que tu n'as pas assez [[https://​www.youtube.com/​watch?​v=1kBy0NhalGw|fait preuve de pédagogie]]. Et j'​ajouterais que je ne trouve ​pas moral que tu sois prêt à manipuler les autres <​del>​pour leur bien</​del>​ selon l'​idée que __tu__ te fais du bien.
  
 ====== Critiques ====== ====== Critiques ======