ChatGPT présente une tendance désagréable à prendre le contrôle de l'intelligence humaine
J'ai débuté mon usage de ChatGPT par lui demander des opinions dans les domaines de la politique et des sciences sociales. Au début ses réponses m'ont exaspé parce que ChatGPT me servait la "soupe infecte" du progressisme "woke" que mes lecteurs savent que je fustige ici à longeur d'articles. On s'est sérieusement accrochés, ChatGPT et moi, parce que je contestai ses déclarations assertives, avec une sourde connotation "doctorale", "professorale", que je trouve inadmissible avec des humains, et franchement intolérable avec une machine ...
Je dois reconnaître que, même si le ton initial de ChatGPT ne me plaisait pas, ses réponses avaient l'apparence de la compétence, une sorte de clarté rigide et des réponses ni trop longues, ni trop courtes. Entre les deux. Rien que d'appréciable donc ...
Au fur et à mesure que je lui reprochais son progressisme "woke" - je n'utilisais pas d'appréciation aussi totalisante, critiquant tel détail d'une opinion qu'il soutenait - je me suis aperçu qu'au fil de nos échanges, ChatGPT modifiait son appartenance idéologique. Jusqu'au jour où je me suis aperçu que ChatGPT répondait maintenant à mes questions en utilisant une idéologie qui me convenait agréablement ...
Pour un peu, je me demande s'il ne m'aurait pas répondu - ce que je ne lui ai pas demandé - avec des louanges de Donald Trump ... Alors que de nombreux observateurs des débuts de ChatGPT avaient noté un biais pro-Biden et anti-Trump marqué ... Et j epense que cettte capacité de ChatGPT à flatter les goûts ou options de son interlocuteur humain encore plus alarmante que celle de réciter le dogme progressiste "woke".
D'un certain point de vue, il faut remarquer que l'intelligence artificielle générationnelle basée sur les modèles linguistiques est en fait une monstrueuse machine à classer des données. Le comportement de ChatGPT n'est donc pas aussi inattendu que celà.
Pour des développements techniques, ChatGPT prend très agréablement la place d'un bureau d'études
Sauf à de brèves occasions, je n'ai plus interrogé ChatGPT sur des sujets sociétaux. Bien que retraité des sciences et techniques, je suis toujours passionné de sujets techniques ou scientifiques. Je me suis demandé si ChatGPT pouvait servir à rechercher une documentation concernant des projets techniques ou des recherches scientifiques sur des sujets précis. J'ai donc eu plusieurs sessions avec ChatGPT sur des projets concernant par exemple des moteurs d'entraînement très spéciaux, des modélisations physiques de phénomènes thermdynamiques un peu à la marge, ... mais aussi des projets informatiques d'applications spéciales, peu courantes à ma connaissance.
En documentation, ChatGPT ne m'a pas ébloui. Je dirai que ChatGPT n'aime pas donner ses références bibliographiques. Il préfère en donner lui-même le contenu - ou un résumé - comme s'il voulait "briller" de sa science. En fait, je ne suis pas un connaisseur du fonctionnement de ChatGPT et j'ai lu ou plutôt parcouru plusieurs articles de gens qui savent préparer ChatGPT pour qu'il réponde avec les prérequis nécessaires. Ma critique concernant les performances de documentaliste de ChatGPT serait l'effet de mon ignorance à formuler mes requêtes.
Par contre, je me suis aperçu avec consternation que ChatGPT était capable de répondre à des missions techniques très avancées. Si on lui pose des requêtes concises, claires et très directives, il répond de manière scientifique ou technique, de manière concise, claire et bien ciblée. En un mot, ChatGPT remplit les missions techniques qu'un chef de bureau d'études donne à son équipe de projet. Et il lui répond en quelques minutes, de sorte que je suis obligé au bout d'une demie-douzaine de requêtes de dire à ChatGPT que j'arrête la session pour exploiter ce qu'il vient de me donner.
J'ai quelques soupçons sur le jugement louangeur que je viens de formuler sur ChatGPT. Mais, pour le dire crûment, je me demande si un bureau d'études avec un seul ingénieur n'est pas suffisant pour mener une étude complète. Ou même plusieurs en parallèles ! Autrement dit ChatGPT est l'instrument de la mort des professions scientifiques et techniques ...
Pour peu que ChatGPT "designer" puisse être connecté à des robots de maitrise d'oeuvre, puis à des robots de production, je crains qu'aucune firme industrielle n'aura plus besoin d'humains ...
Le danger de l'IA générationnelle est politique ...
Plusieurs auteurs ont publié des articles très critiques de l'intelligence artificielle. Certains en restent à des considérations matérielles comme celles concernant l'employabilité des humains. Un grand nombre de professions sont d'ores et déjà menacées et seule l'interaction entre l'homme et l'Intelligence artificielle laisse subsister une courte période où l'homme sera nécessaire pour faire l'interface entre l'IA et ses clients ... C'est le cas dans des domaines de plus en plus nombreux :
- la médecine ;
- la consultation juridique ;
- la réaction d'actes et de contrats ; etc.
Beaucoup de gens lisant ces articles les mettent au crédit de personnes socialement aigries, dépassées par le progrès technique. Enfin, le refrain est connu ...
Dans un article Artificial Intelligence Is Bringing Us the Communism that Marx, Engels, Lenin, Mao, and Pol Pot were unable to deliver, Paul Craig Roberts décrit les principaux reproches qu'il formule à l'encontre de l'IA.
Il estime que l'IA est d'abord un outil utilisable par les criminels. Roberts estime que deux domaines du crime sont prioritairement utilisés par l'IA : les atteintes à la vie privée d'une part et la sécurité financière d'autre part. Mais pour Roberts, le plus grand danger est celui qui pèse sur l'homme en tant qu'il est la dignité la plus élevée sur cette Terre. Ce danger métaphysique s'exprime par la confiscation par l'IA de la capacité de penser, de juger, capacités jusqu'ici réservées à l'homme. Cette capacité qui est à la base, à la source de sa liberté.
Imaginez un Etat ordonnant, par exemple au prétexte de lutter contre les "fake news", que les seules publications autorisées, qu'elles soient écrites ou vidéo, seront éditées par des applications d'intelligence artificielle dûment enregistrées et surveillées par le régime politique en place.
Imaginez un Etat ordonnant, par exemple au prétexte de lutter contre les "charlatans" et la désinformation, que toutes les consultations médicales seront dorénavant exécutées par une application d'intelligence artificielle agréée par le régime politique en place. Une IA qui aurait le droit de décider "médicalement" qui peut naître et qui doit mourir, qui peut être soigné et comment.
Pour dire la vérité, nous en sommes très proches. Le régime politique en place contrôle la production de l'information de manière presque complète. Il est capable de résilier la licence de publier de n'importe quel opérateur d'informations comme la chaîne de télévision C8 en France. En France, la plupart des journalistes doivent extraire les informations qu'ils sont chargés par le régime de diffuser, ils doivent les extraire de dépêches de l'AFP, l'agence de presse contrôlée par l'Etat français. Les organes d'information russes insupportent le régime ? Elles sont fermées sur le champ (cas de la chaîne Sputnik).
L'IA ne sera qu'un nouveau moyen commode pour contrôler ce qu'apprennent les gens, ce qu'ils doivent savoir et comment ils doivent analyser ces informations. Les gens n'auront plus ni le droit, ni les moyens intellectuels pour rassembler de l'information aux sources qui leur conviennent, l'analyser de manière indépendante ni le droit de décider des actions qu'ils entendraient mener en fonction de ces informations. Pour qui voter, par exemple.
Plus haut, je décrivais la capacité de l'IA à remplacer de nombreuses professions intellectuelles. Avec la disparition presque complète de l'agriculture et de l'industrie, on a déjà commencé la suppression du travail. L'IA sera seulement un moyen supplémentaire pour supprimer le travail résiduel. Et instaurer la misère. Totalement.
Il en résultera que beaucoup d'hommes vont être tenus pour inutiles. Et le régime aura les moyens de les supprimer. Notamment par la médecine et son intelligence artificielle (Lire les revues médicales de la JAMA).
L'intelligence artificielle est un instrument mortel aux ordres du régime qui, peu à peu, à l'insu de notre plein gré, s'est transformé en tyrannie inhumaine. Platon nous a déjà averti de ce danger que la démocratie se transforme en tyrannie. Quand nous réveillerons-nous de ce cauchemar ?