Mon avis sur chatGPT

Resume
Vous l’aurez sans doute remarqué, mais j’utilise de plus en plus chatGPT. Je me suis donc dit qu’il serait intéressant de donner mon avis d’utilisateur lambda sur les IA génératives
Préambule
Par facilité, dans cet article je vais employer le terme d’IA. Cependant je tiens à souligner que ce terme est impropre et désigne davantage une réalité marketing que techniques. Voici d’ailleurs la seule définition d’IA qui pour moi tient la route à travers le temps : Type d’algorithme tellement nouveau que personne pas même ses concepteurs, ne sait réellement comment il fonctionne et ce qu’il peut faire (et ne pas faire).
En effet ce n’est pas la première ‘révolution’ de l’IA que l’on vit. Tous les 10 ans environs on fait une percée en algorithmie qui permet de faire des choses que l’on pensait impossible. Les marketeux, les startupeur et autre escroc œuvrant pour le bien-être de l’humanité hurlent à qui veulent bien leur tendre un micro que la singularité est à nos portes et qu’en échange d’un tout petit milliard d’euros d’investissement dans leur pyramide de ponzy entreprise disruptive, on aura l’avènement du paradis sur Terre, la richesse et le retour de l’être aimé.
Puis le temps passe, et ses nouveaux algorithmes sont utilisés pour créer de vrais produits, qui sont vendus à de vrais clients et qui génèrent de la vraie valeur (et de vraies nuisances).
Oui en théorie, on pourrait utiliser ses progrès techniques pour réduire les nuisances et les pollutions sans avoir à diminuer la production, mais en pratique, on ne le fait jamais.
C’est l’une des raisons pour laquelle penser que la technique va à elle seule régler nos problèmes écologiques est une folie. Même si elle en avait la capacité (ce qu’à priori elle n’a pas), encore faudrait-il que l’on décide de l’utiliser à cette fin. Ou même simplement que l’on paye des ingénieurs et des chercheurs pour faire des recherches en ce sens.
Mais, bref, une fois la technologie largement comprise et utilisée, on cesse de parler d’IA et on donne à ses nouveaux programmes un nom qui reflète mieux leur vraie nature. Rien n’indique que les choses seront différentes cette fois-ci. Cependant, j’ignore quel nom sera finalement choisi et je suis moi-même très mauvais pour nommer les choses. Donc, je vais me contenter d’utiliser ce terme impropre.
L’utilité des IA
Le présent
Déjà, commençons par faire l’état des lieux de ce que peut faire l’IA actuellement.
Pour le codage
En codage, ChatGPT aide vraiment à condition qu’on le considère comme un humain avec ses défauts et ses qualités et non comme un dieu omniscient. Et pas n’importe quel humain. ChatGPT est un humain avec une mémoire encyclopédique mais un peu borné, incapable de trouver des solutions innovantes et un yes man. Quand il propose un truc, qu’on lui dit que ça ne marche pas, il propose une voie pour le résoudre, mais si cette voie ne marche pas, il se contentera de proposer de ressayer en boucle cette solution qui ne marche pas.
C’est à vous humain d’imaginer un processus de résolution alternatif. ChatGPT c’est votre collègue de 50 ans qui a une connaissance inouïe, mais un gros orgueil et qui est incapable de s’adapter à de nouvelles façons de faire. Et, surtout incapable d’envisager qu’il pourrait avoir tort, à moins de simplifier tellement le problème qu’il ne restera que cette solution à envisager (et encore).
En un mot c’est un prof (mais un excellent professeur). Travailler avec lui est très utile à condition que l’on sache comment le prendre. Si vous vous attendez à ce qu’il fasse le travail à votre place, il va vous faire perdre votre temps. Toutefois, il peut vous apprendre mieux que n’importe quel tutoriel en ligne comment le faire.
Et bien sûr il peut faire à votre place les taches de codage les plus rébarbatives. A noter toutefois que dans un premier temps, les débutant devrait éviter de trop faire appel à cette fonction, car la répétition de ses petites taches rébarbatives permette d’acquérir des automatismes et des connaissances de base qui sont extrêmement utiles.
Pour la traduction
Pour la traduction, c'est juste génial et à moins de s’appeler Disney et de vouloir des traductions avec haut niveau de qualité artistique, je ne vois plus l’intérêt de faire appel à des traducteurs professionnels. Du moins entre l’anglais et le français. Pour les langues moins connues ou très différentes comme le japonais, je ne sais pas.
Pour l’écriture
Pour la relecture orthographique, des outils spécialisés comme LanguageTool sont moins chers et fournissent un travail de meilleure qualité. Pas parce qu’il est mauvais en orthographe, mais parce qu’il a une très forte tendance à modifier le sens du texte (même quand on lui demande explicitement de juste corriger l’orthographe et de ne rien modifier d’autre). Et aussi parce qu’il n’existe pas à l’heure actuelle de moyen de l’utiliser nativement dans world ou LibreOffice. Cela implique que l’on ne peut pas l’utiliser sans détruire la mise en forme de son texte.
Pour obtenir un avis sur un texte et des conseils d’écriture, c’est très variable, mais en général, c'est de la merde. De base, il veut absolument que vous modifiiez votre texte pour adopter le style que je trouve particulièrement détestable des journalistes. Vous savez ce style, sans vie qui essaye de faire croire qu’il n’a pas d’opinion propre, qu’il est neutre et objectif. Qui essaye de ne prendre aucun parti et de ne surtout froisser personne.
Personnellement, je trouve que ce style est l’équivalent littéraire d’un yaourt nature industrielle. Ce n’est pas mauvais en soi, mais ça n’a pas vraiment de goût. Bien sûr, vous me direz que l’on peut demander aux chabots de changer de personnalité, mais je n’ai pas trouvé de moyen pour qu’il incarne un rôle de correcteur qui me convienne (mais c’est peut-être moi qui suis incompétent).
Pour des articles parlants politiques, c'est agaçant, mais pour des romans, c'est rédhibitoire.
Par exemple, lorsque, j’ai essayé de lui demander un avis sur le premier chapitre de ma fanfic Harry Dursley, il a été traumatisé que mon Harry de 6 ans traite Dudley de ‘gros qui pue’. Il m’a conseillé de changer les dialogues du jeune Harry de 6 ans pour qu’ils apparaissent moins immatures et vexants, alors que c’était bien entendu volontaire de ma part de le faire s’exprimer comme un jeune enfant.
Ça, c'est pour la forme, mais le plus problématique, c'est qu’il refuse de se prononcer sur le fond. Ou alors il fera une critique basée sur ce que je lui ai moi-même dit.
Cependant, parfois, il a des idées de reformulation ou de réagencement qui améliorent beaucoup la clarté. Mais c’est rare. Par contre je trouve qu’il est très utile pour la recherche de sources. Il permet de gagner du temps sur cette activité. Par contre à moins que vous ne disiez une grosse connerie n’espérez pas qu’il vous dise que ce que vous dite est faux ou illogique. Pour chatGPT le client a toujours raison. Vérifier donc bien les sources qu’il vous donne des fois qu’elles mènent à un site qui n’existe pas ou qu’elles disent l’inverse de ce que chatGPT annonce (et donc que votre article contient une fausse information à supprimer qui vous avait échappé).
Pour la génération d’image
Techniquement
Pour la génération d’image ou de vidéo, je pense que les graphistes et autres métiers de l’audiovisuel n’ont aucun souci à se faire avant de nombreuses années.
Il génère de bonnes images, mais impossible de lui demander de modifier les détails que l’on souhaite.
C’est un outil qui permet à des gens sans bagages de créer de belles choses et une aide pour avoir de l’inspiration, mais impossible d’avoir une image qui réponde au niveau de détail exigé dans la publicité ou le jeu vidéo (mais ne travaillant pas dans ces domaines, je me trompe peut-être).
Pour moi, dans le domaine de l’audiovisuel, l’IA ne vient pas disrupter un marché existant, mais en créer un nouveau. Un peu comme la photographie qui n’a pas fait disparaitre la peinture, mais à permis à monsieur tout le monde d’avoir des images de lui et a ainsi crée un marché parallèle répondant à des besoins autres que celui de la peinture (même si j’ai conscience que l’analogie marche imparfaitement vu que l’invention de la photographie a beaucoup modifié la manière dont on fait de la peinture).
Petite astuce : ne lui demandez pas directement de générer des images, mais des textes décrivant précisément l’image que vous voulez. La génération d’image prend beaucoup de temps et une fois qu’il l’aura fait, il refusera de changer d’approche. Pour obtenir un bon résultat, il est donc primordial d’échanger avec ChatGPT sur ce que vous voulez.
D’ailleurs, n’hésitez pas à lui préciser le style (peinture, pastel, style BD franco-belges,….)
Politiquement
Mais lorsque l’on parle de génération d’image les objections, les plus courantes ne portent pas sur la capacité d l’IA à faire de belle images mais sur des problèmes éthiques. Notamment sur le respect du droit d’auteur
En ce qui me concerne, je suis contre les droits de propriétés intellectuelle et c’est pour cela que tous les contenus (médiocres) que je publie sont sous licence créative Common. Mais expliquer cette position nécessiterait un article entier. Je vais donc me contenter de vous rediriger vers cette vidéo: La propriété intellectuelle #TraitdEsprit 14 et résumer ma position en disant qu’il serait plus juste de renommer les droits d’auteur en droits des producteurs étant donné que la plupart du temps le droit d’auteur est utilisé pour prendre de l’argent aux auteur et non pour leur en donner (C’est d’ailleurs très visible sur YouTube).
Pour moi si on se préoccupe vraiment du sort des artistes il faut combattre le droit d’auteur et non le défendre. Pour moi si on veut défendre les artistes face aux changements bien réels qu’elle va provoquer, ce n’est pas un droit protégeant les droits d’auteur qu’il faut, mais un droit protégeant les artistes.
Et ça c’est un combat qui ne date pas de l’IA. En effet les producteurs n’ont pas attendu l’IA pour sous payer (voir ne pas payer du tout) les artistes. Ou pour leur imposer des conditions de travail démentiel. Pour moi ce n’est pas sur l’utilisation ou non de l’IA qu’il faut se focaliser mais sur le soutien aux syndicats des artistes. Si vous voulez les aider tenez-vous informer des mouvements sociaux via des médias comme : rapports de force ou orig a mi (pour le jeu-vidéo) et soutenez-les (en leur donnant de l’argent ou en suivant leurs éventuels appels au boycott).
Mais cela n’empêche pas qu’à titre personnel, tant qu’il n’existera pas un droit protégeant les auteurs des ravages causés par l’IA, je compte boycotter toutes les entreprises qui utiliserait l’IA (je ne suis pas sûr de tenir cette bonne résolution, mais je vais essayer).
Pour le partage de connaissance et la création
Si d’un point de vue écologique la multiplication des créations par IA est négative d’un point de vue humain c’est magnifique. Ça permet de mettre à porter de tous la possibilité de créer et de s’instruire. Pour moi l’IA va permettre le même phénomène que le développement d’internet ou de l’imprimerie en leur temps : une démocratisation sans précèdent de l’accès à la connaissance et à la capacité de créer et donc de s’exprimer.
Après comme pour le web ou l’imprimerie, ça ne sera pas que du positif, mais je pense que globalement ce sera positif.
Cas particulier : les véhicules autonomes
C’est un peu à part, mais j’aimerais parler du cas des véhicules autonomes et de la critique qui leur est faites : ça ne marcherait pas, car elles provoquent des accidents mortels. Seulement je vais vous choquer mais c’est aussi le cas des humains. La question n’est donc pas de savoir si l’IA provoque des accidents, mais si elle en provoque plus que les humains
Sans tests à grande échelle, avec des données rendues publiques, il est impossible de savoir qui de l’IA ou des humains est le plus mauvais conducteur. Les deux tuent des enfants, mais qui en tue le plus reste un mystère.
À première vue, on est actuellement sur un niveau de morts d’enfants très similaire entre IA et humains. La différence quantitative semble assez faible.
Mais ce constat cache une différence qualitative importante :
-
L’IA tue dans des situations que l’humain aurait facilement évitées.
-
Inversement, les humains tuent dans des situations que l’IA aurait facilement évitées.
En effet, chez les humains, les principales causes d’accidents sont :
-
L’alcool,
-
Les excès de vitesse,
-
Le non-respect des distances de sécurité.
Chez l’IA, à priori c’est plutôt des erreurs comme : Confondre un enfant avec une borne à incendie, et donc ne pas anticiper que l’enfant va traverser la route.
Pour améliorer la sécurité il faut donc supprimer les voitures, combiné les deux.
Par exemple : par défaut, l’humain conduit, mais si l’humain est alcoolisé, l’IA prend automatiquement le relais. De plus, l’IA pourrait imposer en permanence le respect des distances de sécurité et le respect des limitations de vitesse.
Cas particulier : la correction de copie et l’évaluation
Un ami qui travaille dans un CFA m’a indiqué que récemment ils avaient viré des gens charger entre autres de corriger les copies des élèves pour les remplacer par des IA.
Personnellement, je trouve ça débile. Outre les économies, l’argument principal avancé, c’est que l’IA serait plus objective qu’un correcteur humain, car elle n’a pas les biais liés à la fatigue (sur la dernière copie, par exemple) ou à l’émotion (si on connaît l’élève). Et que de toute manière un humain continue de vérifier le travail de l’IA.
Mais ce discours me semble fragile. D’abord, soyons honnêtes : un humain, ne va jamais s’embêter à repasser derrière la machine. Bien sûr au début il va le faire mais très vite, il va se contenter de dire que tout est bon sans rien relire.
Ensuite, qui contrôle les critères de notation ? Et comment les faire évoluer ? Si on découvre que l’IA donne systématiquement de moins bonnes notes aux copies signées “Mohamed” qu’à celles signées “Jean-Eudes”, ou qu’elle note selon des critères absurdes (comme le nombre de citations ou l’auteur cité), comment pourrait-on le savoir et corriger le problème ? Si ce que l’on attend des apprenties change comment le faire comprendre à l’IA. Pour moi remplacer des correcteurs humains par une boite noire est une folie.
Après cela reste un problème technique qui peut être corriger (en donnant régulièrement beaucoup d’argent à l’entreprise qui développe l’IA), mais le vrai problème est ailleurs : pourquoi diable veut-on automatiser la correction des copies ?
Si le but est juste de classer les élèves, alors arrêtant les dissertations et utilisons des QCM ou des tests de logique, qui peuvent déjà être corrigés automatiquement avec des technologies vieilles de 20 ans. Ça fera économiser à tout le monde beaucoup de temps et d’argent.
Si le but est de voir où en est l’élève pour l’aider, quel est l’intérêt d’automatiser la correction ? Si la correction est automatisée comment le prof, saura qu’elles sont les difficultés de son élève et comment l’aider ?
Et si le but est juste de faire pratiquer l’élève, pourquoi noter la copie ?
En réalité, même si l’automatisation était techniquement bien faite, ça resterait un non-sens. Ça prouve simplement qu’on organise des examens en mode automatique, sans se demander pourquoi on les fait. Ça montre que l’éducation est devenue en grande partie une machine administrative absurde, qui impose aux gens de faire des tâches répétitives sans véritable but. On est loin d’un espace dont la mission serait d’instruire et d’émanciper (si tant est qu’il l’ait déjà été un jour).
Cas particulier : l’écologie
Lorsque l’on parle d’IA il est inévitable d’abordé le problème de son cout écologique
En effet, l'IA a un impact écologique immense. Mais, comme toutes nos activités. Pour moi la question n'est pas de savoir si l'IA ou toute autre activité a un impact, mais de si on peut justifier cet impact ou le diminuer.
Générer une image sur IA nécessite autant d'électricité que de recharger un smartphone et autant d'eau que tirer la chasse d'eau des toilettes.
On pourrait dire que c’est à peu près ce que doit consommer un artiste faisant une image avec une tablette graphique ou un ordinateur puissant (et c’est le cas de la plupart des artistes). Et donc que sauf à revenir au papier crayon l’IA ne consomme pas plus(ou pas beaucoup plus) que les moyens actuelles de produire une image.
Seulement se serait oublier que l’IA entraine une multiplication de la production d’image. La production d’image autrefois réservé à une ‘élite’(avec de gros guillemet à devient subitement accessible à tous. En conséquence la production d’image explose et avec elle les dommage causé à l’environnement par cette activité.
On pourrait se dire que c’est négligeable par rapport à d’autre activité comme le transport aérien mais le problème c’est que chaque centième de degré de réchauffement supplémentaire se traduira par plusieurs centaines de millier de mort durant se siècle. Donc tout action aussi insignifiante soit elle compte.
Et puis il faut se méfier de ce genre d’argument. En prenant le bon découpage et la bonne comparaison tout parait toujours insignifiants. La France ne soit pas réduire ses émissions, car elles sont insignifiantes à l’échelle du globe. Il ne faut pas réduire les émissions des jets privé, car elles sont insignifiantes par rapport à celle de la France,… Avec ce type d’argument on arrive très vite à la conclusion qu’il ne faut rien faire. Et la raison en est simple : pour régler le problème du réchauffement climatique il faut une multitude d’actions qui sont à la fois individuellement insignifiantes mais indispensable pour résoudre le problème ; C’est un peu comme sur une chaine de montage d’une voiture où chaque employé ne fait que des taches simples comme serré un boulot ou assemble deux pièces. Individuellement chacun de leur acte est insignifiant mais chacune est indispensable pour avoir en bout de course une voiture qui fonctionne.
Par contre de la même manière qu’il n’existe pas une seule façon de faire une voiture il n’existe pas une seule façon de régler le problème du réchauffement climatique. Celons la solution que l’on choisit il y aura des privations qui seront importantes et d’autre qui seront inutiles. Mais pour le savoir encore faudrait-il qu’une solution soit choisie. Donc tant qu’il n’y aura pas une planification écologique impossible de dire quels sont les actes dispensables et ceux qui sont indispensables.
A l’exception bien sûr du militantisme politique pour défendre l’environnement et avoir enfin une planification écologique socialement juste et décidé démocratiquement.
Après rien n’empêche de mettre en accord votre mode de vie avec la solution que vous promouvez. En soi cela n’aura pas un impact important mais ça vous permettra de militer plus efficacement pour cette solution et de savoir si la solution que vous promouvez est réaliste. A titre personnelle, je suis végan, je ne voyage jamais en avion, je n’ai pas de voiture, je vis dans un petit appartement que je chauffe peu et que je ne climatise pas, je garde mes vêtements le plus longtemps possible (au grand dam de ma mère qui trouve que je me balade en loque) j’ai un ordinateur d’occasion que je n’ai pas changé depuis 6 ans, mais par contre je consomme un max de service informatique comme des vidéos YouTube ou de l’IA. En gros je considère (peut-être à tort) que mes efforts dans d’autres domaines sont suffisants pour compenser les problèmes environnement causé par ma consommation d’informatique si on imposait au GAFAM d’être plus économe (par exemple en imposant que 480p est la résolution maximale d’une vidéo en ligne ou en interdisant les utilisations inutiles des IA)
Et puis beaucoup de mes créations sont du contenu militant. Or si ça me permet de convaincre des gens de voter écolo, alors ce sera un investissement plus que rentable pour la planète. Un peu comme le fait d'utiliser sa voiture pour aller coller des affiches avant une élection.
Pour moi, le vrai problème du recours à l'IA, c'est que l'on nourrit de nos données personnelles et de nos retours des entreprises américaines dirigées par des fascistes qui vont s'en servir pour construire des outils destinés à nous museler. Mais c'est le même problème en puissance 1000 de l'utilisation de réseaux sociaux comme WhatsApp.
Du coup ça vous dirait de passer à signal ou à matrix ?
Le futur
Ça, c'est pour le constat actuel, mais qu’en est-il du futur.
À condition d’y investir 10-20 ans de travail supplémentaire des cerveaux les plus brillants de la planète et de commettre un écocide, je pense que les IA deviendront des assistants extrêmement utiles et même remplaceront les humains dans plein de taches.
La question est bien sûr est-ce que le jeu en vaut la chandelle ?
Et, je peux me tromper, mais je pense que le futur de l’IA, c’est de devenir le moyen numéro un par lequel les gens s’informent, notamment lors d’un achat.Avant, lorsque les gens avaient une question, ils faisaient une recherche sur Google, sur YouTube ou sur un réseau social comme Facebook. Donc, en gros, sur Meta ou Google. Ils cliquaient ensuite sur les 3 premiers liens que Google ou Meta leur avaient donnés. Donc pour une entreprise, ne pas être dans les 3 premiers choix de Google ou Meta voulait dire mourir.
Donc toutes les entreprises donnaient des masses d’argent à Google et Meta pour être dans les 3 premiers résultats.Demain, la plupart des gens ne s’informeront qu’en posant des questions à une IA, et il y aura max 3 IA grand public.
Résultat : si ton entreprise n’est pas mentionnée par ces IA lorsque un client fait des recherches en vue d’un achat, alors tu es mort.Du coup, les propriétaires des IA pourront soutirer des fortunes aux autres entreprises.
Et bien sûr, pour la propagande, ce sera mieux que tout ce à quoi les dictateurs du 20e siècle ont rêvé. Et les oligarques l’ont déjà compris.Musk a par exemple trafiqué son IA pour qu’elle parle en permanence du génocide des blancs en Afrique du Sud (source : Elon Musk’s AI firm blames unauthorised change for chatbot’s rant about ‘white genocide’ ). Bien sûr, il se défend et dit qu’il n’y ait pour rien. Même si c’est vrai (j’ai du mal à le croire, mais pourquoi pas), je pense que cela a donné des idées à certains.
Les IA sont-elles une bulle spéculative ?
Au-delà de leur utilité présente et future une autre question qui revient souvent c’est : est-ce que l’IA est une bulle spéculative qui va bientôt retomber, entrainant la ruine les nombreux épargnants ayant placé leurs économies en bourse.
Pour moi, cette question est très mal posée, et cela, pour plusieurs raisons. Déjà parce que ce dont on parle ne peut pas être une bulle spéculative.
La spéculation, qu’elle soit en bulle ou non, c'est acheter un truc non pas pour l’utiliser ou le louer, mais pour le revendre plus cher.
Qu’il y ait de la spéculation sur les titres liés à l’IA c’est une certitude, mais à priori pas plus que sur les autres actions. La spéculation sur l’IA c’est anecdotique et sans conséquence. En tout cas, pas plus à conséquence, que les milliards qui sont misés dans les casinos ou sur les courses de chevaux.
Mais bref, parler de bulle spéculative sur l’IA c’est comme de parler de pyramide de Ponzi pour décrire le système de retraite par répartition. Cela n’a pas de sens.
Ce qui parle de bulle spéculative pour désigner les investissements massifs sûrs l’IA ou les fortes valorisations boursières des entreprises de la tech américaines sont soit des ignorants, soit des menteurs, soit des fainéants (je plaide coupable d’avoir souvent utilisé cette expression par facilité).
La vraie question à se poser c’est qu’elle est le but de ses investissements en IA, qu’elle est la probabilité qu’ils soient atteints, à quel prix seront-ils atteints, qu’elles seront les conséquences connexes et de ses investissements dans l’IA et est-ce que c’est bien d’un point de vue morale, économique, géopolitique,…
On pourrait écrire des livres sur ses questions et des gens bien plus compétents que moi sont en train de le faire.
Je vais donc m’abstenir et juste revenir au sujet en donnant la deuxième raison pour laquelle cette question est mal posée : Dans ce contexte, lorsque l’on parle d’IA on regroupe sous ce terme deux choses complétement différentes.
Et oui, en plus de cacher notre ignorance, le mot IA crée de la confusion.
Les chatbot de type chatGPT n’ont, en effet, que peu de rapport avec les algorithmes utilisés en Ukraine, en Israël ou durant les JO de Paris pour traiter les images issues des milliers de caméras et drone déployé sur ses sites afin de détecter des menaces/cible et éventuellement déclenché automatiquement une riposte adaptée. Or, quand on parle d’investissement massif dans l’IA, on parle en grande partie d’investissement fait dans ses IA à but militaire et sécuritaire.
En Ukraine, elles ont prouvé qu’elles étaient très efficaces pour massacrer son voisin et dans l'avenir, une armée dépourvue de drones pilotés par IA ou de moyen de s’en défendre sera probablement assuré de perdre.
Bien employés, l’IA et les drones ont maintenant le potentiel d’être aussi décisifs sur le champ de bataille que l’artillerie (c’est en tout cas le retour qu’en fond les stratèges français qui s’expriment dans le podcast : le colimateur ).
En Israël ou durant les JO de Paris leur utilité a par contre été très faible. Par exemple, dans cette conférence :L’IA, pour le meilleur ou pour le pire ? , un ingénieur de Tales en charge des essais de ses systèmes durant les JO de Paris a évoqué que le système confondait un spectateur qui levait un doigt avec un terroriste levant une arme. Mais que par contre, il ne parvenait pas à détecter les fusils d’assaut des policiers.
Mais, avec un peu de temps et d’argent (qui aurait été bien mieux employé ailleurs), je ne doute pas que cette technologie sortie des enfers émergera. En tout cas, parler de bulle spéculative qui va s’effondrer d’elle-même pour les investissements réalisés dans les IA militaires et sécuritaires me semble dangereusement à côté de la plaque. En utilisant le même terme pour parler d’un chatbot générant des images rigolotes et ses monstruosités, on permet à ceux qui investissent dans la mort de se donner un vernis de coolitude et de moralité qui empêche de les combattre efficacement.