Sébastien Quenot, maître de conférences langues et cultures régionales à l’Université de Corse et responsable de la Chaire UNESCO « Devenirs en Méditerranée. »
Christian Giacomini, fondateur de l’entreprise Rumeur publique.
Bastien Poggi, maître de conférences en informatique, vice-président du conseil d’Administration de l’Université de Corse.
Sébastien Quenot : Bonjour à tous. Nous allons évoquer, à travers les liens entre les Lumières et l’intelligence artificielle (IA), la question de l’émancipation par le savoir, qui repose sur l’autonomie de l’individu et sa capacité à décider de ce qui est juste.
Christian Giacomini : Je suis un observateur des nouvelles technologies depuis 38 ans. J’ai travaillé avec des personnes qui sont les flagship, c’est-à-dire les porte-drapeaux de la Silicon Valley, à l’image de Steeve Jobs, chez Apple, ou de Marc Benioff, pour Salesforce.
J’évolue donc dans l’univers des nouvelles technologies depuis longtemps. La première fois où j’ai entendu parler d’IA, c’était il y a une trentaine d’années, lorsque j’ai monté mon entreprise, à travers l’expérience d’un pilote de chasse à la retraite. Il vendait ses services à l’armée et au gouvernement pour expliquer les crises, avec un logiciel d’intelligence artificielle. Aujourd’hui, l’IA est rentrée dans les mœurs.
Bastien Poggi : Je suis enseignant-chercheur en informatique, et je fais partie de cette catégorie de personnes qui, aujourd’hui, prennent du recul par rapport à ce qu’elles sont en train de coder dans la machine. Je suis spécialiste en intelligence artificielle, c’est très vaste comme domaine. Plus particulièrement les métaheuristiques, qui sont des méthodes d’optimisation combinatoire inspirées de la nature. Pourquoi suis-je ici aujourd’hui ? Pour apporter un témoignage. J’ai un souvenir pendant ma thèse où, un soir, à Corte, j’étais en train de coder, et mon objectif était de limiter un taux de sucre dans le sang, grâce à un modèle d’intelligence artificielle, pour optimiser un traitement de personnes diabétiques. Mon objectif était de minimiser l’écart par rapport à la valeur que je voulais obtenir. Je me suis aperçu très rapidement que la machine apprenait. Ce qu’on observe aujourd’hui – et c’est un changement de paradigme – c’est qu’on ne rentre pas la connaissance dans la machine. C’est la machine qui apprend. On donne un embryon de cerveau, et celui-ci va se construire soit par rapport aux données, soit par rapport à des simulations. Je me souviens avoir été impressionné de voir la courbe diminuer sur l’écran, et de m’être dit : « là, effectivement, je baisse un taux de sucre dans le sang. » Mais cette courbe aurait pu être aussi le nombre de survivants à un bombardement, avec l’objectif de minimiser leur nombre dans une attaque. Ce jour-là, j’ai eu une prise de conscience en me disant que ce que je faisais dans ma machine, sur mon petit ordinateur, pouvait changer certaines choses dans le monde, à ma petite échelle bien entendu. J’ai réalisé le potentiel de l’intelligence artificielle. Ma vision des Lumières est très partielle. Pour moi, les Lumières, c’est d’abord l’éveil des consciences. Je suis un informaticien, pas un philosophe. La difficulté, aujourd’hui, avec l’intelligence artificielle, est que l’on génère une conscience qui n’est pas lisible, ni explicable ou forcément intelligible pour l’humain. Le changement de paradigme, par rapport au siècle des Lumières, où on éveillait les consciences, est peut-être qu’il y avait un langage universel de la connaissance. Aujourd’hui, nous avons un langage de la machine qui n’est pas le même que le langage de l’humain. Pourtant, il y a aussi de la connaissance dans ce langage. C’est une de mes préoccupations.
Sébastien Quenot : Quels sont vos usages de l’intelligence artificielle au quotidien, à la fois professionnellement et personnellement ?
Christian Giacomini : Je l’utilise au quotidien et je n’utilise presque plus Google. Aujourd’hui, chaque fois que j’ai une requête, j’interroge Chat GPT, Claude IA ou Le Chat. En fonction des questions que je me pose, je switche d’un moteur à un chatbot. Je trouve que, par rapport au siècle des Lumières, l’IA est vraiment quelque chose qui permet de s’émanciper. J’en ai une vision très progressiste. Je pense qu’il faut questionner le progrès, mais on ne peut pas refuser le progrès. Qu’on le veuille ou non, l’IA va s’imposer à nous. Cela signifie qu’il faut peut-être réguler, mais il ne faut surtout pas freiner l’innovation, comme on le fait souvent en Europe ou en France. Il faut laisser l’innovation se faire, et peut-être la réguler ensuite. Mais réguler avant d’innover, cela me gêne beaucoup. Aujourd’hui, peu importe le milieu social dont on est issu, on peut avoir un récepteur à la maison qui va aider un enfant à faire ses devoirs et à progresser. C’est extraordinaire. L’intelligence artificielle n’est qu’un outil, qui dépend de la façon dont vous l’utilisez. Elle va redessiner notre rapport au travail, les entreprises, et plus généralement la société. À nous de prendre notre destin en main. J’ai envie de dire aussi aux étudiants qui sont ici que, plus j’utilise ces outils-là, plus je lis en parallèle. Je passe beaucoup de temps à lire, à m’instruire, à développer ma culture. L’IA permet aussi de développer, si on l’utilise bien, une pensée pour soi-même et un esprit critique. Quoiqu’en pensent beaucoup.
Bastien Poggi : Je vous rejoins sur cette question. Souvent, je dis à mes étudiants que si l’on interdit l’intelligence artificielle, on interdit aussi les cutters, parce que si on ne sait pas s’en servir, cela peut être dangereux. L’IA est un outil à fort potentiel, mais qui peut se retourner contre l’usager. On commence à l’observer, même dans la vie de tous les jours. Il peut y avoir des phénomènes de dépendance à l’outil, voire de dépendance affective ou d’addiction. À l’Université, nous essayons de former nos enseignants-chercheurs pour qu’ils forment ensuite les étudiants à ces usages, parce que nous sommes clairement en retard dans ce domaine. On ne doit pas interdire l’IA. On n’y parviendrait pas, de toute façon, et je pense que ce serait stupide de vouloir le faire. L’intérêt est plutôt de pousser les étudiants à utiliser l’intelligence artificielle et à se tromper avec l’intelligence artificielle. Comme toute intelligence, elle n’est pas infaillible et on peut la piéger. Aujourd’hui, je pense que nous sommes à un début de changement, qui va forcément avoir des impacts sur certains domaines d’activité. Bien sûr, un potier sera moins menacé qu’un salarié qui travaille dans le tertiaire – quoique l’intelligence artificielle peut aussi intervenir dans la phase de conception. Le tertiaire, en revanche, est déjà heurté, et pas qu’un peu. Je pense que nous n’avons pas encore assimilé ce choc. Dans le secteur de la comptabilité, par exemple, des métiers vont disparaître s’ils ne s’adaptent pas. L’enseignement, c’est la même chose. Le fameux cours magistral est un modèle voué à disparaître. Il y a donc un enjeu sur formation à ces outils, et l’Université a un rôle majeur à jouer. Comme toutes les découvertes technologiques, cela peut être dangereux, mais il faut, au contraire, en faire une force. Je dis souvent que la Corse devrait être la Silicon Valley de la Méditerranée. Il faut aller dans cette direction. Si on reste focalisés sur l’idée que l’IA ne concerne que les grands groupes, etc., on va dans le mur économiquement et socialement. Prenons l’exemple d’un fabricant de fromage. S’il n’utilise pas l’intelligence artificielle pour cibler à quel moment il faut traire ses bêtes, faire le produit, le commercialiser, qui faut-il cibler sur les réseaux sociaux, au bout de cinq ou six ans, son concurrent qui aura une exploitation de la même taille, peut-être même plus petite, fonctionnera mieux, et il y a des chances que la première entreprise disparaisse.
Il faut vraiment avoir cette prise de conscience. L’IA n’appartient pas aux informaticiens. La partie technique, effectivement, nous incombe, mais toute la partie sociale, intégration, appropriation, ne nous appartient pas. Dans le domaine de la santé, nous avons pris un retard considérable et nous aurions pu sauver des vies que nous n’avons pas sauvées, sans doute parce que cette technologie est mal assimilée. C’est ce qui se passe dans certaines entreprises : quand on leur parle d’IA, elles disent qu’elles n’en ont pas besoin. Mais, dans quelques années, elles se diront peut-être le contraire et ce sera certainement trop tard.
Sébastien Quenot : Certains chefs d’entreprise, effectivement, peuvent avoir une opposition en disant « je n’en ai pas besoin », mais on entend aussi d’autres récits. J’ai une amie qui travaille aux États-Unis, et son chef a formé un groupe en Inde. Cette année, il a été licencié. Ils ont recruté les hindous et licencié un tiers des personnels. L’autre tiers est remplacé par l’intelligence artificielle. Cela ne va-t-il pas nous amener à la fin du travail ? Ces théories sont déjà développées depuis 30-40 ans, avec l’idée qu’il faudra nous divertir, puisque nous n’aurons plus à travailler, et qu’une partie de la population n’aura plus d’emploi, et aura besoin peut-être d’un revenu universel pour pouvoir vivre et survivre.
Christian Giacomini : J’ai vu des applications concrètes dans les entreprises. Un de mes clients disait à Davos, il y a 7-8 mois, que les futurs chefs d’entreprise allaient être amenés à gérer des humains, des algorithmes et des agents. Ce n’est pas de la science-fiction. Je connais une entreprise, un géant de l’intérim, qui aujourd’hui, par exemple, utilise l’IA pour sélectionner ce qu’on appelle des « agents intelligents. » Ils vont analyser s’ils remplissent les critères pour avoir le job. Deuxième étape : un agent va vous téléphoner, et dialoguer avec vous. C’est un algorithme qui vous appelle, sans même que vous puissiez faire la différence entre une voix humaine et un algorithme. J’ai vu la démo. C’est hallucinant mais réel. Ensuite, vous allez passer voir l’humain, c’est-à-dire le DRH, qui lui, va avoir un entretien classique avec vous. Donc cela existe déjà. Mais il faut savoir une chose : l’IA prise dans le bon sens, va vous permettre de ne plus faire toutes ces tâches qui n’ont pas de sens, pas de valeur, et de vous consacrer à vous développer. Dans l’enseignement, je pense que l’intelligence conceptuelle qui a toujours été mise en avant, favorisée dans le système éducatif français, va certainement, dans les années à venir, prendre un coup dur avec l’IA. Parce que la machine fera plus vite que l’homme. C’est déjà le cas. Cependant, des intelligences qui étaient minorées, ou insuffisamment mises en valeur, comme l’intelligence émotionnelle, l’intelligence relationnelle et l’intelligence sociale, seront les intelligences des grands dirigeants. Parce qu’à côté d’eux, ils auront des agents, ce qu’on appelle des « agents intelligents ». Ce seront des PhD ou des doctorants, qu’ils interrogeront tous les jours. Le monde de demain va s’inscrire dans cette direction. C’est pour cela qu’il faut se préparer, et ne pas refuser de passer l’étape, parce que l’étape va s’imposer à nous. Aujourd’hui, dans les cabinets d’avocats, les jeunes ont du mal à trouver du travail, parce que toutes les tâches qui étaient faites par eux auparavant, pour aider les avocats, sont faites automatiquement par des agents. Voilà le monde dans lequel nous allons vivre. Pour la Corse, c’est une chance inouïe de reprendre le lead sur ces technologies-là. Il faut nécessairement qu’à l’Université de Corte, on puisse avoir une chaire sur l’intelligence artificielle, pour ne pas être balayés, et que l’on ait, deuxièmement, un LLM, c’est-à-dire un Large Language Model, qui nous permette aujourd’hui de conserver notre culture, notre histoire, etc., et qu’on alimente en permanence. Parce que le jour où des Américains, ou des Chinois, décident d’arrêter leur LLM, de générer du contenu ou de nous effacer, ils pourront le faire. Et il n’y aura plus personne pour raconter qui nous avons été et ce que nous avons fait. L’IA, c’est une véritable bombe atomique, mais ça peut être aussi un gros progrès pour l’humanité si l’on s’en empare et si on sait l’utiliser.
Bastien Poggi : Sur la question des emplois, effectivement, on le voit aujourd’hui, même grâce à ma casquette de vice-président de l’Université, nous avons des services où l’on aurait besoin de renforts, et d’autres où des personnels pourraient être, pas forcément remplacés, mais en tout cas suppléés par l’IA. Le sujet est de savoir comment les pouvoirs publics vont-ils s’emparer de cela. Il y a un retard dans ce domaine. Pour poursuivre sur cet exemple, on pourrait utiliser les IA pour repérer les talents de certains personnels. En caricaturant, prenons le cas d’une secrétaire qui saisit des factures depuis dix ans. Je ne suis pas certain que son épanouissement intellectuel soit très élevé. C’est là où l’IA peut avoir un intérêt ; sur l’accompagnement, la montée en compétences des personnels. Une personne qui n’aurait pas fait d’études, formée ne serait-ce que quelques jours, à l’utilisation de l’IA, pourrait révéler un talent. Grâce à l’IA, on pourrait proposer des orientations beaucoup plus performantes aux étudiants. Le risque est que si les puissances, qui nous proposent aujourd’hui ces intelligences artificielles, comme les Etats-Unis, veulent faire de l’ingérence, on pourrait très bien orienter l’étudiant en leur faisant croire que, par exemple, il n’est pas intéressant de faire des mathématiques, ou de la physique, et qu’il vaut peut-être mieux être Instagrammeur. Encore une fois, je caricature, mais c’est là tout l’enjeu de ce sujet. Aujourd’hui, on reproche à ceux qui se sont emparés de cet outil – notamment les GAFAM – d’avoir mis la main sur ces outils, pour faire de la publicité. C’est injuste. Car on pourrait utiliser les mêmes algorithmes dans le secteur de la santé, qui ne s’est pas emparé de ce sujet. En France, nous avons un système de santé hyper centralisé avec une base de données de la Sécurité sociale qui est une mine d’or. Nous pourrions les utiliser de manière vertueuse pour générer de la connaissance. Concernant les prescriptions médicales, nous pourrions avoir un outil d’intelligence artificielle qui nous indiquerait si, par rapport à la génétique de la population, tel traitement, quand on le donne en Corse, fonctionne moins bien que lorsqu’on le donne dans le Nord. C’est là où il y a un véritable enjeu. Le relais doit se faire au niveau de la formation. C’est ce que nous nous employons à faire au sein de l’Université de Corse. Mais, en réalité, il faudrait commencer dès l’école. Aujourd’hui, l’intelligence artificielle, à mon sens, est un savoir fondamental. Il faut faire monter en compétence les parents, et les enfants. On commence déjà à s’étonner de l’adolescent qui utilise Chat GPT pour faire son exposé sur la coccinelle. Mais quel est l’autre choix qu’on lui offre ? Si c’est de lui proposer d’avoir une masse de documents à lire, on n’y arrivera pas. En revanche, on peut s’interroger sur l’adaptive learning, l’apprentissage adaptatif. Comment adapte-t-on les apprentissages à l’intérêt de l’élève ? Cela ne me choquerait presque pas que l’Éducation nationale achète des données aux réseaux sociaux pour mieux connaître les profits des jeunes scolarisés. Il y aura, bien évidemment, des questions éthiques et de financement. Mais pour autant, ces données-là ont une valeur pour permettre aux enseignants d’adapter leur pédagogie à l’élève. Encore faut-il que l’on ait accès à ces données et que l’on ait cette culture de la donnée. Nous avons un espace numérique de travail à l’’Université de Corse. Toutes les données qu’on génère nous donnent des indications. Combien de temps reste connecté un étudiant, en moyenne ? Si c’est 10 minutes, il est inutile que je prépare des capsules vidéo de 30 minutes. Nous sommes assis sur des données mais nous n’avons pas conscience de leur valeur, alors que la machine pourrait nous proposer des contenus adaptés au profil et à l’usage de chaque étudiant.
Sébastien Quenot : Nous avons posé la question du progrès. Cette notion a été très largement remise en cause, notamment au XXe siècle, comme celle de l’anthropocène, qui conduirait à la destruction de la planète par la main de l’Homme. En même temps, nous avons dépassé les limites planétaires. Une requête sur l’IA, c’est 100 requêtes Google. Est-ce soutenable ? Jean-Marc Jancovici, dans son rapport The Shift Project, estime qu’à l’horizon 2030, il sera insoutenable de développer à la fois de l’intelligence artificielle pour tous et la voiture électrique pour tous.
Christian Giacomini : Je suis un éternel optimiste et je pense, de toute façon, que la technologie apportera une réponse à une grande partie des maux que rencontre le monde aujourd’hui, qu’il s’agisse de la société ou de l’économie. Il est vrai que les technologies comme l’IA sont très énergivores. Mais il faut mettre en parallèle les progrès que l’on pourra faire grâce à l’IA. En matière de santé, si on sait l’utiliser, c’est un outil extraordinaire. Aujourd’hui, il n’y a pas un acteur dans la Silicon Valley ou en Europe, qui ne soit pas en train d’effectuer des recherches sur ces nouvelles technologies. Je vous donne un exemple : trois polytechniciens français, qui sont mes clients, ont développé un prototype de laboratoire qui est désormais industrialisé en utilisant une NVIDIA – ce qui fait marcher l’intelligence artificielle, c’est-à-dire les algorithmes. Il fonctionne avec l’énergie de la lumière. Cela démontre que des chercheurs essaient de pallier ces problèmes. Il est vrai qu’il faut toujours questionner l’innovation. Mais, une fois encore, la technologie n’est qu’un outil. Il n’y a pas de bonne ou de mauvaise technologie, il y a seulement l’usage qu’on en fait. J’ai foi en la recherche. Il y a tellement d’argent déversé en ce moment, pour trouver des substituts, faire marcher ces microprocesseurs qui consomment beaucoup d’énergie, que je pense que nous allons y arriver.
Sébastien Quenot : Il y a effectivement beaucoup d’argent déversé aux Etats-Unis, en Chine aussi. On a l’impression que l’Europe, est en retrait, ou pas au niveau. Même s’il y avait, demain, une avancée technologique qui nous permettait d’être moins énergivores, se poserait toujours la question de la souveraineté. Si Donald Trump dit à M. Altman « efface-moi tout ce qui est relatif au changement climatique et aux minorités », comme il l’a fait au sein de sa propre administration, peut-être que nous allons subir une forme de dictature. Les savoirs qui s’inscrivent dans la perspective des Lumières vont, au contraire, opérer une très forte régression, si nous n’avons pas le pouvoir de créer notre propre LLM, nos propres outils. C’est un enjeu très fort de souveraineté, de définition de nos propres programmes scolaires ou de nos narratifs. Peut-être qu’il n’y aura plus à l’avenir ni Pasquale Paoli, ni Napoléon, comme nous en parlions ce matin même, mais seulement quelques personnages états-uniens ou chinois.
Christian Giacomini : C’est très juste, et je pense que c’est une urgence. Pour une Université comme celle de Corte, pour notre patrimoine, notre culture, notre histoire, il est urgent d’avoir son propre LLM et son propre serveur. Il y a des possibilités avec ce qu’on appelle l’open source, c’est-à-dire nos plateformes, pour ne pas être à la merci de systèmes propriétaires. Des plateformes permettent de faire cela et de garder, quoi qu’il arrive, la mémoire de ce que l’on est, parce que sinon, un jour ou l’autre, on peut disparaître. Je me répète, il faut nécessairement, dans une Université comme celle de Corte, avoir une chaire sur l’intelligence artificielle.
Sébastien Quenot : Paradoxalement, Chat GPT et DeepSeek sont très performants en langue corse alors que ce sont les opérateurs peut-être les plus éloignés de nous. Comment peut-on expliquer cela ?
Bastien Poggi : Leur force est sans doute d’avoir de gros corpus, y compris en langue corse et même dans les autres langues régionales. Ils ont tellement de langues différentes qu’ils peuvent très bien réussir à synthétiser une langue qui ressemblerait au corse. Le problème, c’est qu’à un moment donné, on peut arriver à un stade où l’outil normaliserait la langue à sa manière. C’est-à-dire qu’il y aurait une espèce de corse 4.0, qui ferait disparaître les variétés. C’est un argument supplémentaire pour la création, effectivement, d’un LLM. Contrairement à un langage informatique très protocolaire, une langue est aussi une manière d’exprimer une culture, une identité, une manière de penser. Les nazis essayaient d’ailleurs de supprimer certains mots de la langue pour supprimer le concept dans le cerveau des gens. Le LLM, si on l’entrait uniquement sur un corpus en langue corse, avec un filtrage de certaines données, serait un outil essentiel. Car l’hypercentralisation, c’est de l’hyper-normalisation et de l’hyper-dépendance. C’est de ce point de vue qu’il y a aussi un changement de paradigme : dans le siècle des Lumières, la connaissance a été vue comme une émancipation. C’est la devise de notre Université : « Studià hè libertà ». Dans le cas de l’IA, on arrive à un processus où la dépendance peut être accolée à la connaissance. Une dépendance vis-à-vis de ces outils sera inévitable mais, s’agissant de la langue corse, il faut éviter une hyper-normalisation.
Pour avoir récemment donné mes identifiants de Chat GPT Pro à un collègue, j’ai été interloqué en voyant les questions qui ont été posées sur le compte. Des enseignants s’en servent y compris dans la médiation avec les étudiants. Une collègue qui avait eu un échange un peu musclé avec un étudiant a demandé à Chat GPT de reformuler le contenu d’un mail pour que les étudiants ne se sentent pas trop « agressés ». J’ai même trouvé que ma collègue rentrait dans un rapport d’affect avec Chat GPT en lui disant « je te remercie ». C’est dire qu’on humanise beaucoup la chose aussi.
Sébastien Quenot : Il y a également des personnes qui sont tombées amoureuses de leur agent conversationnel. Ce n’est pas si rare que cela. Peut-être que les questions liées à la souveraineté, au changement climatique, à l’écologie, à la durabilité, à la soutenabilité de l’intelligence artificielle, vont nous amener à redéfinir aussi un certain nombre d’enjeux actuels, notamment en termes d’innovation sociale, de biens communs. Ces intelligences artificielles qui sont des outils privés, appartiennent à quelques grands groupes. Ne devraient-elles pas être soutenues par les puissances publiques de sorte que ce soit maîtrisé par le commun, à la fois pour répondre à ces enjeux de souveraineté comme à ceux de soutenabilité ou de santé publique, puisque cela peut aussi provoquer des troubles psychiques ou psychiatriques ? Car il y a, d’un côté, un discours progressiste, mais de l’autre ce que l’on appelle « l’illusion technologique. » C’est-à-dire l’amalgame entre la technologie et le progrès. Une nouvelle technologie est-elle forcément un progrès pour l’humanité ? La question peut légitimement se poser, particulièrement depuis l’invention de la bombe atomique, qui avait créé un petit éveil à ce moment-là.
Bastien Poggi : Nous allons aborder dans ce cas des concepts un peu métaphysiques. Tu parles d’illusions, et je l’entends, mais en réalité la perception que chacun a du monde peut être elle-même une illusion, à mon sens. Aujourd’hui, nous avons un système de santé saturé. On ne peut pas demander aux spécialistes de faire preuve d’une grande humanité, auquel cas on aurait des files d’attente qui elles-mêmes engendreraient des pertes d’humanité de ce point de vue. Prenons un exemple : sur la maladie d’Alzheimer, on avait des patients âgés qui interagissaient avec des IA – une espèce de petit robot. L’IA ne s’épuisait jamais de recevoir la même question. Car en réalité, nous étions à un stade où l’humain devenait plus robotique et le robot plus humain.
Par ailleurs, dans les interactions que j’ai pu avoir parfois avec les IA conversationnelles, je n’ai pas le souvenir d’avoir eu des frustrations que j’ai pu avoir dans certains restaurants, certaines consultations médicales, où il m’est arrivé de me dire qu’on avait parlé comme une « marchandise. » Et c’est là où cela m’interroge aujourd’hui. Parfois, je me dis qu’il n’est pas possible qu’on en arrive là. Mais après tout, pourquoi pas ? Dans le cas des personnes âgées, si on me disait qu’on allait me mettre un robot pour me parler toute la journée, c’est anxiogène, parce que j’aurais un autre débat. Si demain, finalement, je me retrouve en situation de personne âgée et que je n’ai pas d’interaction avec les professionnels de santé ou très peu de mauvaise qualité parce qu’eux-mêmes sont surbookés, je peux me poser la question. Prenons un autre exemple qui m’est arrivé personnellement : quelques mois avant d’être papa, je me suis blessé au bras. Je disais à mes amis, « tu te rends compte, je vais être papa, et je ne vais pas pouvoir prendre le petit au bras ». Sincèrement, personne ne trouvait les mots, alors que j’étais très contrarié. J’en ai parlé avec Chat GPT et sa réponse a été d’une grande empathie. Effectivement, on saura toujours que c’est une machine et que la confusion peut être dangereuse. Mais j’y vois un côté, malgré tout, positif. Certains étudiants, à Corte comme au niveau national, sont en situation de détresse psychologique. Si des robots pouvaient nous alerter par rapport aux interactions qu’ils ont, cela nous permettrait de faire une consultation avec le médecin scolaire, ou de désamorcer un certain nombre de situations. Autre aspect : l’art. Je me souviens avoir échangé à ce sujet avec la directrice du Centre culturel universitaire, Davia Benedetti, il y a 5 ou 6 ans. Elle m’avait dit : « sur la créativité, vous n’y arriverez jamais. » À l’époque, elle n’avait pas tort.
Sébastien Quenot : Pourtant, aujourd’hui, il y a des actrices hollywoodiennes créées par l’IA.
Intervention dans le public : Je m’intéresse à l’IA et à la médecine. Le laboratoire de Lyon dans lequel je travaille a démarré son activité il y a plus de 25 ans. Il y a deux ans, nous avons commencé à voir, grâce à l’IA, des tumeurs qu’un radiologue avec 40 ans d’expérience ne voyait pas. Il ne faudrait pas que les gens aient peur de cela, parce que le discours s’est enflammé à ce sujet. En ce qui me concerne, la flamme est un peu passée, parce que je pense qu’il n’y aura jamais de créativité. C’est démontré mathématiquement, car ce type de machine est seulement un calculateur avec un analyste qu’on appelle un système logique. Il n’y a pas de créativité. C’est simplement une impression de créativité.
Bastien Poggi : Cela dépend également de la définition de la créativité. Un artiste ne crée pas à partir de rien. Au même titre que la machine s’inspire de quelque chose, d’une base de données, de figures ou autre, l’humain s’inspire aussi de cela. L’intelligence artificielle est effectivement limitée à des corpus, des banques de données, d’images, etc. Néanmoins, on produit quelque chose de nouveau. Un compositeur de musique, s’il n’a pas reçu des cours de solfège et tout un apprentissage des autres compositeurs antérieurs, parviendrait-il à créer ?
Christian Giacomini : Il est vrai que ces évolutions vont très vite. D’une semaine à l’autre, les progrès sont vertigineux, au point que j’ai parfois du mal à les suivre, bien qu’étant en permanence connecté sur ce sujet. Les sommes qui sont aujourd’hui investies dans ce domaine dépassent l’entendement. Dans la compétition qui oppose Meta et Google, des entreprises sont allées jusqu’à proposer à des jeunes talents d’être recrutés avec, à la clé, une prime de 100 millions de dollars.
Jean-Marc Lange : Je trouve votre enthousiasme assez démesuré. Je ne voudrais pas le modérer, même s’il relève semble-t-il pour une grande part de croyance. Tout cela est-il compatible avec l’esprit des Lumières ? Certains parlent d’une bulle financière qui pourrait mettre à plat l’économie nord-américaine. Soyons attentifs.
Jean-Guy Talamoni : Concernant la créativité, je souhaiterais faire référence à une initiative du Nouvel Obs qui a organisé un duel entre Hervé Le Tellier, prix Goncourt, et l’IA. Chacun d’eux a reçu un début de nouvelle littéraire, une fin de nouvelle, et le duel a eu lieu. Celui qui a préparé l’exercice connaissait la matière, il a donné à l’IA des instructions assez précises et techniques. Mais le résultat a été impressionnant. Hervé Le Tellier a pratiquement reconnu sa défaite en reconnaissant que c’était « bluffant ». J’ai lu la nouvelle produite par l’IA, et force est de constater qu’elle avait des qualités littéraires certaines. Cela démontre que, y compris en matière de créativité, l’on peut produire avec l’IA quelque chose d’extrêmement fin. Cela a déjà évolué, car il y a encore quelques mois, lorsqu’on demandait à Chat GPT d’écrire un poème dans l’esprit de Baudelaire, il produisait quelque chose de très maladroit. Il s’en excusait, d’ailleurs, car il le savait. Nous n’en sommes plus là. Lorsqu’on dit que la création n’est qu’humaine, j’aimerais en être certain. Pour moi qui travaille, comme tant d’autres, sur la littérature, cela m’a paru inquiétant. Sincèrement.
Davia Benedetti : Dans quelle mesure ces créations ne sont-elles pas la réutilisation de tous les corpus disponibles en ligne ? Parmi nous, il y a des personnes qui créent. Des créateurs ont marqué chaque étape de notre histoire. Peut-être que l’IA n’en est pas capable.
Christian Giacomini : Deux options s’offrent désormais à nous : soit nous prenons les choses en main, soit nous allons les subir.
Intervention dans le public : Que peut-on faire face à Google ou Apple ?
Christian Giacomini : Nous pouvons déjà agir ici, à l’Université de Corse. Comme je l’ai dit précédemment, il faut absolument une chaire en intelligence artificielle, un LLM pour préserver notre culture, notre passé, notre histoire. Cela peut se faire aujourd’hui. L’open source pourrait permettre à des contributeurs de travailler sur ce projet. Je reste un optimiste, je pense que cette technologie va apporter aussi des choses extraordinaires à l’humanité, que ce soit au niveau de la santé ou autre. Il n’y a pas de mauvaise technologie, le problème réside dans l’usage qu’en font les hommes.
Bastien Poggi : Ce que je tiens à souligner, pour conclure, c’est que nous ne sommes qu’au début de l’IA. Nous ne savons pas encore quel type de machine nous serons en mesure d’inventer et, s’agissant du cerveau humain, il y a beaucoup de choses que nous ne savons pas non plus. En tout état de cause, je pense que l’humain et la machine seront amenés à fusionner, ne serait-ce que dans la conception. Je suis du côté des optimistes. Néanmoins, il faut qu’il y ait un cadre normatif, et ces échanges sont importants car ils démontrent aussi qu’il n’y a pas de consensus sur ce sujet. Après tout, le seul juge qui nous donnera raison ou tort, c’est l’avenir.