La révolution de l’intelligence artificielle (IA) s’est accélérée à un point tel qu’il devient difficile d’imaginer un monde sans ces technologies. Les discussions que j’ai récemment eues avec des collaborateurs d’Allianz Services ont mis en lumière un sujet essentiel : l’évolution des jeunes générations qui naissent et grandissent avec l’IA comme principal vecteur d’information. Cette nouvelle donne soulève autant de promesses que de défis, notamment en ce qui concerne le développement de l’esprit critique et la fiabilité des sources.
Des générations ultra-connectées… mais moins enclines à la recherche ?
Les jeunes d’aujourd’hui — et a fortiori ceux de demain — ont un accès quasi instantané à toutes les données qu’ils souhaitent, grâce à des outils conversationnels de plus en plus performants (ChatGPT, Bard, Bing Chat, etc.). Cette simplicité d’accès peut diminuer la nécessité d’apprendre les méthodes traditionnelles de recherche d’informations comme aller scroller sur Google, naviguer sur les sites que l’on trouve, etc. Voir pire et plus ancien: aller chercher dans un livre.
La crainte est la suivante : à force de consulter des réponses prédigérées, les nouvelles générations ne développeront pas l’habitude de remettre en question ce qu’elles lisent. À la différence de ceux qui ont grandi avec des encyclopédies, des bibliothèques et des recherches manuelles, les plus jeunes risquent de considérer que l’IA délivre un savoir incontestable. En d’autres termes, l’esprit critique, ce réflexe de creuser, comparer les sources et valider leur fiabilité, pourrait être moins ancré dans le processus d’apprentissage.
IA et fiabilité : un cercle vertueux ou vicieux ?
Aujourd’hui, les grands modèles d’IA s’appuient sur des données énormes, mais pas toujours parfaitement vérifiées ou mises à jour. Dans le futur, on peut espérer que la provenance des informations (fact-checking systématique, consortiums de vérification, etc.) sera de plus en plus fiable. Toutefois, aucune technologie n’est infaillible et le risque de propagation d’informations biaisées ou inexactes demeure.
Le danger peut vite devenir systémique si l’IA est considérée comme “l’unique source de vérité”. Pour éviter ce travers, l’éducation doit jouer un rôle majeur dans la promotion d’un usage réfléchi de l’IA, de la même manière qu’on forme les élèves à la lecture critique de documents ou aux rudiments de la recherche académique.
Le poids d’acteurs politiques et économiques : le cas Elon Musk
Un autre sujet de préoccupation soulevé lors de la discussion est la possibilité qu’un individu, déjà fortement influent dans le domaine technologique, puisse exercer un pouvoir politique et technologique à grande échelle. Prenons l’exemple d’Elon Musk, qui, après avoir racheté Twitter (désormais X), possède l’une des plus grandes plateformes de diffusion d’opinions au monde. Si, en plus, il venait à influer directement sur un modèle d’IA propriétaire (Grock, par exemple), la question de la neutralité de l’information se poserait avec une acuité nouvelle.
Imaginez un chef d’entreprise devenu acteur politique — quels qu’en soient les tenants idéologiques — disposant simultanément des leviers pour :
- Diriger une plateforme de réseaux sociaux capable de diffuser un certain récit.
- Piloter un modèle d’IA potentiellement consulté par des millions de personnes comme “vérité” ou “autorité neutre”.
Les implications sont considérables : la moindre nuance, le plus léger biais politique ou idéologique, pourrait impacter les réponses délivrées par l’IA, puis influencer les opinions publiques à grande échelle. Or, tant que les outils d’IA n’auront pas de mécanismes robustes et transparents de régulation, la concentration d’un tel pouvoir entre quelques mains peut représenter un risque démocratique majeur.
Eduquer à l’esprit critique : la pierre angulaire
Face à ces enjeux, il est impératif de mettre l’accent sur l’esprit critique. Que ce soit dans l’entreprise ou dans les établissements scolaires, il devient crucial de :
- Former dès le plus jeune âge à la vérification des sources : Expliquer les mécanismes de fonctionnement de l’IA, démontrer comment ces outils peuvent se tromper, et enseigner l’importance de la pluralité des sources.
- Encourager la curiosité et la remise en question : Inciter les plus jeunes (et les moins jeunes !) à diversifier leurs informations, à multiplier les perspectives et à questionner les évidences, même lorsqu’elles proviennent d’une IA réputée fiable.
- Développer des garde-fous technologiques : s’inspirer (avec prudence) des lois d’Asimov
- Ne pas nuire : À l’image de la première loi d’Asimov qui interdit au robot de blesser un humain, nos systèmes d’IA devraient détecter et limiter les usages malveillants (fraude, désinformation, discriminations…).
- Préserver l’intégrité : Asimov insiste sur la nécessité pour un robot de protéger sa propre existence. Par analogie, nous devons développer des IA résilientes, sécurisées et capables de résister aux cyberattaques ou aux manipulations hostiles.
- Obéir à des règles supérieures : Comme le robot d’Asimov suit les ordres tant qu’ils ne contredisent pas les deux premières lois, l’IA devrait respecter des chartes éthiques et des normes légales, renforcées par une gouvernance multicouche (entreprises, experts, pouvoirs publics).
- Renforcer la régulation : Les pouvoirs publics doivent encadrer les usages de l’IA pour éviter que la technologie ne devienne un vecteur d’influence unilatérale.
Isaac Asimov, écrivain de science-fiction, a popularisé l’idée de « Trois Lois de la Robotique », censées garantir la sécurité et l’éthique des relations entre humains et robots. Même si ces lois sont issues de la fiction et restent simplistes face à la complexité de l’IA moderne, elles montrent l’importance de fixer des principes directeurs :
Il ne s’agit pas de transposer telles quelles les lois d’Asimov à la réalité actuelle, mais de nous en inspirer pour anticiper les risques et intégrer, dès la conception, des garde-fous protégeant les individus et la société.
Conclusion : un futur à construire collectivement
Les générations à venir grandiront dans un monde profondément transformé par l’IA. Si les avantages de ces outils sont indéniables (gain de temps, amélioration des processus, découvertes scientifiques…), nous ne devons pas sous-estimer l’importance de maintenir une capacité de recul et de réflexion.
Il ne s’agit pas de diaboliser l’IA, mais de construire une culture où l’autonomie intellectuelle et la pensée critique s’allient aux formidables possibilités offertes par la technologie. La vigilance est de mise, car l’émergence de personnalités politiques et économiques disposant d’un quasi-monopole sur l’IA pourrait façonner en profondeur nos sociétés. À nous de veiller à ce que l’IA reste un levier d’émancipation et non un instrument de manipulation.
Pour continuer à faire évoluer positivement nos entreprises et nos sociétés, nous devons non seulement développer des IA de plus en plus fiables, mais aussi et surtout former les individus à en faire un usage éclairé. Cela passe par l’implication de tous : il est essentiel que chacun s’empare du sujet, s’informe, expérimente et teste ces technologies — comme je l’abordais déjà dans mon article précédent. C’est à travers cette participation collective que nous pourrons créer un environnement où l’IA sert au mieux l’intérêt général, tout en préservant l’esprit critique et la pluralité des points de vue.