Ce qu’il faut retenir
- Selon l’agence Perceptiom, spécialiste de la communication scientifique, l’intelligence artificielle générative, notamment des outils comme ChatGPT, Perplexity ou Claude, constitue un levier puissant pour la recherche et la communication scientifique. Elle permet de gagner du temps dans la synthèse d’articles, la traduction de contenus scientifiques et l’automatisation de tâches répétitives.
- Cependant, ces technologies présentent des limites bien documentées : risques d’hallucinations (contenus erronés), forte empreinte environnementale, menaces pour la confidentialité des données et incertitudes autour des droits d’auteur.
- En définitive, l’IA ne remplace pas l’expertise humaine. Une utilisation fiable en science suppose une analyse critique, une vérification des données générées et une mise en contexte assurée par des chercheurs et communicants. C’est cette complémentarité entre IA et intelligence humaine qui garantit une information scientifique de qualité.
L’intelligence artificielle (IA) s’impose désormais dans presque tous les secteurs, et la recherche scientifique comme la communication scientifique n’y échappent pas. Selon une enquête récente publiée dans Nature Human Behaviour (2023), près de 75 % des professionnels de la communication scientifique déclarent déjà utiliser l’IA générative pour gagner du temps, analyser ou rédiger des contenus.
Mais si les atouts sont indéniables, les limites le sont tout autant : hallucinations, biais, empreinte environnementale, risques liés aux données confidentielles… autant de défis qui imposent une vigilance accrue (UNESCO, 2021 ; Ji et al., 2023).
Pour les chercheurs comme pour les communicants, l’enjeu est clair : tirer parti de l’automatisation et du big data sans perdre l’esprit critique indispensable à la fiabilité scientifique.Dans cet article, Perceptiom, notre agence de stratégie et conseil en communication scientifique, propose un état des lieux complet des usages de l’IA en science, avec un focus sur la place incontournable de l’humain dans la méthodologie. Car qu’on l’aime ou non, l’IA générative (ChatGPT, Perplexity, Claude et bien d’autres) évolue à une vitesse fulgurante. Et demain, il sera tout simplement impossible de faire sans (Chen et al., 2025).
L’IA en communication scientifique : état des lieux
A l’instar de nombreux secteurs, l’IA occupe une place de plus en plus importante dans les domaines de la recherche scientifique et de la communication scientifique. Comme toute nouvelle innovation récente, difficile de tirer des conclusions hâtives tant les usages peuvent varier et évoluer.
Rappel : c’est quoi une IA ?
L’intelligence artificielle (IA) désigne des systèmes capables d’imiter certaines facultés humaines, comme apprendre, analyser ou résoudre des problèmes. Elle s’appuie sur des algorithmes et sur l’exploitation de données pour reconnaître des modèles, faire des prédictions ou générer du contenu.
Aujourd’hui, les formes les plus répandues sont le machine learning et le deep learning, qui permettent aux machines de progresser en autonomie à partir d’expériences passées. Dans la communication scientifique, l’IA sert surtout à traiter le langage naturel, à résumer des informations complexes et à les rendre accessibles à un plus large public.
Les contributions de l’IA à la recherche en science
L’intelligence artificielle transforme peu à peu la façon dont la science se construit et se diffuse. Le volume mondial de publications scientifiques a progressé de 21 % entre 2015 et 2019, avec une explosion particulière dans les secteurs de l’IA et de la robotique (+33 %). Cette surabondance de données rend la veille et la synthèse toujours plus complexes.
Les modèles génératifs comme ChatGPT apportent une réponse techniquement puissante : une expérience en ligne menée par Noy & Zhang (MIT) montre que ChatGPT peut réduire le temps de rédaction de 40 % tout en améliorant la qualité des contenus de 18 %. Ces performances accélèrent la structuration de contenus scientifiques, la rédaction de synthèses ou l’identification de tendances méconnues.
Des outils comme ChatGPT ou Perplexity redéfinissent déjà les modes de diffusion de la science : ils ne remplacent pas l’expertise humaine, mais permettent à la fois aux chercheurs et au grand public d’accéder à une science plus structurée et plus lisible.
L’Intelligence Artificielle en communication scientifique
L’intelligence artificielle (IA) s’impose désormais dans la communication scientifique. Une enquête publiée dans Nature Human Behaviour (2023) indique que la majorité des professionnels du secteur utilisent déjà les IA génératives, principalement pour gagner du temps, trouver l’inspiration et automatiser certaines tâches. Dans le même temps, beaucoup estiment qu’une formation spécialisée est indispensable pour en tirer pleinement parti et en maîtriser les limites.
Concrètement, l’IA a déjà démontré son efficacité : recherche d’information, rédaction d’articles, synthèse de publications scientifiques ou encore traduction multilingue. Des outils comme ChatGPT, Perplexity ou Claude s’imposent progressivement comme des références pour les communicants et les chercheurs.
À cela s’ajoutent des solutions complémentaires : HeyGen, qui facilite la traduction de conférences vidéo scientifiques avec synchronisation labiale, et MidJourney, générateur d’images utilisé pour produire des visuels immersifs et réalistes. Ces usages s’étendent également aux podcasts scientifiques, grâce à des IA vocales capables de transformer automatiquement un article en contenu audio accessible.
En résumé, l’IA redéfinit les pratiques professionnelles des communicants scientifiques : automatisation de la veille, traitement du big data, diversification des formats (articles, podcasts, visuels). Mais son intégration doit toujours s’accompagner d’un regard critique humain, garant de la fiabilité et de la qualité de l’information scientifique.
Les limites et les risques de l’IA pour la recherche et la communication en science
Si l’Intelligence Artificielle a montré son énorme potentiel dans la génération d’idées et de contenus, force est de constater qu’elle présente des limites et des risques notables que le domaine de la science ne peut se permettre.
Les risques de l’IA en communication scientifique
L’intelligence artificielle ouvre des perspectives inédites, mais elle soulève aussi des inquiétudes majeures. Dans un secteur où la rigueur et la fiabilité sont essentielles, ignorer ces risques serait une erreur.
1. Des contenus erronés, parfois trompeurs
Les « hallucinations » générées par l’IA font partie des dangers les plus connus. Ce terme désigne des réponses convaincantes… mais fausses. Une étude menée en 2024 estime que près de 40 % des résumés produits par ChatGPT-4o contiennent des erreurs, contre près de 70 % pour certains concurrents. Dans le domaine scientifique, où chaque mot compte, de tels taux restent préoccupants. Les images générées par IA posent le même problème : derrière une apparence réaliste, elles peuvent contenir des incohérences ou des détails inexacts.
2. La question de la sécurité des données
Les prompts soumis aux IA peuvent contenir des données sensibles. Or, une fois intégrées aux modèles, ces données risquent d’être réutilisées pour d’autres utilisateurs. Pour les chercheurs et les institutions, cela représente une menace sérieuse en matière de confidentialité.
3. Un impact environnemental considérable
L’essor de l’intelligence artificielle a aussi un coût écologique considérable. L’entraînement et l’utilisation des grands modèles mobilisent des quantités massives d’énergie et d’eau. Par exemple, des chercheurs ont estimé que l’entraînement d’un modèle de type GPT pouvait nécessiter des centaines de tonnes de CO₂ émises et des centaines de milliers de litres d’eau consommés (Strubell et al., 2019, Li et al., 2023).
À grande échelle, la multiplication des requêtes quotidiennes représente déjà l’équivalent de la consommation énergétique de dizaines de milliers de foyers, et les projections évoquent une demande mondiale en eau des data centers qui pourrait dépasser celle de certains pays européens d’ici 2027. Dans un contexte où la recherche scientifique cherche à réduire son empreinte carbone, l’usage massif de l’IA pose donc une question essentielle : comment concilier innovation et responsabilité environnementale ?
4. Des zones d’ombre juridiques
Aujourd’hui, les contenus générés par IA sans intervention humaine directe appartiennent au domaine public. Si cela ne pose pas de problème pour une affiche ou une présentation, la question devient plus sensible pour des publications scientifiques. À terme, les enjeux liés au droit d’auteur et à la propriété intellectuelle deviendront inévitables.
L’humain, acteur incontournable de l’utilisation des IA en science
Malgré leurs avancées, les LLM tels que ChatGPT ne remplacent pas l’expertise humaine. Ils excellent dans la synthèse ou la traduction d’articles en autres langues, mais peinent à saisir la manière dont les connaissances scientifiques évoluent. L’esprit critique, la mise en contexte et l’évaluation des résultats demeurent l’apanage du chercheur (UNESCO, 2021).
Les risques sont documentés. Les hallucinations (ces réponses fausses mais convaincantes) concernent encore une large part des contenus générés (Ji et al., 2023). Plus récemment, une étude (Chen et al., 2025) a montré que 37 % des citations de Perplexity étaient erronées, confirmant la nécessité d’une vérification humaine pour toute utilisation dans les revues scientifiques.
L’IA peut donc impacter les pratiques professionnelles : automatisation de la veille, génération de podcasts ou traduction d’articles. Mais son efficacité repose sur une utilisation raisonnée, où l’humain garde la maîtrise des données confidentielles, des choix éditoriaux et de la validation des contenus.
Nos conseils pour utiliser l’IA et en faire un assistant efficace
Pour que l’IA devienne un véritable atout, quelques bonnes pratiques s’imposent :
- Vérifier systématiquement les résultats générés, surtout lorsqu’il s’agit de données destinées à des revues scientifiques ou à des activités de recherche.
- Croiser les sources et confronter les contenus produits par l’IA avec les dernières avancées publiées dans la littérature scientifique.
- Protéger les données sensibles, en évitant d’insérer des informations confidentielles dans les prompts.
- Exploiter l’IA comme un gain de temps, non comme un substitut : automatiser la veille, la traduction d’articles ou la génération de brouillons, mais garder la main sur l’analyse et la validation.
- Former les équipes pour comprendre les usages, les limites et les biais de ces technologies.
Chez Perceptiom, nous accompagnons les chercheurs et institutions pour tirer parti des usages de l’IA tout en respectant les standards scientifiques et éthiques. Nous proposons également des formations dédiées aux scientifiques, afin de leur apprendre à utiliser ChatGPT et autres modèles comme de véritables outils de travail : fiables, efficaces et au service de la science.