Entre optimisme, surmédiatisation, prise de conscience de leurs limites et désillusions, les systèmes d’intelligence artificielle ont un impact encore limité.
L’intelligence artificielle (IA) est souvent présentée comme la prochaine révolution qui bouleversera nos vies. Depuis le lancement de ChatGPT en 2022, les IA génératives suscitent un véritable engouement à l’échelle mondiale. En 2023, NVidia, acteur clé dans la fabrication de puces utilisées pour l’entraînement de modèles d’IA, a dépassé les 1 000 milliards de dollars de valorisation boursière. En France, un plan d’investissement de 900 millions d’euros a été lancé, accompagné de levées de fonds importantes par des entreprises comme Mistral AI (105 millions d’euros) et Hugging Face (235 millions de dollars).
Pourtant, cet engouement s’accompagne de doutes. En effet, si l’IA est en pleine lumière médiatique, son impact économique concret reste modeste et son adoption par les entreprises limitée. Une étude récente estime qu’à peine 5 % des entreprises utilisent activement des technologies d’IA dans leurs processus, qu’il s’agisse d’IA générative, d’analyse prédictive, ou encore de systèmes d’automatisation. Dans certains cas, on reproche même à l’IA de détourner l’attention des dirigeants d’enjeux opérationnels plus pressants.
Ce décalage entre attentes et résultats concrets soulève la question : l’IA est-elle tout simplement en pleine traversée d’un « cycle de la hype », où un engouement excessif se trouve rapidement suivi par une désillusion, comme on a pu l’observer avec d’autres technologies depuis les années 90 ? Ou bien assistons-nous à un réel recul d’intérêt pour cette technologie ?
Des origines de l’IA à ChatGPT : vagues d’optimisme et d’interrogations
L’histoire de l’IA est marquée par des cycles d’optimisme et de scepticisme. Dès les années 50, les chercheurs imaginaient un futur peuplé de machines capables de penser et de résoudre des problèmes aussi efficacement que des humains. Cet enthousiasme avait mené à des promesses ambitieuses, comme la création de systèmes capables de traduire automatiquement n’importe quelle langue ou de comprendre parfaitement le langage humain. Cependant, ces attentes se sont révélées irréalistes face aux limites des technologies de l’époque. Ainsi, les premières déceptions ont conduit aux « hivers de l’IA » à la fin des années 70, puis à la fin des années 80, périodes où les financements ont chuté face à l’incapacité des technologies à répondre aux promesses affichées.
Cependant, les années 90 ont marqué un tournant important grâce à trois éléments clés : l’explosion du big data, l’augmentation des capacités de calcul, et l’émergence d’algorithmes plus performants. Internet a facilité la collecte massive de données, essentielles pour entraîner des modèles de machine learning. Ces vastes ensembles de données sont cruciaux, car ils fournissent les exemples nécessaires pour que l’IA puisse « apprendre » et accomplir des tâches complexes. En parallèle, les progrès des processeurs ont rendu possible l’exécution d’algorithmes avancés, tels que les réseaux de neurones profonds, qui sont à la base du deep learning. Ils ont permis de développer des IA capables de réaliser des tâches autrefois inaccessibles, comme la reconnaissance d’images et la génération automatique de textes.
Ces capacités accrues ont ravivé l’espoir de voir la révolution anticipée par les pionniers du domaine, avec des IA omniprésentes et efficaces pour une multitude de tâches. Cependant, elles s’accompagnent de défis et de risques majeurs qui commencent à tempérer l’enthousiasme entourant l’IA.
Une progressive réalisation des limites techniques qui pèsent aujourd’hui sur l’avenir de l’IA
Récemment, les acteurs attentifs au développement de l’IA ont pris conscience des limites des systèmes actuels, pouvant freiner leur adoption et limiter les résultats attendus.
En premier lieu, les modèles de deep learning sont souvent qualifiés de « boîtes noires » de par leur complexité, ce qui rend leurs décisions difficiles à expliquer. Cette opacité peut diminuer la confiance des utilisateurs, limitant l’adoption par crainte de risques éthiques et juridiques.
Les biais algorithmiques constituent un autre enjeu majeur. Les IA actuelles utilisent d’énormes volumes de données qui sont rarement exemptes de biais. Les IA reproduisent ainsi ces biais dans leurs résultats, comme ce fut par exemple le cas de l’algorithme de recrutement d’Amazon, qui discriminait systématiquement les femmes. Plusieurs entreprises ont dû rétropédaler à cause de biais détectés dans leurs systèmes. Par exemple, Microsoft a retiré son chatbot Tay après qu’il ait généré des propos haineux, tandis que Google a suspendu son outil de reconnaissance faciale qui était moins efficace pour les personnes de couleur.
L’intelligence artificielle (IA) est souvent présentée comme la prochaine révolution qui bouleversera nos vies. Depuis le lancement de ChatGPT en 2022, les IA génératives suscitent un véritable engouement à l’échelle mondiale. En 2023, NVidia, acteur clé dans la fabrication de puces utilisées pour l’entraînement de modèles d’IA, a dépassé les 1 000 milliards de dollars de valorisation boursière. En France, un plan d’investissement de 900 millions d’euros a été lancé, accompagné de levées de fonds importantes par des entreprises comme Mistral AI (105 millions d’euros) et Hugging Face (235 millions de dollars).
Pourtant, cet engouement s’accompagne de doutes. En effet, si l’IA est en pleine lumière médiatique, son impact économique concret reste modeste et son adoption par les entreprises limitée. Une étude récente estime qu’à peine 5 % des entreprises utilisent activement des technologies d’IA dans leurs processus, qu’il s’agisse d’IA générative, d’analyse prédictive, ou encore de systèmes d’automatisation. Dans certains cas, on reproche même à l’IA de détourner l’attention des dirigeants d’enjeux opérationnels plus pressants.
Ce décalage entre attentes et résultats concrets soulève la question : l’IA est-elle tout simplement en pleine traversée d’un « cycle de la hype », où un engouement excessif se trouve rapidement suivi par une désillusion, comme on a pu l’observer avec d’autres technologies depuis les années 90 ? Ou bien assistons-nous à un réel recul d’intérêt pour cette technologie ?
Ces capacités accrues ont ravivé l’espoir de voir la révolution anticipée par les pionniers du domaine, avec des IA omniprésentes et efficaces pour une multitude de tâches. Cependant, elles s’accompagnent de défis et de risques majeurs qui commencent à tempérer l’enthousiasme entourant l’IA.
Vers une adoption mesurée et régulée de l’IA ?
L’IA, déjà bien intégrée dans notre quotidien, semble trop ancrée pour disparaître, rendant peu probable un « hiver de l’IA » comme ceux des années 70 et 80. Plutôt qu’un recul durable de cette technologie, certains observateurs évoquent à la place l’émergence d’une bulle. Les effets d’annonce, amplifiés par l’usage répété du terme « révolution », ont en effet contribué à un emballement souvent disproportionné et à la formation d’une certaine bulle. Il y a dix ans, c’était le machine learning ; aujourd’hui, c’est l’IA générative. Différents concepts ont tour à tour été popularisés, chacun promettant une nouvelle révolution technologique.
Pourtant les IA modernes sont loin d’être une « révolution » : elles s’inscrivent dans une continuité des recherches passées, qui ont permis de développer des modèles plus sophistiqués, efficaces et utiles.
Toutefois cette sophistication a un coût pratique, bien éloigné des annonces tapageuses. En effet, la complexité des modèles d’IA explique en partie pourquoi tant d’entreprises trouvent l’adoption de l’IA difficile. Souvent volumineux et difficiles à maîtriser, les modèles d’IA nécessitent des infrastructures dédiées et des expertises rares, particulièrement coûteuses. Déployer des systèmes d’IA peut donc être plus coûteux qu’avantageux, tant sur le plan financier qu’énergétique. On estime par exemple qu’un algorithme comme ChatGPT coûte jusqu’à 700 000 dollars par jour à opérer, du fait des immenses ressources en calcul et énergie requises.
À cela s’ajoute la question réglementaire. Des principes comme la minimisation de la collecte des données personnelles, exigée par le RGPD, contredisent l’essence même des IA actuelles. L’AI Act, en vigueur depuis août 2024, pourrait lui aussi remettre en cause le développement de ces systèmes sophistiqués. Il a été montré que des IA comme GPT-4 d’OpenAI ou PaLM2 de Google, ne répondent pas à 12 exigences clés de cet acte. Cette non-conformité pourrait remettre en question les méthodes actuelles de développement des IA, affectant ainsi leur déploiement.
Toutes ces raisons seraient susceptibles de donner lieu à l’éclatement de cette bulle de l’IA, ce qui nous incite à reconsidérer la représentation exagérée de son potentiel dans les médias. Il est ainsi nécessaire d’adopter une approche plus nuancée, en réorientant les discours vers des perspectives plus réalistes et concrètes qui reconnaissent les limites de ces technologies.
Cette prise de conscience doit également nous guider vers un développement plus mesuré de l’IA, avec des systèmes mieux adaptés à nos besoins et moins risqués pour la société.