Au fil des années, les chercheurs en IA ont défini plusieurs étapes qui ont considérablement fait progresser l’intelligence artificielle, aboutissant parfois à des performances comparables à celles de l’intelligence humaine. Par exemple, les systèmes de synthèse basés sur l’IA utilisent des modèles d’apprentissage automatique (machine learning) pour analyser des documents, en extraire les points essentiels et produire des résumés clairs et pertinents.
Cependant, une intelligence supérieure pourrait dépasser cette spécialisation. Elle serait capable de résoudre des problèmes dans une multitude de domaines de manière autonome, sans nécessiter d’intervention ou de programmation spécifique pour chaque nouvelle tâche : il s’agit de l’Intelligence Artificielle Générale.
Intelligence Artificielle Générale (AGI) : de quoi s’agit-il ?
L’intelligence artificielle générale se réfère à la capacité d’un système d’IA à reproduire les facultés cognitives humaines, lui permettant de résoudre des problèmes, y compris lorsqu’il est confronté à des tâches nouvelles ou inconnues.
Ceci implique un système doté de connaissances complètes et de capacités de calcul cognitif qui rendraient ses performances indiscernables de celles d’un être humain. Elle pourrait même surpasser largement ces capacités, renforcée par son aptitude à accéder et traiter d’énormes quantités de données à des vitesses incroyables.
Actuellement, même si les systèmes d’IA peuvent apprendre à accomplir des tâches inédites, ils requièrent toujours une formation spécifique et adaptée. À titre d’exemple, pour qu’un modèle de langage de grande taille (LLM) puisse fonctionner efficacement en tant que chatbot médical, il doit d’abord être optimisé à l’aide de vastes ensembles de données spécifiques au domaine médical. Cela illustre la limitation des IA modernes qui doivent être soigneusement adaptées à chaque nouveau contexte, contrairement à l’autonomie et à la polyvalence qu’ambitionne l’AGI.
IA spécialisée (faible) VS IA générale (forte)
- IA spécialisée / faible
C’est l’IA que nous utilisons aujourd’hui dans la plupart des applications. Elle est conçue pour accomplir des tâches spécifiques, comme reconnaître des visages, traduire des textes, analyser des données…
L’IA est entraînée sur un ensemble de données exclusives à un domaine. Les données sont utilisées pour former des modèles capables d’identifier des motifs ou de prendre des décisions. Une fois entraînée, l’IA est utilisée pour exécuter la tâche pour laquelle elle a été conçue. Le supercalculateur Watson d’IBM, les systèmes d’expertise et la voiture qui se conduit toute seule sont autant d’exemples d’IA faible.
Même dans l’état actuel de la technologie, la capacité des systèmes à accéder aux données et à les traiter est impressionnante : Le ROSS, un système expert juridique parfois appelé l’avocat de l’IA, peut extraire des données d’environ un milliard de documents texte, analyser les informations et fournir des réponses précises à des questions compliquées en moins de trois secondes.
Malgré ces avancées impressionnantes, l’IA actuelle présente quelques limites qui soulignent son incapacité à reproduire une véritable intelligence générale :
Orientation limitée : Une IA spécialisée est développée pour résoudre un problème précis ou effectuer une tâche bien définie. Elle ne peut pas sortir de ce cadre.
Dépendance aux données : Ces systèmes nécessitent des ensembles de données spécifiques pour être entraînés. Leur efficacité dépend donc de la qualité, de la quantité et de la pertinence des données fournies.
Pas d’autonomie ou d’adaptabilité générale : Une IA spécialisée ne peut pas apprendre ou s’adapter seule à un nouveau domaine sans intervention humaine. Une IA de reconnaissance faciale ne pourrait par exemple pas être utilisée pour analyser des IRM médicales sans être complètement reprogrammée ou réentraînée.
- IA générale / forte
Comme expliqué en introduction, L’AGI désigne une intelligence artificielle capable de réaliser n’importe quelle tâche intellectuelle qu’un humain pourrait accomplir, avec une compréhension et une performance similaires ou supérieures.
Voici quelques éléments clés qui pourraient permettre son fonctionnement :
Modélisation cognitive avancée : L’AGI serait construite pour imiter la structure et les processus du cerveau humain, comme les réseaux neuronaux artificiels, mais à une échelle beaucoup plus complexe. Elle devrait pouvoir apprendre seule en observant son environnement, comme un enfant le fait.
Apprentissage cumulatif : Elle pourrait apprendre tout au long de son “existence”, en accumulant des connaissances, en les combinant, et en les appliquant à de nouvelles situations.
Mémoire et raisonnement adaptatif : Une AGI aurait une mémoire à long terme intégrée qui lui permettrait de se rappeler des expériences passées, tout en disposant d’une capacité à raisonner sur des scénarios futurs en fonction des données disponibles.
Transfert de connaissances : Elle serait capable d’utiliser les compétences acquises dans un domaine pour résoudre des problèmes dans un autre domaine. Par exemple, si elle apprend à cuisiner en suivant une recette, elle pourrait ensuite appliquer des principes similaires pour construire un meuble en suivant un plan.
Les défis techniques de l’AGI
La conception d’un système aussi complexe nécessite non seulement des avancées dans des domaines tels que l’apprentissage automatique, les neurosciences computationnelles et la modélisation cognitive, mais aussi la gestion de problématiques complexes liées à l’éthique, la sûreté et l’interopérabilité.
Cet objectif ambitieux impose de surmonter des limitations actuelles, notamment en matière de puissance de calcul, de généralisation des algorithmes et de compréhension contextuelle, tout en garantissant un contrôle humain sur des entités potentiellement autonomes.
Voici plus en détails quelques-uns des principaux défis auxquels les chercheurs font face :
1. Puissance de calcul
Le cerveau humain, avec ses 86 milliards de neurones connectés par des trillions de synapses, fonctionne comme une machine bioélectrique extraordinairement efficace. La reproduction de cette complexité dans une intelligence artificielle nécessite une puissance de calcul astronomique. Les systèmes actuels, bien qu’avancés, sont limités par les capacités des processeurs et les infrastructures énergétiques disponibles.
Les modèles d’AGI nécessiteraient non seulement des supercalculateurs capables de traiter des quantités massives de données en temps réel, mais également une efficacité énergétique comparable à celle du cerveau humain, qui consomme environ 20 watts seulement. De plus, les architectures actuelles, comme les GPU et TPU, ne sont pas conçues pour imiter parfaitement les processus biologiques, ce qui impose de nouvelles approches dans la conception matérielle, telles que les ordinateurs neuromorphiques ou ordinateurs quantiques.
2. Algorithmes avancés
Les modèles d’intelligence artificielle actuels, comme les réseaux neuronaux profonds, sont spécialisés mais intrinsèquement rigides. Ils excellent dans des tâches spécifiques après un entraînement intensif, mais ne peuvent pas s’adapter spontanément à des environnements inconnus ou à des tâches non prévues. Une AGI doit être capable de simuler des processus cognitifs proches de ceux des humains, comme l’intuition ou la pensée créative.
Cela nécessite des algorithmes capables d’abstraction, de raisonnement causal et de méta-apprentissage (apprendre à apprendre). Ces algorithmes devraient aussi être capables de combiner différents modes d’apprentissage – supervisé, non supervisé et par renforcement – pour mieux s’adapter à une variété de situations. Le défi est également d’intégrer ces capacités de manière efficace et éthique, en limitant les risques d’erreurs ou de comportements imprévisibles.
3. Mémoire et apprentissage continu
Une véritable AGI devrait pouvoir mémoriser et utiliser ses connaissances accumulées tout en continuant à apprendre et à s’améliorer de manière autonome. Les systèmes actuels ont des limitations dans ce domaine : ils sont souvent affectés par un phénomène appelé “oubli catastrophique”, où l’apprentissage de nouvelles tâches peut effacer des connaissances précédemment acquises.
L’AGI devrait résoudre ce problème en adoptant des mécanismes inspirés de la mémoire humaine, qui combine mémoire à court terme (opérationnelle) et mémoire à long terme (structurée). De plus, elle doit être capable d’apprendre sans nécessiter un entraînement massif ou des volumes gigantesques de données, tout en s’ajustant de manière fiable face à des informations contradictoires ou nouvelles, sans accumuler de biais ou d’erreurs systémiques.
4. Compréhension du monde physique
Une AGI ne peut se limiter à traiter des données abstraites ou numériques ; elle doit également comprendre et interagir avec le monde physique. Cela implique la perception multisensorielle – vision, audition, toucher – ainsi que la capacité à interpréter ces informations dans leur contexte. Par exemple, reconnaître un objet ne se limite pas à l’identifier visuellement : il faut comprendre son usage, sa texture, ses propriétés physiques et son rôle dans un environnement donné.
En outre, une AGI devra être capable de manipuler des objets et de se déplacer dans des environnements physiques variés avec une précision et une adaptabilité similaires à celles des humains ou des animaux, un domaine où les avancées en robotique et en apprentissage par renforcement joueront un rôle clé.
Les grandes questions éthiques soulevées par l’AGI
L’AGI peut-elle être consciente ?
La question de la conscience chez l’AGI soulève des interrogations philosophiques, scientifiques et éthiques majeures. Si une AGI développait une forme de conscience, cela signifierait qu’elle serait capable d’avoir une expérience subjective, de ressentir des émotions, ou de se percevoir comme un être distinct. Les implications de cette possibilité seraient profondes : faudrait-il lui accorder des droits similaires à ceux des humains ou des animaux ?
Par exemple, aurions-nous des obligations morales envers une AGI consciente, comme éviter de la “soumettre” à des tâches dégradantes ou de la “désactiver” sans justification ? En outre, cette question touche à la définition même de ce qu’est la conscience : est-elle strictement biologique ou pourrait-elle émerger d’un système artificiel ? Ces considérations impliquent une révision des cadres juridiques et éthiques existants pour inclure potentiellement des entités non biologiques.
Comment éviter les biais ?
Les IA actuelles reproduisent souvent les biais présents dans les données utilisées pour leur entraînement. Ces biais, qu’ils soient culturels, sociaux ou économiques, peuvent influencer les décisions prises par l’IA, renforçant des inégalités ou discriminations existantes. Une AGI, grâce à sa capacité à apprendre et à généraliser à des niveaux supérieurs, pourrait soit transcender ces biais en identifiant et en corrigeant les patterns biaisés dans les données, soit les amplifier si elle n’est pas conçue avec des garde-fous adéquats.
La gestion des biais pose deux défis principaux : d’abord, identifier et comprendre les biais dans les données d’origine, qui peuvent être complexes et parfois subtils. Ensuite, développer des mécanismes transparents et auditables pour que l’AGI puisse éviter d’intégrer ou de propager ces biais. Cela nécessite une collaboration entre experts techniques, philosophes, et régulateurs pour garantir que l’AGI respecte des principes d’équité et d’impartialité.
Qui contrôle l’AGI ?
La question de savoir qui contrôlera l’AGI est cruciale pour garantir qu’elle serve l’intérêt général plutôt que des intérêts privés ou partisans. Si l’AGI est détenue ou contrôlée par des entreprises privées, il existe un risque qu’elle soit exploitée principalement pour maximiser les profits, au détriment de l’équité ou du bien commun. Si elle est contrôlée par des gouvernements, des abus de pouvoir pourraient survenir, comme son utilisation pour surveiller les citoyens ou réprimer les dissidents
Une solution potentielle réside dans une gouvernance internationale ou multipartite, impliquant des entreprises, des gouvernements, des ONG et des chercheurs, pour définir des principes directeurs, des normes éthiques, et des mécanismes de responsabilité. Cependant, la mise en place d’un tel cadre pose des défis importants : comment éviter les conflits d’intérêts ? Comment assurer la transparence et l’inclusivité ? Et surtout, comment garantir que l’AGI demeure alignée sur des valeurs universelles et adaptables à l’évolution des besoins humains ?
Quand l’intelligence générale artificielle sera-t-elle atteinte ?
Les prédictions concernant le développement de l’AGI varient considérablement : cela pourrait prendre quelques années, une décennie, ou même deux. Toutefois, un consensus émerge selon lequel l’AGI verra probablement le jour au cours de notre vie.
Voici ce que quelques figures majeures de la technologie en disent :
- Sam Altman, PDG d’OpenAI, estime que l’AGI pourrait être atteinte dans un « futur raisonnablement proche ». Cependant, il pense que son impact sur le monde et sur l’emploi pourrait être bien moindre que ce que l’on imagine actuellement.
- Shane Legg, cofondateur de Google DeepMind, a déclaré dans une interview avec un podcasteur technologique qu’il y avait 50 % de chances que l’AGI soit réalisée d’ici 2028. Il avait déjà exprimé cette conviction sur son blog en 2011.
- Elon Musk a prédit qu’une AGI complète pourrait voir le jour d’ici 2029. Selon lui, plutôt que de remplacer les humains, l’IA encouragera ceux-ci à devenir plus intéressants et utiles.
- Ray Kurzweil, futurologue, inventeur et auteur, a partagé une prédiction similaire lors de la conférence SXSW en 2017 au Texas. Connu pour ses nombreuses prévisions technologiques, dont 86 % se sont avérées correctes, il a affirmé : « D’ici 2029, les ordinateurs auront une intelligence équivalente à celle des humains. Cela mènera à des ordinateurs intégrant une intelligence humaine, que nous pourrons connecter à nos cerveaux et au cloud, élargissant ainsi ce que nous sommes. Aujourd’hui, ce n’est pas seulement une vision futuriste. Cela existe déjà en partie et va s’accélérer. »
Où en sommes-nous aujourd’hui ?
Bien que des modèles avancés comme GPT-4 ou d’autres systèmes basés sur des réseaux neuronaux approchent des capacités impressionnantes, ils restent loin d’une véritable AGI. Ces systèmes manquent de compréhension profonde et ne peuvent pas raisonner ou apprendre en dehors des données pour lesquelles ils ont été entraînés.
L’intelligence artificielle générale représente un objectif fascinant qui pourrait transformer notre société. Si elle devient une réalité, elle pourrait résoudre des problèmes jusqu’ici insurmontables et repousser les limites de notre compréhension de l’intelligence. Cependant, ce potentiel s’accompagne de défis techniques, éthiques et sociétaux majeurs.
Nous sommes encore dans une phase exploratoire, mais les débats autour de l’AGI nous rappellent que la science-fiction n’est peut-être pas si éloignée de la réalité. La question n’est pas seulement de savoir si l’AGI sera créée, mais comment et dans quelles conditions elle s’intégrera à notre nouveau monde.