Le 28 septembre, OpenAI rend publique la dernière version de Dall-E, un logiciel qui synthétise des images spectaculaires à partir de quelques mots bien choisis. Le lendemain, des chercheurs de Berkeley et de Google annoncent sur Twitter DreamFusion, qui permet cette fois la construction d’objets tridimensionnels complexes. Le 1er octobre, la presse internationale salue la présentation par Elon Musk d’Optimus, le robot humanoïde de Tesla.
Aussi ébouriffantes soient-elles, ces avancées, liées en grande partie à l’apprentissage profond, s’inscrivent dans la lignée du succès d’AlexNet. Ce logiciel développé par l’équipe de Geoffrey Hinton en 2012 et inspiré des travaux de Yann Le Cun et de son équipe chez ATT à la fin des années 1980 reconnaît automatiquement un millier d’objets différents dans plus d’un million de photos. 2012 marque ainsi le début d’un nouvel engouement pour l’intelligence artificielle (IA) et d’une série de succès retentissants. Les logiciels BERT de Google et GPT-3 d’OpenAI, capables de traduire, de créer ou de résumer un texte de manière extrêmement convaincante, en sont des exemples récents dans le cadre du traitement automatique des langues.
Au-delà des effets d’annonce, que cachent en réalité ces résultats parfois qualifiés de « surhumains » avec des taux d’erreur en baisse constante ? Si elle est encore en retard sur les progrès empiriques, la compréhension théorique des mécanismes sous-jacents progresse tous les jours. Appréhender les rouages de l’IA est capital, non seulement pour obtenir des algorithmes explicables, mais aussi parce que, de par la nature même de l’apprentissage machine, l’IA est imparfaite, avec des résultats qui ne sont pas corrects dans 100 % des cas.
Des jeux de données limités
D’autre part, si un score est bien attribué à chaque décision prise ou recommandation faite par le processus d’optimisation correspondant, il n’est presque jamais justifié théoriquement, et encore moins directement interprétable en termes compréhensibles par tout un chacun.
Enfin, les algorithmes d’IA sont entraînés sur des jeux de données obligatoirement limités puisque finis. S’ils donnent en général de bons résultats sur des données du même type, on ne peut pas s’attendre à ce qu’ils se « généralisent » immédiatement à des domaines complètement nouveaux, de même qu’un conducteur ayant appris à conduire en été aura du mal à maîtriser sa voiture lors des premières neiges.
On parle ici de statistiques, or les usagers sont peu familiers avec cette discipline, quasi absente d’une scolarité classique, comme l’a montré le désarroi du public devant les arguments de cette nature présentés par les scientifiques et les décideurs pendant la crise due au Covid.
Il vous reste 26.78% de cet article à lire. La suite est réservée aux abonnés.
L'intelligence artificielle est imparfaite, et alors ? - Le Monde
Read More
No comments:
Post a Comment