L’IA va-t-elle voler votre emploi?

L’IA va-t-elle voler votre emploi?

La peur grandit de voir les grands modèles de langage entraîner une vague de chômage. Ces craintes sont exagérées, affirme Carl Frey

Des scénaristes hollywoodiens aux chauffeurs de camion, l’intelligence artificielle inquiète de nombreuses professions. Alors que la technologie fait des progrès très rapides, les implications de l’IA générative pour notre travail, notre tissu social et le monde dans son ensemble suscitent de plus en plus d’inquiétude. Restera-t-il des tâches que les machines ne pourront pas faire? 

Cela fait dix ans que mes collaborateurs et moi-même explorons les ramifications de l’IA. Il y a dix ans, j’ai écrit un article avec Michael Osborne dans lequel nous estimions que près de 47% des emplois aux États-Unis pouvaient, en théorie, être automatisés, car l’IA et la robotique mobile élargissaient le spectre des tâches à portée des ordinateurs. 

Nous avions fondé nos prédictions sur la postulat que, quelles que soient les avancées technologiques disponibles, l’homme continuerait à dominer dans trois grands domaines: La créativité, les interactions sociales complexes et la gestion d’environnements non structurés, comme la maison. 

Pourtant, je dois admettre que des progrès significatifs ont été accomplis, même dans ces domaines. Les grands modèles de langage (LLM) tels que GPT-4 offrent désormais des réactions à l’écrit vraiment proches de celle d’un humain à un large éventail de demandes. À l’ère de l’IA générative, une machine n’aurait aucun problème à signer vos petits mots d’amour. 

Cependant, les domaines difficiles à automatiser que nous avons identifiés il y a dix ans restent pertinents aujourd’hui. Si, par exemple, GPT-4 écrit vos lettres d’amour, vos rendez-vous en face à face seront d’autant plus importants. L’idée cruciale est que, alors que les interactions sociales numériques deviennent de plus en plus indissociables des algorithmes, la valeur des interactions en personne, que les machines ne peuvent pas encore dupliquer, va monter en flèche. 

Par ailleurs, bien que l’IA puisse imiter la verve de Shakespeare dans une lettre, elle en est uniquement capable parce qu’elle puise dans les œuvres existantes de Shakespeare pour apprendre. En général, l’IA excelle dans des tâches définies par des données et des objectifs explicites, telles que l’optimisation des scores à un jeu ou la création de vers shakespearien. Pourtant, lorsqu’il s’agit de créer des contenus innovants au lieu de répéter des idées établies, où placer la barre? C’est souvent là que la créativité humaine entre en jeu. 

De plus, de nombreux emplois ne peuvent pas être automatisés, comme l’a suggéré notre article de 2013. L’IA générative – un sous-ensemble du vaste paysage de l’IA – n’est pas un outil d’automatisation à strictement parler. Elle nécessite une intervention humaine pour lancer le processus et pour peaufiner le résultat, comme contrôler les informations et retravailler le texte. 

Pour finir, la qualité du contenu de l’IA générative est à l’aune des données disponibles pour son apprentissage. Ici non plus, on ne fait toujours pas de l’or avec du plomb. Généralement, ces algorithmes s’appuient sur de vastes ensembles de données, qui ratissent souvent de vastes zones d’Internet, plutôt que sur des ensembles de données soigneusement sélectionnés par des experts. Ainsi, les LLM ont tendance à produire du texte qui reflète les contenus moyens ou les plus courants trouvés en ligne, plutôt que les contenus exceptionnels. Comme Michael et moi l’avons récemment évoqué dans un article paru dans The Economist, le principe est simple : Les données de qualité moyenne livrent des résultats moyens. 

L’IA a besoin des humains

Qu’est-ce que cela signifie pour le marché de l’emploi à l’avenir? Pour commencer, la nouvelle vague d’IA nécessitera obligatoirement une surveillance humaine. Bizarrement, les personnes avec les compétences les moins spécialisées pourraient se trouver avantagées, car elles pourront désormais produire des contenus qui répondent à cette norme «moyenne». 

Une question primordiale, bien sûr, reste de savoir si les progrès futurs changeront bientôt cette situation, qui sait, en faisant même entrer l’automatisation dans les domaines créatifs et sociaux. Cela reste toutefois peu probable sans innovations significatives. Pour commencer, les données que les LLM ont déjà ingurgitées représentent vraisemblablement une part considérable d’Internet. Par conséquent, le doute plane à savoir si les données d’apprentissage pourront être suffisamment étoffées dans les années à venir. En outre, la prolifération de contenus de qualité moyenne générés par l’IA pourrait dégrader la qualité globale d’Internet qui deviendrait une source d’apprentissage moins fiable. 

De plus, bien que le monde de la tech table sur une croissance constante énoncée par la loi de Moore (la notion selon laquelle le nombre de transistors sur un circuit intégré double environ tous les deux ans), un consensus s’installe selon lequel ce rythme pourrait se stabiliser d’ici 2025 en raison de limites physiques fondamentales. 

Pour finir, on estime que la facture énergétique du développement de GPT-4 représentait une part considérable des 100 millions de dollars nécessaires à son apprentissage, et c’était encore avant la flambée des prix de l’énergie. Face à la problématique urgente du changement climatique, la question de la durabilité de telles pratiques est regardée de plus près. 

L’IA devra être capable d’apprendre à partir d’ensembles de données plus petits et gérés par des experts, en donnant la priorité à la qualité plutôt qu’à la quantité. Toutefois, ce n’est pas à première vue demain la veille. Une étape tangible consiste à promouvoir un environnement qui favorise l’innovation efficace en termes de données. 

Remontons le temps et changeons de perspective: À l’aube du 20e siècle, les véhicules électriques et le moteur thermique se livraient une lutte sans merci pour dominer le secteur automobile émergent. À l’origine, ils semblaient être au coude à coude, mais la prospection de vastes champs pétroliers a rapidement fait pencher la balance en faveur du moteur thermique. Si une taxe sur les produits pétroliers avait été instaurée à cette époque, l’évolution aurait pu favoriser les véhicules électriques, réduisant ainsi considérablement notre empreinte carbone. De même, la création d’une taxe sur les données pourrait stimuler les efforts visant à rationaliser les processus d’IA en termes de consommation de données. 

Comme je l’ai évoqué dans des écrits précédents, de nombreux emplois vont être automatisés. Pourtant, la faute n’en reviendra pas obligatoirement à la génération actuelle d’IA générative. Sauf découverte révolutionnaire, je prévois que les défis mis en évidence dans notre étude de 2013 persisteront, limitant l’étendue de l’automatisation pour les années à venir. 

Please confirm your profile
Please confirm your profile to continue
Confirm your selection
En cliquant sur "Continuer", vous acceptez d'être redirigé vers le site web local que vous avez sélectionné pour connaître les services disponibles dans votre région. Veuillez consulter les mentions légales pour connaître les exigences légales locales détaillées applicables à votre pays. Vous pouvez également poursuivre votre visite en cliquant sur le bouton "Annuler".

Bienvenue chez Pictet

Vous semblez vous trouver dans ce pays: {{CountryName}}. Souhaitez-vous modifier votre position?