Au cours de la dernière décennie, nous avons assisté à des percées notables dans l'intelligence artificielle (IA), grâce en grande partie au développement d'approches d'apprentissage en profondeur. Santé, finance, assurance, ressources humaines, commerce de détail, ... aucun domaine ne sera épargné par un changement des règles du jeu déclenché par l'IA.
Qui aurait dit il y a quelques années à peine, que des véhicules autonomes circuleraient sur la voie publique, que la reconnaissance faciale à grande échelle ne serait plus de la science-fiction, ou que les fausses nouvelles pourraient avoir un tel impact social, économique et politique ?
Certaines statistiques liées à l'IA sont vertigineuses. Selon Forbes, 75 pays utilisent actuellement la technologie de l'IA à des fins de surveillance via des plateformes de villes intelligentes, des systèmes de reconnaissance faciale et des services de police intelligents. En termes d'investissement, le pourcentage d'entreprises dépensant plus de 50 millions de dollars en Big Data et en IA est passé à 64,8 % en 2020, contre seulement 39,7 % en 2018. D'un point de vue géopolitique, la Chine s'apprête à prendre les devants d'ici 2030. Chaque année, il y a plus d'ingénieurs diplômés que dans n'importe quel autre pays (2-3 fois plus), alors que le pays génère 10 fois plus de données qu'aux États-Unis.
Tous les indicateurs révèlent que nous sommes en bonne voie vers une vulgarisation totale de l'IA, avec un impact sans précédent, profond et transversal dans tous les domaines de la société. Et bien que le domaine soit vaste et souvent imprévisible, certaines questions cruciales seront certainement traitées cette année.
Les tendances de l'IA en 2020 :
Explicabilité de l'IA
Analyses prédictives
Détection de fraude hautement sophistiquée
Moins de données, apprentissage accéléré et meilleurs résultats
Vulgarisation de la reconnaissance faciale
Explicabilité de l'IA
Avoir des systèmes d'IA explicables est crucial pour l'avenir de l'intelligence artificielle. Être capable d'évaluer, d'un point de vue humain, si le raisonnement derrière un résultat est valide ou non est important. Cette IA explicable instaurera la confiance entre les utilisateurs.
Les journalistes, les politiciens et les décideurs ont de plus en plus souligné la nécessité «d'expliquer les algorithmes de l'IA». Le droit à l'explication est le droit de l'individu de recevoir le raisonnement derrière la sortie d'un algorithme. Pourquoi ma demande de prêt bancaire a-t-elle été rejetée ? Pourquoi la voiture autonome a-t-elle tourné au lieu de s'arrêter ? Pourquoi, en tant que médecin, devrais-je recommander ce traitement à mon patient ? Parce que le système le dit, c'est une réponse qui est difficilement acceptable pour ceux touchés par la décision, elle est illégale dans de nombreux cas, et crée en effet une méfiance générale envers les systèmes basés sur l'IA.
Nos esprits ne sont pas parfaits. Les illusions d'optique, par exemple, sont un phénomène inévitable, peu importe nos efforts. Cependant, en tant qu'êtres humains, nous pouvons expliquer ce que nous voyons, interprétons et admettons avoir tort ; nous savons que l'eau ne peut pas par magie monter vers le haut.
Les systèmes d'IA sont également imparfaits. Dans certains cas, ils font des erreurs importantes et inhabituelles, comme confondre une tortue avec un pistolet. Les images contradictoires (c'est-à-dire les images manipulées pour tromper délibérément les systèmes de vision par ordinateur) sont équivalentes à des illusions d'optique.
Malheureusement, malgré les avancées incroyables dans les réseaux de neurones profonds, expliquer pourquoi un modèle d'apprentissage profond renvoie un résultat particulier pour une entrée de donnée reste un défi. Les réseaux de neurones fonctionnent de manière opaque et sont incapables d'expliquer leur sortie, un problème connu sous le nom de « AI black box ».
Les grandes entreprises travaillent déjà sur l'IA explicable. Par exemple, Google a développé un ensemble d'outils pour aider à détecter et à résoudre les biais et à étudier le comportement des modèles. Cependant, cela est actuellement limité à certains modèles d'apprentissage automatique et les résultats sont destinés aux data scientists. D'autres grands acteurs tels que Microsoft et IBM poursuivent également des travaux pour une IA explicable.
L'IA explicable sera l'un des principaux thèmes en 2020, créant de nombreuses opportunités commerciales. Des exemples tels que Fiddler Labs (10,2 millions de dollars en financement de série A en 2019) ou Kindi (20 millions de dollars en financement de série B en 2019) témoignent de l'intérêt croissant pour l'IA explicable.
Analyses prédictives
Dans le monde de l'analyse, l'analyse prédictive sera l'un des sujets les plus importants de 2020.
L'utilisation du Machine Learning, en particulier le Deep Learning et le NLP pour récupérer et traiter des données, a eu un impact énorme sur les systèmes qui détectent les tendances et prédisent les événements futurs en fonction des données existantes. Cette pratique, connue sous le nom d'analyse augmentée, est devenue une activité essentielle pour de nombreuses organisations ces dernières années, avec des applications dans des domaines aussi différents que l'optimisation de la chaîne d'approvisionnement, le recrutement, l'estimation de la consommation d'énergie, l'optimisation des prix et le service client.
Le marché de l'analyse prédictive a enregistré une croissance composée de 21 % depuis 2016 et devrait atteindre 11 milliards de dollars d'ici 2022.
Une attention particulière devrait être accordée au marché de détail, qui est probablement le secteur qui utilise le plus significativement l'analyse prédictive. Les applications de surveillance continueront de progresser, mais c'est dans l'analyse du comportement des clients que nous verrons les progrès les plus importants. Enfin, bien qu'il n'ait pas décollé comme prévu, la maintenance prédictive reste une branche prometteuse qui pourrait faire des progrès inattendus cette année.
Détection de fraude hautement sophistiquée
L'année dernière a été fructueuse pour l'IA et le Deep Learning, en particulier dans les domaines du traitement automatique du langage naturel (NLP) et de la vision par ordinateur (CV).
Les modèles de langage basés sur les transformateurs tels que BERT ont eu un impact significatif sur le NLP, remplaçant les RNN dans l'architecture standard d'apprentissage en profondeur. Le cas le plus impressionnant est peut-être le modèle GPT-2, formé par des chercheurs d'OpenAI utilisant un ensemble de données de 8 millions de pages Web. L'objectif du modèle est très simple : prédire le mot suivant dans une partie de texte étant donné tous les mots précédents. Les résultats, bien que simples, sont impressionnants.
Les Réseaux adverses génératifs (GANs) continuent de montrer leur énorme potentiel. Le résultat probablement le plus choquant, et celui qui a créé le plus de controverse, concerne les deepfakes. En mai 2019, des chercheurs du Samsung AI Center Moscow ont publié un article scientifique décrivant comment ils avaient réussi à créer des têtes parlantes à partir d'une photo standard d'une personne (ou même à partir de portraits).
Toutes les technologies peuvent être utilisées à des fins frauduleuses. Nous avons vu comment les fausses nouvelles peuvent nous affecter. Que se passerait-il si de fausses nouvelles pouvaient être générées automatiquement et avec une ressemblance humaine, comme celle réalisée par le modèle OpenAI GPT-2 ?
Et en ce qui concerne les vidéos fictives, quel sera l'impact des deepfakes sur la société et comment les combattre ? Les élections présidentielles aux États-Unis ont lieu en novembre prochain, et il est certain que cette question, qui met en danger les processus démocratiques en particulier, retiendra beaucoup l'attention.
Le dernier film de Martin Scorsese, The Irishman, nous donne une idée de la gravité de la situation. Netflix a dépensé des millions de dollars pour dé-vieillir numériquement les personnages joués par Robert De Niro, Al Pacino et Joe Pesci. Les résultats sont proportionnels à l'argent investi : les acteurs qui ont environ 70 ans semblent avoir 30 ans dans certaines parties du film. Cependant, un YouTuber appelé iFake prétend avoir obtenu de meilleurs résultats en seulement sept jours, en utilisant un logiciel gratuit Deepfake.
Au moins deux approches pour faire face au problème émergent et qui continueront de se développer en 2020.
D'une part, certains chercheurs ont décidé de ne pas partager leurs résultats, empêchant ainsi leurs méthodologies d'être utilisées à des fins frauduleuses. Ce fut le cas avec OpenAI / GPT-2 par exemple, car le modèle complet n'était pas en open source initialement (ils ont finalement publié la version complète en novembre 2019).
Alternativement, une autre stratégie consiste à affronter le problème de front en concevant des mesures juridiques et technologiques opposées. Par exemple, à partir de 2020, la Chine considère les deepfakes sans mention claire de leur inauthenticité comme un crime. En plus de l'exigence évidente que les vidéos soient signées, il existe des techniques qui tentent de détecter les fausses vidéos. Ce sera probablement l'approche qui prévaudra à l'avenir. Des initiatives telles que le Deepfake Detection Challenge (DFDC) retiendront beaucoup l'attention et seront très probablement reproduites dans les années à venir.
Moins de données, apprentissage accéléré et meilleurs résultats
Alors que les systèmes basés sur le Deep Learning peuvent produire des résultats étonnants, des gros volumes de données sont généralement nécessaires pour bien former de tels modèles. La disponibilité de grands ensembles de données tels que ImageNet ou Amazon Reviews, et le développement ces dernières années de startups dédiées à la collecte et à l'annotation de données de qualité, ont comblé un grand vide. Malgré cela, le manque de grands ensembles de données de qualité reste un problème dans de nombreux cas.
Les approches d’apprentissage par transfert (Transfer Learning) possèdent un potentiel immense et continueront de s'améliorer en 2020. L'idée clé ici est d’adapter un modèle formé avec d'énormes quantités de données à un domaine particulier dans lequel relativement peu de données sont disponibles. En Computer Vision, par exemple, il est possible de créer un système de détection d'objets avec seulement quelques images, grâce à des modèles pré-formés. En NLP, les modèles de langage basés sur les transformateurs, tels que BERT ou GPT-2, seront confirmés comme la nouvelle norme. Il est même possible que la qualité de ces nouveaux modèles puisse aider à remplir la promesse initiale de chatbots plus personnalisables.
Bien qu'il ne s'agisse pas d'une idée nouvelle, l'apprentissage par renforcement (Reinforcment Learning) sera une question centrale tout au long de l'année. L'objectif est de permettre à un système d'apprendre de ses propres erreurs. Bien que beaucoup d'efforts de recherche aient été engagés, le niveau de normalisation nécessaire pour parvenir à une adoption à grande échelle n'a pas été atteint. L’année 2020 pourrait être l'année où l'apprentissage par renforcement est finalement mis en œuvre dans l'industrie en utilisant des robots intelligemment autonomes.
Enfin, le gain en volume des données et les techniques de génération de données synthétiques sont un levier majeur car elles facilitent les approches de mise à l'échelle basées sur l'apprentissage en profondeur dans des environnements où les données sont rares. Les réseaux d'enseignement génératif (Generative Teaching Networks (GTN) ) présentés par Uber AI Labs en décembre dernier représentent un bon exemple de ce qui peut être réalisé. Leur approche consiste à générer automatiquement des données d'apprentissage, des environnements d'apprentissage et des programmes pour aider les agents de l'IA à apprendre rapidement. Le but est de former un réseau générateur de données qui produira des données qu'un autre réseau neuronal utilisera pour se former à une tâche cible spécifique. Ceci est similaire à la stratégie des GAN, bien qu'au lieu de se faire concurrence, les deux réseaux collaborent.
Vulgarisation de la reconnaissance faciale
La reconnaissance faciale est l'une des technologies à la croissance la plus rapide ; elle gagnera énormément de terrain en 2020. Son application dans la sphère publique, principalement par des organismes publiques à des fins de sécurité et d'application de la loi, n'est que la partie émergée de l'iceberg.
Dans les soins de santé, par exemple, l'analyse faciale peut être exploitée pour détecter des maladies génétiques ou suivre l'utilisation d'un médicament par un patient. Dans le domaine de la vente au détail, il peut être utilisé pour identifier des clients VIP ou attraper des voleurs à l'étalage connus dès leur entrée dans le magasin. La banque japonaise Seven Bank expérimente la reconnaissance faciale dans ATMS pour confirmer que le propriétaire de la carte est bien la personne qui l'utilise actuellement. Delta Airlines utilise actuellement l'embarquement facultatif pour la reconnaissance faciale à l'aéroport international d'Atlanta et a confirmé qu'elle étendra cette pratique à d'autres aéroports.
En 2020, nous allons engager un débat particulièrement intense sur la sécurité par rapport à la confidentialité, car la reconnaissance faciale sera mise en œuvre pour la première fois lors d'événements importants. Par exemple, les Jeux olympiques de Tokyo 2020 seront les premiers à utiliser un système de reconnaissance faciale à grande échelle pour vérifier l'identité des athlètes, des officiels et des représentants des médias.
Nous assisterons également à l'émergence de centaines d'applications qui s'appuient sur la reconnaissance faciale pour permettre l'identification biométrique et les transactions financières dans diverses circonstances impliquant des banques, des institutions publiques, des magasins, etc.
La reconnaissance faciale conduit à la réticence et à l'inquiétude de beaucoup de personnes. Alors que divers gouvernements européens envisagent d'utiliser ces technologies dans un avenir proche, l'UE pourrait temporairement interdire (pendant 3 à 5 ans) leur utilisation dans les lieux publics.
L'un des principaux inconvénients est celui des faux positifs (par exemple, une personne innocente confondue avec un terroriste). Certes, de nombreux efforts seront déployés en 2020 pour améliorer la précision de la technologie de reconnaissance faciale.
Vers une IA juste et sans a priori ?
L'intelligence artificielle continuera de contribuer à tous les aspects de la société et d'en avoir un effet corrélatif. Malgré les avancées impressionnantes de ces dernières années, nous avons encore un long chemin à parcourir. Alors que les approches basées sur des réseaux de neurones profonds restent à la pointe de la technologie, les résultats obtenus manquent encore d'explication.
Des biais qui perpétuent la discrimination sont également apparus, en particulier en ce qui concerne le sexe et l'origine ethnique. Ils doivent être corrigés. La prolifération des deepfakes ou l'utilisation inappropriée de la reconnaissance faciale sont des sources de préoccupation légitime qui doivent être traitées, tant du point de vue juridique que technologique.
Nous pensons qu'en 2020, les réponses à ces problèmes seront au cœur de l'IA.
Pour finir, revenons sur ces faits historiques du début du XIXe siècle. Des membres des Luddites, une organisation secrète de travailleurs du textile anglais, ont détruit des machines textiles en guise de protestation. Ils considéraient ces pratiques de travail comme frauduleuses et trompeuses. Ils craignaient que les machines ne remplacent les humains. Le temps a montré que cette stratégie combative n'est pas durable.
Contrairement aux Luddites en leur temps, nous ne voyons pas en l'IA un danger mais une façon d'aider et d'accompagner les utilisateurs. L'IA est et sera bénéfique pour la société. Il faut cependant rester prudent en proposant des IA responsables, éthiques et morales.
Rédigé par Makrem DJEBALI
Comentários