Search
  • La rédaction

START Conseils - L’Intelligence Artificielle pour les nuls…

L’intelligence artificielle est à la mode. Et pour les besoins de l’industrie numérique, cette appellation regroupe beaucoup de choses dans une tentative philanthropique de remettre à la mode les logiciels traditionnels. Mais dans le souci de ne pas être trop artificiel dans cet article, simplifions en réduisant l’IA aux algorithmes à base de réseaux neuronaux.

ON A TOUS APPRIS qu’un neurone se connecte à d’autres neurones grâce à des synapses qui conduisent une faible différence de potentiel électrique. Et même si on sait que le fonctionnement du cerveau est beaucoup plus complexe, un petit nombre d’informaticiens aventureux ont modélisé un neurone sous la forme d’un programme qui prendrait des données en entrées, et qui ferait un petit calcul de ces informations pour envoyer le résultat en une donnée de sortie.


Imaginons un neurone qui est connecté à plusieurs neurones en entrée, on peut supposer que si le signal binaire envoyé par tous les neurones d’entrée vaut 0 plutôt que 1, alors le neurone étudié va transmettre le signal 0. Que se passe-t-il si un seul neurone d’entrée envoie la valeur 1 ? Tout de suite se pose la question : est-ce que les neurones sont démocrates ? Si la majorité des données d’entrée sont à 0 et qu’un seul neurone transmet la valeur 1, faut-il que notre neurone transmette 1 ou 0 comme la majorité ? Et si le seul neurone d’entrée transmettait une alerte critique ? On perçoit tout de suite que la fonction exécutée par le neurone est la clé de voute de l’intelligence du système car elle va choisir s’il faut, ou non, transmettre le signal 1.

Mais comme on aime les choses simples, on va choisir une fonction d’activation cumulative (une somme) car cela nous semble assez démocratique, et pour prendre en compte les cas particuliers, on va rajouter un poids à chaque neurone en entrée, de sorte que le seul neurone ayant transmis 1 pourra être entendu si son poids est supérieur à la somme des poids des autres neurones d’entrée. L’algorithme est donc constitué d’une répétition de ce type de neurones sur plusieurs couches et si on découpe une image en pixels avec chaque pixel connecté à un neurone d’entrée, eux-mêmes connectés à plusieurs neurones dans le réseau, et avec, à la sortie un neurone pour la catégorie « animal », un autre neurone pour la catégorie « être humain » et un dernier pour la catégorie « objet », par exemple, alors on commence à disposer d’un classificateur « intelligent » de reconnaissance d’images.


Mais avant que ça marche il y a une importante phase d’apprentissage où on aura donné des milliers d’images à ce réseau neuronal avec des réponses pré-établies pour qu’il puisse apprendre.


Que signifie apprendre pour un algorithme aussi basique que celui précédemment décrit?

Tout simplement mettre les bonnes valeurs de pondération pour chaque entrée de chaque neurone. C’est là que toute la magie opère : comment rétro-propager l’information de la réussite ou de l’échec de l’algorithme sur chacun des neurones de sorte qu’il améliore sa performance globale… C’est pendant cette phase d’apprentissage que les poids de chaque neurone d’entrée sont calculés.


Un lecteur qui n’est pas dans la cible du titre de cet article pourra relever les simplifications abusives de cette description basique, mais finalement, dans les grandes lignes ce qui frappe l’imaginaire c’est la capacité de ces algorithmes à imiter l’intelligence humaine, voire à la dépasser.


Aujourd’hui la performance des réseaux neuronaux en reconnaissance d’image est supérieure à l’œil humain : en d’autres termes, en cas de doute sur une photo, l’algorithme à moins de chances de se tromper qu’un observateur.

La redoutable efficacité de ces algorithmes apprenants nous interroge et nourrit les spéculations les plus hasardeuses.

On en vient à se demander jusqu’où l’intelligence artificielle va aller, peut-on faire apprendre n’importe quoi à un réseau neuronal numérique et suffit-il d’augmenter le nombre de neurones pour le rendre plus intelligent ?

Aujourd’hui, un classificateur d’objet, capable de distinguer une centaine de types d’objets différents, met en jeu environ un demi-milliard de neurones artificiels et prend moins d’un dixième de secondes à analyser une image.

Ce niveau de performance des réseaux neuronaux (à la base des algorithmes de l’intelligence artificielle), a été rendu possible par l’accroissement des capacités de calculs massivement parallèles des micro-processeurs et en particulier par les puces graphiques : les GPU, les Graphical Process Unit qui équipent les cartes graphiques par opposition aux CPU (Central Process Unit) qui équipent les cartes mères.


Parfois l’histoire se déroule de manière inattendue, initialement, les cartes graphiques pour les jeux vidéo ont été créées pour résoudre un problème mathématique lié à la 3D : lorsqu’on calcule de la 3D, la question de savoir si une forme est devant ou derrière une autre est

« indécidable » (lorsque deux objets de formes complexes s’intersectent : calculer quelle est la surface visible est extrêmement complexe). La solution consiste à diviser tout objet 3D en de minuscules triangles qui permettent de réduire les erreurs. Mais cette discrétisation pour les rendus 3D a nécessité la spécialisation de micro-processeurs pour faire des calculs massivement parallèles, d’où les processeurs graphiques.


Or, plus il y a de neurones dans un algorithme d’IA plus il y a besoin de paralléliser les calculs, c’est pour cette raison que les processeurs graphiques initialement conçus pour les jeux vidéo trouvent un effet d’aubaine inattendu dans l’essor des réseaux neuronaux aujourd’hui largement répandus sur GPU.


A ce jour, un processeur graphique, quasiment identique à celui de la carte de jeux vidéo de vos enfants, permet l’aide à la conduite dans une voiture récente.

Mais attention, les puissances de calculs les plus coûteuses sont requises pendant la phase d’apprentissage du réseau neuronal (à cette étape il faut des « super » cartes graphiques). Une fois que le réseau a fini d’apprendre, son exécution est beaucoup moins consommatrice. On voit tout de suite que pour qu’une entreprise, ou même une nation, soit à la pointe des développements en IA, le goulet d’étranglement réside dans les coûts financiers d’accès à des machines suffisamment puissantes pour entrainer des réseaux neuronaux performants.


L’IA est donc à la mode car, depuis à peine deux ans, les puissances de calculs permettent leur exécution avec un niveau de fiabilité suffisant pour des usages industriels et grand public.

Les considérations philosophiques sont nombreuses parce qu’on ne peut s’empêcher de se demander ce qui distingue l’être humain de ces machines qui imitent son fonctionnement aussi efficacement. Il y a une remise en cause de nos fondamentaux philosophiques culturels basés sur la différence entre le sujet et l’objet : que va-t-il se passer si l’objet devient sujet ? Mais plus prosaïquement, il faut urgemment considérer sérieusement les conséquences à court terme d’une vague d’IA dans le monde numérique.


A la différence des algorithmes conçus sur mesure pour résoudre un problème, les algorithmes à base de réseaux neuronaux sont génériques et standardisés (même s’il existe une petite cinquantaine d’architectures différentes de réseaux neuronaux), cela revient à dire que résoudre un problème avec de l’IA c’est remplacer du code sur mesure par un code standard – le réseau de neurones – qui a appris sur les données annotées du problème que l’on adresse.


Si vous envisagez n’importe quelle fonction logicielle comme une boite noire qui prend des informations en entrée et retourne des informations en sortie, alors il suffit de remplacer cette boite par un réseau neuronal alimenté avec les mêmes données et branché au logiciel initial pendant la phase d’apprentissage, pour qualifier les données de sortie, et une fois que l’apprentissage est fini, vous avez transféré l’intelligence du code initial, fait à la main par des développeurs, dans un réseau neuronal standard. Le code initial s’est transformé en une pondération très précise du signal de chaque neurone. Sachant cela, il faut donc envisager le développement logiciel, et sa propriété intellectuelle associée, de manière radicalement différente.


Certes l’IA va révolutionner les usages du côté du grand public, mais du côté de la partie immergée de l’iceberg, ses répercutions n’ont pas fini de transformer l’industrie numérique.


Par Patrick Duverger


23 views0 comments

CONTACT

arrow&v

To consult and exercise your rights, please consult our privacy policy

MAGAZINES

Copyright 2020 Riviera Press

COMPAGNONS NOIR.jpg
logo%20Marque%20bleu_edited.jpg
  • Linkedin Riviera Press
  • YouTube Riviera Press