Pendant la Clermont-Innovation Week 2023, InfiniSciences, qui propose des animations liées à la science, a invité Rodolphe Gelin, Expert Deep Learning and Robotics chez Renault. Il était là pour parler de l’IA, lors d’une conférence « Peut-on faire confiance à l’intelligence artificielle ? ».

Différents types d’intelligences artificielles

L’intelligence artificielle (IA) est un système qui se base et qui est développé par l’intelligence humaine. Il en existe deux formes :

  • Les IA symboliques : ce sont des IA qui se basent sur des règles. Elles fonctionnent avec un raisonnement ressemblant à « Si…, alors… ». C’est une IA principalement utilisée par des professionnels dans des domaines où la prise de décision doit être précise (la finance ou la médecine par exemple).
  • Les IA connexionnistes : ce sont des IA qui se basent sur des données. C’est le type d’IA le plus connu aujourd’hui, car c’est le plus récent et c’est le type de fonctionnement de ChatGPT. Comme le cerveau humain, il est question de faire fonctionner un réseau de neurones pour comparer des données.

Il est possible de faire fonctionner ces deux types ensemble, c’est ce que fait Tesla, avec ses voitures. Maintenant, il y a de l’intelligence artificielle un peu partout, dans les industries notamment.

Comment elles fonctionnent ?

En ce qui concerne les IA symboliques, afin de comprendre une information, elle va chercher des règles mises dans son moteur de références. Pour les IA connexionnistes, elle va croiser toutes les données qu’elle reçoit, pour proposer la solution la plus probable. Une intelligence artificielle autant développée que ChatGPT possède plus de 100 milliards de neurones.

Dans leur programmation, les IA doivent être corrigées par des humains. En effet, il y a énormément de tests avant de mettre une intelligence artificielle en service. Dans le but de pouvoir se corriger, les IA vont faire une rétropropagation pour réévaluer ses décisions et minimiser les erreurs. Pour développer une IA, Rodolphe Gelin montre qu’avec cent données, 80 sont utilisés pour entrainer l’IA. Les 20 % restants sont utilisés pour testés l’IA après l’entrainement, afin d’en tirer des résultats.

La société peut s’adapter

Comme souvent, le sujet du futur a été évoqué. Là-dessus, Rodolphe Gelin nous explique, qu’à l’avenir, ce n’est pas la technologie de l’IA qui inquiète, c’est plutôt son usage qui peut faire peur. Pour faire face à ce problème, l’Union européenne cherche déjà des réglementations à mettre en place sur l’utilisation des IA. Un projet « confiance.ai », créé avec différentes entreprises et l’État français, a été mis en place pour développer l’IA en France, tout en le rendant sécurisé et fiable. En effet, quand une forme d’éthique rentre en jeu, l’IA à tendance à inquiéter les humains. Avec la célèbre question, pour une voiture autonome, de qui choisir entre sauver le conducteur et écraser un enfant sur la route, ou bien, faire l’inverse, comment faire. Pour Rodolphe Gelin, il faut que l’IA se décide par une sorte de pile ou face.

Pour beaucoup, une inquiétude provient de la possibilité d’être remplacer au travail. C’est une réalité, mais le développement de l’IA en crée également. Plus le numérique évolue, plus de nouveaux emplois apparaissent dans ce secteur. D’après Rodolphe Gelin, depuis le déploiement des IA du style de ChatGPT, on estime que les emplois dans le numérique ont plutôt augmenté. L’IA doit être au service de l’homme pour permettre de résoudre des problèmes d’aujourd’hui et de demain.