top of page

Revue de Presse IA du 15/05/2020

  • Photo du rédacteur: AI for Citizen
    AI for Citizen
  • 15 mai 2020
  • 3 min de lecture



Le Livre IA de la semaine

Laurence Devillers, professeure à la Sorbonne, reconnue pour ses travaux sur les sujets d'éthique de l'IA (elle avait été consultée à l'occasion du rapport "Villani") nous invite à rencontrer les robots "émotionnels". Si, à travers les œuvres de fiction ou les objets connectés d'aujourd'hui, les robots portent les petits noms de HAL, Her ou Alexa, l'auteure nous rappelle surtout qu'il se garder de les "anthropomorphiser" trop vite. L'IA s'est avant tout une machine qui effectue, avec brio, les tâches qu'on lui demande de faire. Dès lors les questions d'éthiques de l'IA qui se posent sont surtout profondément… humaines


Les enfants sont les maîtres de l'apprentissage et une source d'inspiration pour l'IA

La pratique courante pour entraîner un algorithme de machine learning consiste à lui demander de classifier des images avec un haut niveau de détail.Ainsi, on demande par exemple aux algorithmes de distinguer différentes espèces de chien à partir d'images. A l'inverse, lorsqu'un parent enseigne à un enfant, il apprend d'abord à reconnaître des étiquettes beaucoup plus larges : toute espèce de chien est d'abord simplement "un chien". L'enfant apprend à reconnaître les catégories plus spécifiques qu'une fois ce premier niveau d'apprentissage réalisé. S'inspirant de cette approche, des chercheurs de l'Université Carnegie Mellon ont développé une nouvelle approche qui enseigne à un réseau de neurones de classer les choses par étapes. À chaque étape, le réseau voit les mêmes données mais les étiquettes sont d'abord simples et larges, puis deviennent plus précises. L'algorithme entraîné par cette technique a atteint une fiabilité de la classification supérieure jusqu'à 7% par rapport à une approche classique. Ces résultats démontrent l'importance des techniques d'apprentissage et l'importante source d'inspiration qu'est l'apprentissage humain. (Source :MIT Technology Review, 06/05/2020)


Efficacité algorithmique - Aurait-on découvert la "loi de Moore" de l'IA ?

En 1965, Gordon Moore énonce une loi empire qui exprime l'augmentation exponentielle de la puissance des ordinateurs dans le temps : "le nombre de transistors dans une puce double, à prix constant, tous les 18 mois". Or l'organisation OpenAI - fondée par Elon Musk - révèle que cette loi pourrait également s'appliquer à l'IA. Plus précisément, la loi de Moore pourrai être valable pour ce qu'OpenAI appelle l'"efficacité algorithmique". Les chercheurs à l'origine de l'étude ont ainsi pu constater que la quantité de calculs requis afin de créer un réseau neuronal avec une performance similaire a décru d'un facteur 2 en 16 mois. Au-delà de ce résultat, le rapport d'OpenAI met en avant le fait que la notion d' "efficacité algorithmique"


Une proposition de résolution anti-LegalTech à l'Assemblée nationale ?

Une quarantaine de députés ont voulu exprimer leur désapprobation à l'égard de "Datajust".Ce traitement automatisé de données à caractère personnel, qui s'appuie sur le recensement des montants financiers des préjudices corporels liées à des décisions de justice, a été autorisé pour 2 ans par un décret du 27 mars 2020. L'objectif des parlementaires ? S'assurer que l'IA ne prenne pas des décisions "en lieu et place des juges". La proposition s'interroge pêle-mêle sur la "disparition progressive des avocats", l'avènement d'une société de "juges-robots"voire l'"automatisation de la justice". S'ensuit une série de questions plus fines sur les enjeux de transparence ou de commercialisation qui se posent. Le texte rappelle enfin que le Conseil national des barreaux a déposé un recours devant le CE à ce sujet et invite le Gouvernement à "retirer ce décret aucunement prioritaire en ce temps de pandémie."Fin du deuxième acte.

Kommentare


Post: Blog2_Post
  • Facebook
  • Twitter
  • LinkedIn

©2020 par AI for Citizen. Créé avec Wix.com

bottom of page