top of page

Revue de presse IA de janvier 2021 - n°1

  • Photo du rédacteur: AI for Citizen
    AI for Citizen
  • 21 janv. 2021
  • 3 min de lecture

Dernière mise à jour : 11 févr. 2021




Le "rapport Bothorel" invite à poursuivre la dynamique d'ouverture des données

Le rapport, présenté au Premier ministre fin décembre 2020, appel à agir. Il souligne combien la France a eu une longueur d'avance depuis une dizaine d'années quant à l'ouverture des données. En témoigne la création d'Etalab, la mission d'administrateur général des données ou encore le principe "d'ouverture par défaut" prévu par la loi depuis 2016. Toutefois, des progrès substantiels doivent être réalisés pour maintenir cette dynamique… et ne pas prendre du retard ! Et le rapport de souligner que "le partage des données entre administrations de l'Etat est [encore] scandaleusement faible". Pis, certaines administrations ne semblent pas avoir pris la mesure de la valeur ajoutée potentielle, pour l'Etat, les citoyens et les entreprises du principe "d'ouverture par défaut". Beaucoup ne jouent pas le jeu et le vivent comme une obligation ou avec désintérêt. "Nous ne sommes pas un service de statistiques" ont pu ainsi entendre les auteurs du rapport. Aussi, est-il désormais essentiel de poursuivre les efforts d'ouverture, d'encourager la création de hubs sectoriels - dans le sillage de la dynamique européenne en cours - et, surtout, de poursuivre l'acculturation des acteurs publics. Un portage politique clairement identifié par des "administrateurs ministériels des données, des algorithmes et des codes sources" (AMDAC) et une évolution législative devraient permettre de continuer à lever les freins persistants à l'ouverture des données. Enfin, le concept de "données d'intérêt général" pourrait naître pour recourir aux données détenues par des acteurs privés et d'intérêt commun, comme des données téléphoniques permettant de mieux gérer les incendies.

Le rapport complet ici.


IA et Santé en 2021 : ce qui nous attend

La médecine digitale devrait permettre de gagner du temps tout en offrant des soins de meilleure qualité et moins coûteux. Les outils d'IA peuvent contribuer à rendre les processus encore plus efficaces, notamment la régulation médicale en identifiant les cas urgents et les médecins ou ressources qu’il convient de leur affecter. Dans le diagnostic, ces outils permettront par exemple, de pointer instantanément les cellules cancéreuses et d’automatiser certaines tâches comme le comptage des cellules, la mesure de paramètres et la rédaction automatique de rapports. En intégrant de grandes quantités de données provenant de sources diverses, une sorte de « tableau des tumeurs » permettrait aux experts de différents domaines de partager leurs conclusions et leurs connaissances afin de s’accorder sur un diagnostic et sur le traitement à suivre. La télésanté basée sur l'IA transformera la visite chez un médecin grâce, entre autres, à des chatbots et à des dispositifs de détection permettant d’examiner et de diagnostiquer les patients à distance. Les algorithmes d'IA pourraient également aider les oncologues à stratifier les patients en groupes plus petits et homogènes et à choisir un traitement personnalisé pour chacun sur la base d'une multitude de données recueillies. Grâce au dossier médical électronique (DME), l'IA peut aussi créer des processus qui permettent de revoir rapidement les procédures médicales et les diagnostics en détectant les erreurs suffisamment tôt. (MedCityNews, 23/12/20)


Une arme supplémentaire contre les fake news

La responsabilité des réseaux sociaux dans la censure de messages incitant la violence, ou le partage de fake news pousse les géants des réseaux sociaux à investir dans des algorithmes de détection de tels contenus. Mais l’actualité américaine rappelle que l’on peut aussi agir au niveau de l’utilisateur en bloquant son compte. L’enjeu serait donc de pouvoir détecter des utilisateurs à risque. L’Université de Sheffield (Royaume-Uni) a justement développé une IA basée sur le NLP (Natural Language Processing) capable de prédire si un utilisateur de Tweeter partagera du contenu de sources non vérifiées, en s’appuyant sur leur habitude de partage, avec une précision de 80% ! Ces utilisateurs peu fiables avaient plus tendance à tweeter sur de la politique ou de la religion. De quoi mieux armer les réseaux sociaux et gouvernements contre la diffusion de fake news, crucial dans des contextes d’élections...

(la publication complète ici)


Financial Times : Les algorithmes en temps de pandémie

La crise mondiale du coronavirus a incité les gouvernements à augmenter leur utilisation de l’IA, mais en corollaire, provoqué la défiance des populations. Des technologies basées sur des algorithmes décisionnels -comme le système d’harmonisation du A-levels en Grande-Bretagne, ou la reconnaissance faciale en France pour vérifier le port du masque- ont fait face à des contestations populaires ou ont été retoqués par les organismes de contrôle indépendants, à l’instar de la CNIL en France. L’utilisation d’algorithmes décisionnels implique des considérations éthiques complexes, évacuées promptement dans le contexte pandémique. La mise en place de structures de supervision des algorithmes, en particulier dans leur arbre de décision, est désormais indispensable pour garantir la confiance des citoyens. (Financial Times, 10/01/2021)



 
 
 

Comments


Post: Blog2_Post
  • Facebook
  • Twitter
  • LinkedIn

©2020 par AI for Citizen. Créé avec Wix.com

bottom of page