Retour au numéro
Vue 125 fois
juillet 2018

Des services publics par les citoyens et pour les citoyens* grâce au traitement collectif des données - retour d’expérience des ONGs Data for Good France et Bayes Impact - *sous caution de l’État

Publié par Nicolas ZHANG (P 2013 ICiv) et Dr Frédéric BARDOLLE - Docteur en hydrogéologie quantitative | N° 498 - INTELLIGENCE ARTIFICIELLE / ÉCONOMIE CIRCULAIRE

L’invention et la diffusion de l’imprimerie ont modifié en profondeur l’organisation des sociétés. L’émergence d’un web décentralisé et la croissance exponentielle des capacités de collecte et de traitement des données façonneront de même les sociétés de demain.

Comment œuvrer en vue d’une société plus démocratique, dans laquelle les technologies conféreraient aux citoyens le pouvoir de contrebalancer les intérêts privés, l’envie de s’ouvrir à l’altérité ainsi qu’une sensibilité accrue aux inégalités ? Les ONGs Data for Good et Bayes Impact s’y essaient depuis trois ans, et au fil des expérimentations ont émergé une vision de l’interface entre technologies et service public, ainsi qu’un principe méthodologique général. Ces deux convictions seront présentées dans cet article, accompagnées par la genèse de ces deux ONGs, un retour sur les avancements réalisés, et enfin les projets concrets pour le futur envisagés.

Un service public citoyen décentralisé, bénévole mais motivé, rendu possible et nécessaire par les nouvelles technologies

Les nouvelles technologies de communication offrent désormais à tout citoyen les moyens de collecter, traiter et partager l’information à grande échelle.

Le défi est maintenant de réussir à dépasser la consommation massive de ces flux, pour parvenir à un traitement collaboratif et une résolution collective de ce déluge.

De fait, dans un monde aux régions de plus en plus étroitement reliées et sur une planète aux ressources de plus en plus contraintes, il nous faut redéfinir de toute urgence une éducation pratique civique à l’aune des possibilités offertes par les technologies du digital. C’est l’étape incontournable pour être en mesure de continuer à construire des processus de décision toujours plus démocratiques, encore plus inclusifs, pour ainsi faire face aux défis économiques, sociaux et ontologiques accompagnant ces nouvelles technologies.

En effet, quelle meilleure réponse à nos peurs d’une Intelligence Artificielle forte éventuellement supérieure à l’homme, qui finirait par nous asservir, d’une manière ou d’une autre - “pour notre propre Bien” ?

Tous les individus poursuivent de fait des objectifs perçus comme bénéfiques pour soi (et parfois même pour les autres), chacun investi par plus ou moins de fortune selon les circonstances. Et c’est bien au travers de nos institutions, de nos échanges et de nos interactions que collectivement nous décidons en continu du bien commun, et que collectivement nous amortissons et nous nous protégeons des ambitions extrêmes d’un certain nombre de personnages de notre histoire.

Ainsi, pour que nos sociétés puissent contenir les ambitions éventuelles d’êtres artificiels potentiellement encore plus rusés et démagogues que certains des présidents élus contemporains, ce sont tout d’abord nos institutions que nous devons renforcer, en nous impliquant davantage, nous les citoyens. Il nous faut pour cela concevoir les prochains outils, mécanismes et protocoles pour rendre possible une pratique civique non plus réservée à une poignée d’élus temporaires et faillibles même s’ils sont légitimes (tout être humain comme artificiel étant faillible, nul ne devrait détenir trop de pouvoir en soi), afin que chacun de nous puisse apporter sa contribution, en quelques clics depuis chez soi, simplement, même modestement, à l’image du contributeur anonyme sur Wikipédia, mais avec motivation et passion autour des sujets qui lui tiennent à cœur (là encore à l’image du contributeur anonyme sur Wikipédia, animé par une logique et une motivation propres). Ainsi seront véhiculées, débattues et considérées les différentes valeurs que chacun de nous portons, afin qu’émerge une décision représentative de la majorité des personnes intéressées ou impliquées - les parties prenantes - au sein d’une problématique donnée.

Et ceci pour à terme la gestion de toutes les questions, tous les sujets, des plus techniques aux plus politiques. Rien ne garantit en effet que les meilleurs chercheurs en intelligence artificielle soient également les plus motivés pour explorer les questions d’éthique posées1 , que les dirigeants d’entreprises les plus plébiscités par les actionnaires soient également les plus formateurs vis-à-vis de leurs salariés, que les élus d’une circonscription pensent également aux électeurs du canton voisin.

Il faut de tout pour faire un monde. Et, pour que ce monde soit vivable, il doit fournir des opportunités à chacun selon ses goûts (économiques certes, mais également et surtout civiques), pour que puissent continuer de croître notre richesse, notre diversité et notre créativité - ce qui constitue en somme le génie de notre espèce humaine.

Data for Good et Bayes Impact sont deux ONGs qui fournissent des exemples de collaboration ouverte, entre les services publics de l’État et les services publics du citoyen

Voici leur histoire, le retour sur trois ans de projets, ainsi que la genèse de notre vision.

Parce qu’avec toute science vient également une responsabilité - le secteur privé ne doit pas monopoliser toutes les ressources nécessaires à la pratique de la science des données.

Ce constat d’un déséquilibre dans les moyens technologiques entre acteurs qui œuvrent pour l’intérêt général (citoyens, associations, institutions publiques et entreprises à fort impact social) et acteurs du secteur privé a été la raison d’être de Data for Good et de Bayes Impact, deux ONGs créées en parallèle en 2014-2015, visant à “faire se rencontrer des data scientists et des non-profits pour résoudre des problèmes à fort impact” (définition originelle des missions de Data for Good comme de Bayes Impact, reprise dans le rapport “Donner un sens à l’intelligence artificielle - pour une stratégie nationale et européenne” de Cédric Villani d’avril 20182 ).

Depuis plus de trois ans, ces deux ONGs3 ont démontré la viabilité de services publics créés par les citoyens4 , l’utilité de l’approche citoyenne pour compenser le manque et/ou la mauvaise gestion de ressources des organismes d’intérêt général 5 , et enfin la nécessité d’acteurs technologiques tiers pour à la fois servir de garde-fous vis-à-vis des entreprises privées (en identifiant les biais contenus dans le design des algorithmes employés6) comme des pouvoirs en place capables de changer les institutions à leur avantage7 , en permettant aux citoyens d’analyser et d’interpréter eux-mêmes les mécanismes complexes en jeu dans nos sociétés, par le moyen des derniers outils d’analyses des données.

Science des données, pratique de la citoyenneté et possibilité de “régulation crowdsourcée” (S. Soriano, président de l’ARCEP8 )

La science des données (version appliquée et concrète de l’intelligence artificielle) est la clef rendant possible la vision d’une société plus décentralisée et plus citoyenne.

En effet, là où auparavant de larges ressources devaient être consacrées par une entité centrale pour mettre en place les canaux de collecte des données (historiquement souvent dans un but militaire), données ensuite jalousement réservées à une poignée d’usagers proches des pouvoirs établis, aujourd’hui les moyens technologiques sont suffisants pour envisager une collecte et une exploitation collective et décentralisée de l’information.

Et là où il fallait auparavant une armée de petites mains pour analyser les grandes bases de données, aujourd’hui quelques algorithmes suffisent pour qu’une seule personne puisse en un temps record traiter l’ensemble de ces informations, comme par exemple dans le cas des projets, menés par Data for Good avec le Ministère de l’Agriculture, de détection automatique via l’analyse sémantique des restaurants insalubres, grâce aux millions de commentaires disponibles sur TripAdvisor, ou encore l’exemple de l’identification de potentiels responsables de blanchiments d’argent par des data scientists de Bayes Impact en analysant les corrélations anormales dans les réseaux financiers.

Qui plus est, de par la philosophie open-source et de transparence d’un grand nombre d’acteurs de ce domaine (c’est d’ailleurs l’un des enjeux les plus importants du moment dans la recherche académique en intelligence artificielle), cette technique acquise au terme d’un labeur personnel peut ensuite être reproduite et diffusée au sein d’outils réplicables et réutilisables par tous, même sans connaissance technique préalable des algorithmes, tout en laissant aux différents usagers le choix dans les paramètres à injecter aux modèles (mots-clés associés à l’insalubrité des restaurants, variables financières analysées, différentes modalités de redécoupage électoral, etc.).

Ainsi chacun peut apporter un nouvel éclairage au problème grâce à ses connaissances propres du sujet, en interrogeant la base de données par différents axes de raisonnement, et en mettant différentes variables en entrée9 .

Notre approche de compréhension et de résolution d’un problème change alors de paradigme : alors qu’auparavant les différentes parties prenantes d’un problème partaient chacune de données différentes dont elles tiraient des analyses contradictoires, il s’agit maintenant de travailler sur une base de données commune, à partir de laquelle chacun peut apporter son analyse, en conformité avec ces données partagées. Et ceci avec comme effet secondaire positif une éducation générale par la pratique à la science des données (et donc une démystification des IA) et aux sujets analysés. L’éducation des citoyens ou le facteur critique de toute démocratie…

De là est née notre vision de créer des agoras décentralisées autour de données partagées, sur lesquelles pourront se construire des compréhensions de plus en plus fines des problèmes complexes, et où pourront s’affronter les analyses reflétant les intérêts de chacun, à l’image des marchés organisés économiques, en vue d’une prise de décision collaborative (il est d’ailleurs étonnant que les marchés d’information et de décision civiques soient si embryonnaires, alors que nous avons si bien su organiser les marchés économiques. Ou plutôt que ces informations soient produites par les administrations pour les administrations, l’accès aux députés ou au citoyen lambda étant encore embryonnaire).

Un premier exemple concret d’une telle agora serait la plateforme Transitions² portée par la Fing, l’ADEME, Inria, l’Iddri, les Petits Débrouillards et d’autres, visant à « mettre le numérique au service de la transition écologique » et permettant notamment de récolter de manière collaborative de la donnée liée à l’environnement, ainsi que de l’information sur les personnes, les groupes, les projets, les outils, les connaissances et les imaginaires qui relient numérique et écologie (“plus de 500 contributions sont déjà référencées début 2017, et les contenus sont sous licence Creative Commons : chacun peut s’en servir pour ses actions et en compléter le recensement”). L’initiative est louable et critique lorsque l’on connaît la difficulté à obtenir des informations complètes et pertinentes sur le sujet, toutes les analyses actuelles étant fondées sur une base de données de l’Agence Internationale de l’Énergie à accès payant (chère ! alors que l’AIE est un organisme financé en partie par la collectivité), et basées sur des modélisations à l’apparence opaque (les données sources aux modèles de l’AIE proviennent directement des producteurs pétroliers).

Cependant souvent la donnée existe déjà, et c’est à nous de nous en saisir pour compléter les agences de surveillance et de régulation (des marchés financiers, des données, de la santé, de l’hygiène publique10 , etc.) : en effet ces agences de régulation sont souvent dépassées par l’ampleur de la tâche11 , s’appuient souvent sur des acteurs privés dont les intérêts ne sont pas nécessairement alignés, au terme de tractations parfois opaques, tout en n’utilisant pas au maximum les potentiels des outils technologiques à leur disposition (les employés du public ayant également une vie en dehors du travail). Face à ces défis nouveaux, les processus institutionnels ont-ils atteint leurs limites ? À l'Autorité des Marchés Financiers, par exemple, comment s’assure-t-on que l’on mobilise au mieux les ressources d’enquêtes dont on dispose - qui sont par nature finies - pour traiter tous les cas de fraudes signalés ?

Or, les données (anonymisées certes) que ces agences fournissent à leurs partenaires technologiques privés, ne serait ce pas plus économique et plus efficace de les rendre accessibles à tous ceux qui souhaitent les analyser, pour que chacun puisse identifier les anomalies et cas à traiter ? Indépendamment des motivations poursuivies (les banques seront ravies de dénoncer les travers de leurs concurrentes, des startups ravies de démontrer les performances de leurs technologies, les académiques de définir de nouveaux phénomènes existants, sans même parler des ONGs engagées ou des citoyens justiciers…), nous pouvons créer une agora visant à développer des analyses beaucoup plus exhaustives, moins coûteuses, formant un public mieux informé, davantage impliqué.

Ce sont ces premiers exemples que nous souhaitons étendre, pour qu’à long terme tous les intéressés puissent participer directement à la surveillance des pouvoirs et des mécanismes de création et répartition des richesses, et ce à l’échelle nationale (choix des seuils d’imposition, évaluation de l’efficacité des politiques publiques, etc.) mais également à l’échelle internationale et macro-économique (modalités et efficacité du système monétaire international ainsi que du FMI, décisions des banquiers centraux, etc.). Les choix de ces leviers macro-économiques, déterminants pour les milliards de personnes vivant sur terre, peuvent-ils être laissés aux mains de quelques-uns ou gagnerait-on en efficacité collective à partager plus largement les données à la base du processus de décision ?

Avec la surveillance et la compréhension viendront ensuite la co-construction et la prise de décision collective. Pour illustrer ce dernier point abordons le cas des algorithmes assurant le bon fonctionnement opérationnel de nos sociétés, comme feu APB (Admission Post Bac, le dispositif de répartition des lycéens vers l’enseignement supérieur, remplacé depuis par ParcourSup). L’excellent article de Claude Revel sur “le testament d’APB” dans la revue de “l’ENA hors les murs”, numéro de mars 2018 (malheureusement non digitalisée...), revient sur les différents enjeux et défis rencontrés par ce dispositif maintenant considéré comme un “échec”, et emblématique des problématiques liées aux plateformes publiques au service des usagers. Opacité du système mais plus encore “d’un pilotage que l’on ne qualifiera pas”, insuffisance voire “absence de base juridique et réglementaire”- et donc de légitimité démocratique -, et “incompréhension du public ciblé, ce qui revient à une preuve d’inefficacité car une plateforme numérique publique est d’abord là pour faciliter la vie des citoyens. Sinon, on peut s’interroger sur une procédure qui serait scientifiquement autoritaire”…

C’est pourquoi “il faut penser l’ouverture en amont 12 . Quels que soient les résultats des modifications et améliorations apportées aux codes sources et aux algorithmes via leur ouverture à tous, la question sera de savoir à quelle étape interviendra la loi, c’est-à-dire la représentation des citoyens : après les améliorations apportées aux codes techniques, pour les valider ou les modifier - ce qui sera difficile a posteriori ? Ou avant, pour fixer les orientations politiques auxquelles devrait toujours se conformer l’algorithme - et ses modifications ? Les exigences de la démocratie ne semblent apporter aucun doute sur la réponse. Il s’agit donc de maîtriser la situation dans les faits”.

Quels acteurs pour conduire ce changement ? De la redistribution des pouvoirs et de la nécessité d’une construction bottom-up en démocratie : repensez votre métier en termes de protocole décentralisé !

Implémenter ces changements “dans les faits” est la partie la plus délicate du problème. En effet la situation actuelle est le résultat de dynamiques complexes entre volontés privées, aspirations populaires, et contraintes socio-technico-économiques - le tout aboutissant à un équilibre fragile et temporaire.

Les personnes et administrations en place peuvent avoir la tentation de chercher à préserver leurs privilèges en limitant les adoptions de ces innovations à un ensemble de mesures techniques visant à des gains d’efficience à la marge, alors qu’elles auraient pu être le début d’un équilibre nouveau, un peu plus équitable, un peu plus démocratique, un peu plus en avant dans l’histoire de l’humanité.

Le statu quo est cependant une chimère : ces nouvelles technologies profiteront toujours plus à certains - qui pour gagner de l’argent, d’autres des élections13, et des nations entières parviennent en une durée très courte à modifier le rapport global des forces.

L’accélération du rythme des innovations technologiques, les régressions du multilatéralisme, le retour des États-Unis de Trump vers un monde purement guidé par les rapports de force et les expérimentations techno-totalitaires du Parti communiste chinois montrent à quel point la partie est tendue et combien une prospérité commune est lointaine. L’histoire de l’humanité sera-t-elle un éternel recommencement d’ordres globaux dictés par les vainqueurs pour préserver leurs intérêts - first ? Le Monde d’Hier et les regrets d’un Zweig sur l’impuissance de la masse des citoyens à empêcher le déchaînement de quelques uns…

Ces peurs (plus réelles sans doute que celles concernant les intelligences artificielles) sont autant de raisons pour nous efforcer constamment de rappeler quelles valeurs, quels idéaux et quel monde nous aimerions voir émerger. La décentralisation qui aurait dû accompagner la globalisation nous paraît être la seule solution à long terme pour équilibrer les inégalités et réaliser le potentiel maximal de l’humanité.

C’est pourquoi nous appelons ici tous ceux, data scientists, économistes, citoyens engagés, à se rencontrer et à échanger autour de pistes concrètes de projets de décentralisation et de crowd-régulation de services publics existants, grâce aux connaissances et aux expériences de chacun, pour petit à petit avancer vers un futur dans lequel l’information et la communication seront les moteurs d’une nouvelle société.

Pour conclure et pour répondre à l’appel à l’imagination, piste privilégiée de réponse aux défis posés par la prédiction autour des IA14 par l’ancien directeur IA du MIT, reprenons et partageons ici la “Grande Vision” qui conclut les deux cycles majeurs des Robots et de Fondation d’Asimov, père de la “robotique15 ”.

“−Toute la planète et tout ce qu’elle abrite est Gaïa. Nous sommes tous des individus - des organismes séparés - mais nous partageons tous une même conscience globale. Trevize opina. “Je me doutais de quelque chose comme cela… Dans ce cas, Joie, qui dirige ce monde ? −

Il se dirige tout seul. Ces arbres poussent en rangs bien alignés de leur propre initiative. Ils se multiplient juste assez pour assurer le renouvellement de ceux qui pour quelques raisons meurent. Les êtres humains récoltent les pommes dont ils ont besoin ; les autres animaux, y compris les insectes, mangent leur part - et seulement leur part.

− Et la pluie sait ce qu’elle a à faire, pas vrai ?

− Oui, absolument, fit Joie, imperturbable.”

Une Humanité unifiée par sa conscience, décentralisée par ses institutions et diversifiée dans sa richesse culturelle − Gaia, telle que décrite par Asimov au terme de l’exploration d’une myriade de modèles de société avec (et parfois sans) intelligence artificielle, serait ainsi un genre de super-organisme communicant avec tous ses membres. L’individualité est contrebalancée par cette communication constante, et tous ses membres se présentent sous la forme : «Je/Nous/Gaïa». De même, les décisions sont prises par l’ensemble des acteurs de la planète,sans que l’on puisse trouver qui en est à l’origine. Toutes les informations, vécues et reçues à travers chacun de ses membres, sont conservées dans une mémoire collective, de sorte qu’aucune donnée ne soit jamais perdue.

Et Asimov, lorsqu’il avait décrit ce monde idéal, n’avait pas pu connaître encore le développement actuel de l’Internet et des réseaux décentralisés décrits dans cet article. Mais ne pouvons-nous pas, résolument, franchir ce pas, et établir ces liens ? ■

 

 

1 Un axe majeur de l’ONG data for good vise justement à explorer ces sujets d’éthique, via des meet-ups réguliers, un travail en cours sur “un serment d’Hippocrate des data scientists”, ainsi qu’une revue éditée par nos bénévoles consacrée à La data en clair.

2 Voir page 177. Le rapport est accessible sur le site https://www.aiforhu-manity.fr

3 Data for Good et Bayes Impact ont adopté deux modèles opératoires opposés : Data for Good est 100% bénévole et fonctionne surtout par sa communauté, dont sont également issus les membres de l’organisation travaillant en dehors de leurs professions respectives. Les projets, pensés et conçus par la communauté ou définis avec des associations et entités de l’Etat, sont “accélérés” deux mois deux fois par an, durant lesquels les béné- voles se réunissent hebdomadairement pour avancer ensuite chacun de son côté le reste de la semaine.

Bayes Impact est 100% professionnelle, salariée et à temps plein, ce qui lui permet de soutenir des projets de développements de plus long terme en contrepartie d’une croissance de la taille des équipes plus limitée.

4 Les résultats (ainsi que les financements, le mode de gestion…) de la plateforme web bob-emploi de Bayes Impact, appliquant des algorithmes de recommandation automatique pour mieux analyser la situation des cher- cheurs d’emploi, mieux les orienter et les accompagner tout au long de leur recherche, grâce à la fois aux algorithmes et au soutien de bénévoles humains, sont disponibles en toute transparence sur la page suivante : https://www.bob-emploi.fr/transparence.

5 Au-delà des nouveaux services rendus possibles par la science des données, l’emploi d’algorithmes d’analyse et d’optimisation permet égale- ment d’améliorer efficacement une pléthore de services existants. Par exemple la réduction du temps de réponse des ambulances de San Francisco permise par Bayes Impact, de 15min à 9min, grâce à la seule implémentation d’algorithmes pour prédire le nombre d’ambulances nécessaires selon les moments de la journée, de l’année, des quartiers… et optimiser leurs points de départ, les trajets suivis. Idem pour la distribution alimentaire dans les 800 centres en France de la Croix-Rouge, améliorée par data for good.

Enfin, data for good sert également occasionnellement de main d’œuvre gratuite pour la Cour des Comptes, qui depuis 2014 s’est engagée à ouvrir et valoriser les centaines (voir les milliers) de rapports, publications et études produits chaque année pour évaluer la tenue des comptes publics et la conduite des politiques publiques. C’est dans ce cadre qu’est née la Databox, une bibliothèque ouverte regroupant un grand nombre de jeux de données collectées que les utilisateurs peuvent ensuite réutiliser et enrichir, en cours de réalisation et d’amélioration

6 Le projet AlgoTransparency accéléré par data for good a mis en lumière de manière très concrète, d’abord lors des élections présidentielles, ensuite sur des sujets comme le réchauffement climatique ou encore le droit au port d’armes à feu, l’exploitation par les algorithmes de recommandations de YouTube de la propension des internautes à être attirés par les extrêmes. En effet, pour garder les internautes “englués” sur le site plus longtemps et générer plus de recettes de publicités, ces algorithmes vont partir des opinions existantes chez le visionneur pour escalader rapide- ment dans son sens, avec des vidéos toujours plus radicalisées. Vous pouvez jouer et découvrir ces biais par vous-même sur le site https://algo- transparency.org, ou découvrir les couvertures par le Monde, the Guardian, the New York Times ou encore la MIT Technology Review du projet.

7 Un exemple de projet en lien est celui en cours de réalisation du "Redécoupage citoyen. Nous votons : nous dessinons" réalisé avec l'asso- ciation f0rk. De fait le gouvernement vient d’annoncer la baisse de 30 % du nombre de députés dès 2022, soit 404 députés au lieu de 577 aujourd’hui. La conséquence induite est un vaste redécoupage des circonscrip- tions existantes.

D’où les questions de comment faire en sorte que ce redécoupage soit réa- lisé en toute transparence et selon des critères objectifs, afin d’éviter le «gerrymandering» (expression américaine décrivant la fraude électorale par découpage de circonscriptions optimisées pour certaines personnali- tés qui s’y feront élire à coup sûr) sans négliger les contraintes liées aux opérations de vote. L’objectif de notre initiative est de permettre à tout citoyen de réaliser son propre redécoupage électoral, en jouant sur plu- sieurs variables objectivables.

8 Voir la tribune de Sébastien Soriano “pour réguler les barbares, il faut barbariser la régulation”, accessible sur son medium personnel au lien suivant : https:// medium. com/@ sorianotech/ num%C3 %A9 rique- pour- r%C3%A9guler-les-barbares-il-faut-barbariser-la-r%C3%A9gulation- 6da2db380075

9 Par exemple l’analyse du ratio du nombre d’ordres financiers modifiés ou

annulés sur le nombre d’ordres financiers réalisés permet de détecter des cas d’abus de marchés comme le spoofing ou le layering, tandis que l’ana- lyse du nombre d’ordres financiers réalisés sur les bénéfices réalisés per- met de détecter d’autres cas comme le délit d’initié - visibles par de gros bénéfices réalisés sur un nombre faible de transactions - ainsi que les blanchiments d’argent - visibles par beaucoup de transactions réalisant très peu de bénéfices, le but réel de ces transactions étant simplement de faire transiter l’argent douteux…

10 Mais aussi dans les transports, l’éducation, la science… Il revient surtout aux experts au sein des différents métiers de saisir ces sujets et les possibilités offertes par l’open data, pour concevoir puis construire les services envisagés - avec l’aide d’acteurs expérimentés en protocoles et plate- formes décentralisés.

11 De surveillance comme de développement des outils - la CNIL n’ayant par exemple pu effectuer que 300 contrôles, à la main, pour l’année 2017, pour un total de 3 condamnations, chiffre à comparer aux milliers de start-up créées chaque année. Ne pourrait-on pas concevoir des robots pour aller scraper et analyser automatiquement tous les formulaires d’ins- cription des sites à surveiller ? C’est le sujet d’échanges entre data for good et la CNIL en ce moment, tous les acteurs intéressés sont invités à rejoindre cette discussion.

12 Voir la loi pour une république numérique : obligation de publication des codes sources, obligation de publication des données sauf exceptions (délibérations du gouvernement, secret défense, etc.), ainsi que les démarches d’ouvre-boite.org, association dont l'objet est d'obtenir l'accès et la publication effective des documents administratifs, et plus particu- lièrement des données, bases de données et codes sources, conformément aux textes en vigueur.

13 Voir les logiciels à la manière de Liegey-Muller-Pons, qui ont permis aux candidats Obama, Hollande, Macron, Pécresse, de cibler au mieux les per- sonnes susceptibles de basculer vers le “bon” vote grâce au porte à porte, approche détrônée par la campagne Facebook de Cambridge Analytica pour le candidat Trump.

14 Interview relatée par la MIT Technology Review et traduite en français par courrier international, accessible aux liens suivants: https://www.technologyreview.com/s/609048/the-seven-deadly-sins-of- ai-predictions/ et https://www.courrierinternational.com/article/pour- quoi-lintelligence-artificielle-nous-fait-autant-fantasmer

15 Père du mot même de “robotique”, façonné à partir du mot slave “robotat” - “travailler”). Asimov a également, le premier, méthodiquement exploré toutes les possibilités de son invention (il a par ailleurs été chercheur à l’université Columbia, et un talentueux vulgarisateur scientifique).

Auteurs

Cofondateur de Cardabel (détection de fraudes financières).

Étudiant-chercheur à la Harvard Kennedy School et au MIT Institute for Data, Systems and Society.
Membre de l’équipe coordinatrice de Data for Good France et Bayes Impact.
Dr Frédéric BARDOLLE - Docteur en hydrogéologie quantitative

Articles du numéro

Commentaires

Commentaires

Vous devez être connecté pour laisser un commentaire. Connectez-vous.