Intelligence artificielle: les propositions de l’OPECST

L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a été saisi en 2016 par le Sénat pour mener une étude sur l’Intelligence Artificielle (IA). Il prône une intelligence artificielle maîtrisée, utile et démystifiée.

Myriades d’études

Les conférences et rapports sont innombrables : d’organismes politiques (Parlement européen, Maison Blanche qui a édité « Seizing opportunities, preserving values », etc), des instituts (Institute of Electrical and Electronics Engineers, INRIA, etc), CERNA sur l’éthique de la recherche, des académies, des organisations professionnelles, des laboratoires,…sans oublier le monde réel des entreprises de la Silicon Valley.

Qu’est-ce l’IA ?

Depuis Alan Turing, voire la machine de Pascal, l’informatisation a progressivement donné à la machine des capacités supérieures au cerveau. L’IA a des bases anciennes (réseaux bayésiens, chaines de Markov, Monte Carlo,…), voire très anciennes puisque s’appuyant sur des algorithmes (connus depuis Euclide). L’algèbre par exemple date de l’antiquité, comme les chiffres et même le zéro (les 2 noms venant d’Inde via l’arabe sifr, le vide).

Le développement de l’IA est lié à celle du big data, marqué par les 5 V (véracité, vélocité, variété, volume, valeur). Le big data est rendu possible grâce à l’explosion des capacités (nombre de gigabytes/inch, stockage par cloud, loi de Moore dépassée avec le doublement en 18 mois du nombre de transistors sur un microprocesseur sur puce en silicium). Et encore, tout ceci est avant l’arrivée d’ordinateurs quantiques (rêve de R. Feynman) qui ferait encore changer d’échelle la pensée.

Mais l’IA ne consiste pas seulement à du traitement de données massives, mais aussi à beaucoup d’autres développements comme les systèmes multi agents, agissant comme des fourmilières, mais sur la toile.
Un algorithme est une série d’instructions permettant de calculer, mais aussi de structurer de l’information (moteurs de recherche, big data,…), de communiquer (internet of things, drones), de fabriquer des biens (imprimantes 3D, véhicules sans conducteurs), etc. L’intelligence artificielle se distingue (historiquement par le test de Turing) de la simple exécution calculatoire, par sa capacité à « comprendre » et apprendre (machine et deep learning). Avec un réseau de « neurones formels », on peut même développer des ordinateurs par anthropomorphisme, avec des logiques floues (en rajoutant au binaire oui/non, le « peut-être»).

La peur de l’IA

L’IA présente parfois un jour inoffensif, comme quand des ordinateurs battent des humains à des jeux de société, type jeu de Go en 2016. Mais des scientifiques alertent sur les dangers, en préconisant l’interdiction de robots tueurs. Il ne faudrait pas que les Pygmalions ou les Golems nous échappent.

L’OPECST entend démystifier pour calmer les angoisses liées à l’essor de l’IA. Il faut bien admettre que depuis les écrivains comme Isaac Azimov ou Arthur C.Clarke, jusqu’aux cinéastes comme Stanley Kubrick, les exemples où les machines prennent le contrôle des hommes sont légions.

Des conséquences en tous domaines

Certes l’IA touche en premier lieu les sciences. Avec une telle accélération (doublement des données digitalisées tous les 2 ans), la science n’a plus de savants (car la connaissance change), mais seulement des chercheurs.

L’IA touche aussi la philosophie. L’ontologie n’est plus la philosophie de l’être, mais un ensemble structuré de concepts. L’éthique est également impactée par le transhumanisme, la programmation génétique ou l’effacement de la frontière homme-machine (homme augmenté ou transformé, robots humanoïdes).
Le monde financier ne sera pas plus bouleversé à terme que les autres secteurs, mais disposant de plus de fonds pour la R&D, l’industrie financière développe des outils à grande vitesse (CRM, big data, aide à la décision, robo-advisors, chatbots, fintechs, recherche de fraude,…).

Plus généralement pour l’ensemble de l’économie et l’emploi, depuis Schumpeter, on sait que chaque révolution technologique est une création destructrice d’emplois. Pour ne pas être perdante, la France doit prendre une part plus importante dans ces métiers.

L’Europe peut-elle rebondir ?

L’Europe a-t-elle laissé passer le train ? Aux USA, les géants GAFA ou plutôt GAFAMITIS (Google, Apple, Facebook, Amazon, Microsoft, IBM, Twitter, Intel et Salesforce) sont devenus des standards mondiaux du digital. On pourrait même ajouter leurs plateformes de réseaux sociaux (Netflix, Airbnb, Uber) ou de technologie (comme Tesla).

Seule la Chine, ne s’est pas laissée envahir et a également développé des géants du numérique (Baidu, l’équivalent de Google, Alibaba dans la distribution, Tencent pour les réseaux sociaux, Xiaomi, constructeur dans les technologies, etc).

L’Europe est aujourd’hui entièrement dépendante de ces technologies américaines, y compris en cas de guerre. La France s’est dotée d’un commandement de Cyberdéfense, mais les armées seraient paralysées si les outils des GAFAMITIS étaient bloqués.

L’Europe et notamment la France pourrait encore relever le défi. En effet, la plupart des développements sont en open source et peuvent être repris, et la France dispose de mathématiciens. Les « cloisters » (pépinières de start-up) se développent dans le pays du bon vivre, même si la France reste connue pour ses contraintes juridico-administratives (de la loi Cnil du 6/1/78 jusqu’à la RGPD du 27 avril 2016) et -d’après EM- pour sa difficulté à se réformer.

Préconisations

Les préconisations de l’OPECST sont un mélange de bon sens et de biais politiques :
– éviter les rajouts de contraintes juridiques (4 lois en France entre 2015 et 2016 sur le sujet),
– favoriser les algorithmes sûrs, transparents et justes, et sécuriser les systèmes d’IA,
– former à l’éthique, avec un institut de l’éthique (tropisme français illusoire dans un domaine aussi mondial), évaluer les besoins et favoriser la formation continue et la recherche à but social, former dans les écoles mais aussi le grand public (justement les MOOC peuvent y contribuer),
– favoriser la recherche publique (alors que celle du privée domine), encourager des champions européens, organiser des concours nationaux (il y a déjà des hackatons),
– favoriser la diversité (90% des programmeurs sont des hommes),
– éviter les usages alarmistes (Elon Musk et Stephen Hawking ont tiré la sonnette d’alarme),
– partager des bases de données. Certains ministères ont commencé, mais plusieurs professions bloquent sous des prétextes éthiques.

Partager l'article

Commenter