Menu
facebook twitter
 
.
Lundi 7 mai 2018 à 16h50
Mark MacCarthy

Membre de la faculté à Georgetown University, chercheur associé au Georgetown center for business and public policy et Senior vice president de la Software & information industry association (SIIA).

 
 
 
« Lire la version originale en anglais »
 

Les algorithmes d’apprentissage automatique et la question du politique

Les algorithmes d’apprentissage automatique et la question du politique
 

WASHINGTON – Aux alentours de 1.200 av. J-C., la dynastie Shang en Chine organisa un système industriel de fabrication par milliers de grandes pièces de vaisselle de bronze, pour l’usage quotidien et les cérémonies rituelles. C’est un des premiers exemples de production de masse. Le processus de fonte du bronze impliquait une gestion complexe et la coordination d’importants groupes de travailleurs, réalisant les uns et les autres des tâches distinctes dans un ordre précis.

 

Un processus de production tout aussi complexe fut sollicité pour l’exécution de la fameuse armée de soldats de terre-cuite que le premier empereur de Chine, Qin Shihuangdi, mille ans plus tard, fit disposer pour garder sa sépulture. Selon le musée d’Art asiatique de San Francisco, ces statues "furent dressées grâce à un système d’assemblage qui préfigure les progrès de la production et du commerce de masse".

Certains chercheurs ont émis l’hypothèse que ces premières formes de technologies fondées sur un travail standardisé ont joué un rôle important dans la forme prise par la société chinoise. Elles semblent par exemple avoir prédisposé les populations à accepter des structures administratives, une philosophie sociale valorisant la hiérarchie et la croyance qu’il n’existe qu’une seule façon de faire correctement les choses.

Lorsque la manufacture s’industrialisa et que les usines furent introduites en Europe, au XIXe siècle, de farouches contempteurs du capitalisme, comme Friedrich Engels lui-même, reconnurent que la production de masse nécessitait une autorité centralisée, que le système économique soit capitaliste ou socialiste. Au XXe siècle, des théoriciens comme Langdon Winner ont étendu cette conception à d’autres technologies. Ainsi Winner pensait-il que la bombe atomique devait être considérée comme un "objet intrinsèquement politique", car "ses propriétés létales exigent que [sa possession] soit contrôlée et centralisée par une chaîne de commandement strictement hiérarchisée".

Aujourd’hui, nous pouvons pousser plus loin encore ces réflexions. Il n’est qu’à les appliquer aux algorithmes d’apprentissage automatiquela plus puissante des technologies génériques utilisées aujourd’hui. Mettant à profit les exemples fournis par le monde réel pour copier les capacités cognitives des humains, ces algorithmes commencent dès maintenant à pulluler sur les lieux de travail. Mais pour tirer pleinement partie de ces techniques, les organisations doivent redéfinir les tâches effectuées par les humains comme des tâches de prévision, plus adaptées à la puissance des algorithmes.

L’une des caractéristiques des algorithmes d’apprentissage automatique est que leurs performances s’améliorent avec la quantité de données disponibles. Leur usage crée donc une tendance technologique à traiter les informations concernant les personnes comme des données accessibles et qu’on peut emmagasiner. Comme l’était le système de production de masse, ils sont "intrinsèquement politiques", car leurs qualités fonctionnelles essentielles requièrent certaines pratiques sociales et en découragent d’autres. Ainsi les algorithmes d’apprentissage automatique s’opposent-ils frontalement au désir des individus de préserver leur vie privée.

Un système fondé sur l’accès public aux informations concernant chacun des membres de la communauté semble souhaitable à des communautariens comme le sociologue Amitai Etzioni, pour lequel les limitations du domaine de la vie privée sont un moyen de faire respecter les normes sociales. Mais à la différence des communautariens, les algorithmes sont indifférents aux normes sociales. Leur seule préoccupation est d’améliorer leurs prévisions, transformant pour ce faire de plus en plus de domaines de la vie humaine en ensembles de données dans lesquelles ils peuvent puiser.

En outre, tandis que la force des injonctions technologiques transforme les individualistes occidentaux en communautariens fortuits, il les rend aussi plus dépendants d’une culture de la méritocratie fondée sur des évaluations algorithmiques. Que ce soit au travail, à l’école ou sur des réseaux sociaux de rencontre, nous nous sommes déjà habitués à accepter que notre légitimité soit jugée par des outils impersonnels, qui dès lors nous assignent une position dans une hiérarchie.

Certes, les estimations à l’aide d’algorithmes ne datent pas d’hier. Voici une génération, des chercheurs comme Oscar H. Gandy dénonçaient les dangers d’une société reposant sur le système des notes et du classement. Mais à la différence des algorithmes d’apprentissage automatiques d’aujourd’hui, les outils d’estimation d’autrefois étaient raisonnablement bien compris. Ils prenaient des décisions fondées sur des facteurs normatifs précis et empiriques. Ainsi n’était-il un secret pour personne qu’en accumulant les débits sur une carte de crédit on pouvait perdre de la solvabilité.

En revanche, les nouvelles technologies d’apprentissage automatique sondent les profondeurs d’immenses ensembles de données pour trouver des corrélations qui sont prédictives mais ne sont guère comprises. Sur le lieu de travail, les algorithmes peuvent suivre les conversations des employés, mémoriser leurs commandes à la cantine comme le temps qu’ils passent au téléphone, sur leur ordinateur ou en réunion. Avec ces données, les algorithmes mettent en place des modèles complexes de productivité, qui dépassent de très loin les intuitions du sens commun. Dans une méritocratie algorithmique, c’est ce que demandent les modèles qui devient la nouvelle norme d’excellence.

Mais la technologie n’a pas force de destin. Nous lui donnons forme avant qu’elle ne nous déforme. Les dirigeants d’entreprise et les décideurs politiques peuvent développer et déployer les technologies qu’ils veulent, selon leurs besoins institutionnels. Il est en notre pouvoir de poser des filets de protection de notre vie privée et de préserver les domaines sensibles de la vie humaine, pour défendre les gens contre un usage nuisible des données, et pour contraindre les algorithmes à mesurer l’efficacité prédictive à l’aune d’autres valeurs comme l’honnêteté, la responsabilité et la transparence.

Mais si nous suivons le cours naturel de la logique algorithmique, une culture plus communautarienne et plus méritocratique est inévitable. Et cette évolution régulière aura sur nos institutions démocratiques et nos structures politiques des conséquences considérables. Comme deux spécialistes de la Chine, chercheurs dans des universités chinoises, Daniel A. Bell et Zhang Weiwei l’ont fait remarquer, les principaux concurrents politiques des traditions de la démocratie libérale occidentale sont les institutions communautariennes qui continuent en Chine leur évolution.

En Chine, les décisions collectives ne sont pas légitimées par le consentement explicite des citoyens, et les personnes disposent généralement de moins de droits à opposer au gouvernement, notamment lorsqu’il s’agit de contrôle. Le rôle d’un citoyen chinois ordinaire dans la vie politique est généralement limité à sa participation aux élections locales. Les dirigeants du pays sont quant à eux sélectionnés au terme d’un processus méritocratique, et se considèrent eux-mêmes comme les gardiens du bien-être de leurs concitoyens.

Les démocraties libérales ne basculeront probablement pas complètement vers un système politique de ce type. Mais si les tendances actuelles dans l’entreprise et la culture de consommation se maintiennent, nous pourrions bientôt avoir plus en commun avec les traditions méritocratiques et communautariennes chinoises qu’avec l’histoire de l’individualisme et de la démocratie libérale qui est pourtant la nôtre. Si nous voulons changer de cap, il nous faudra donner la priorité à nos propres besoins politiques sur ceux de nos technologies.

Traduit de l’anglais par François Boisivon

© Project Syndicate 1995–2018
.
.
.
.
Ajouter un commentaire
.
.

Votre commentaire

 

Il vous reste  caractères.
Code de sécurité
Rafraîchir

Accéder à la charte des commentaires »
.
.

Quoi de neuf?

.
.
.

Quoi de neuf?

.
.
.

- Médias 24 présente -

Le guide immobilier de Casablanca - Rabat

Le prix de vente du neuf et de l’occasion, quartier par quartier, appartements, villas, terrains

Guide offert par
.
.
.
.
.
.
 
Abonnez vous à nos newsletters et alertes
.
TOUT LE FIL
Close