Revenir au site

Comment la Tech exacerbe les inégalités

Clémentine Désigaud, Fellow de l'Institut Open Diplomacy

30 juillet 2019

Comment faire du numérique un facteur d’inclusion plutôt que d’exclusion pour les individus dont les plateformes et les algorithmes rythment aujourd’hui la vie sociale, la participation politique et l’accès au travail ? En plaçant le sujet des inégalités, dont celles liées aux grandes mutations technologiques, au cœur de sa présidence du G7, la France veut montrer que les grands rendez-vous multilatéraux peuvent avoir un impact sur la société. La transformation numérique est en effet un sujet qui nous affecte tous directement en tant que citoyens, usagers et travailleurs. Elle est souvent perçue comme un phénomène qui suit sa logique propre, de la naissance de la société de l’information au règne des plateformes et des algorithmes jusqu’à l’automatisation du travail, laissant au passage une partie de la population en marge de ces grandes évolutions.

Mais considérer que la technologie est responsable des inégalités, c’est faire la part belle à un déterminisme technologique qui sape la confiance : selon un sondage BVA pour le Digital Society Forum, seuls 18% des Français estiment aujourd’hui que le numérique peut atténuer les inégalités sociales (Le Figaro, 2018). Pourtant, si les mutations technologiques affectent nos sociétés, elles sont aussi fondamentalement influencées par le contexte dans lequel elles interviennent. L’adoption d’un système technologique a des conséquences économiques, politiques et organisationnelles, mais l’organisation et les choix d’une société influent également sur la nature du changement technologique. Cette relation à double sens a été dépeinte dès les années 80 par les sociologues Donald MacKenzie et Judy Wajcman dans l’ouvrage fondateur The Social Shaping of Technology (1985).

Les inégalités exacerbées ou révélées par la transformation numérique ne sont, bien souvent, que le reflet de celles déjà présentes dans nos sociétés. Les inégalités liées aux différents niveaux de la fracture numérique reproduisent les disparités géographiques et socioéconomiques traditionnelles (I). Les individus à la marge de la sphère publique en ligne sont aussi ceux qui l’étaient hors ligne (II). Les discriminations algorithmiques reflètent les hiérarchies et les biais existants dans la société (III). Les plateformes s’insèrent dans les failles de notre modèle social et laissent entrevoir un futur du travail qui ne sera pas le même pour tous suivant le niveau d’éducation et de compétences (IV).

En renforçant et en automatisant les lignes de fracture et les discriminations existantes, la transformation numérique leur confère toutefois une nouvelle ampleur. Sans diabolisation, il faut prendre la mesure de ces enjeux en s’intéressant autant à leur architecture technologique que sociale. Le Sommet du G7 et les différents rendez-vous qui y mènent offrent l’occasion de poser le bon diagnostic, de comparer les situations et pratiques nationales, et d’envisager des solutions adaptées - afin de commencer à tracer la voie d’un numérique plus équitable dès le mois d’août à Biarritz.

Disparités d’accès et de compétences : le numérique creuse les lignes de fracture

La technologie tend à reproduire les lignes de fracture du contexte dans lequel elle se développe. Que ce soit entre pays ou groupes sociaux d’un même pays, les outils numériques ne se déploient donc pas au même rythme ni de la même façon. Ces voies d’adoption différenciées ont à leur tour des implications sociétales différentes, qui viennent creuser un peu plus les inégalités.

Au sein d’un même pays, les disparités géographiques et socioéconomiques traditionnelles modèlent l’accès à Internet. Aux Etats-Unis, selon le Pew Research Center (2019), un quart de la population n’a pas de connexion haut débit à domicile. Les minorités, les personnes âgées, les habitants des zones rurales et les personnes avec un faible niveau d’éducation et de revenu sont moins susceptibles d'avoir une connexion à domicile ou même d’utiliser Internet. En France, selon UFC-Que Choisir (2019), 10% de la population est privée d’un accès de qualité minimale. Les zones rurales sont les plus touchées : près de la moitié des résidents dans les communes de moins de 1 000 habitants sont privés d’une bonne connexion haut débit. Si les opérateurs français se sont engagés à fournir le très haut débit pour tous d’ici à 2020, ce sont les grandes villes qui bénéficient en premier des réseaux nouvelle génération. La question des compétences vient s’ajouter à celle de l’accès puisque « l’illectronisme » concernerait un Français sur cinq selon le secrétaire d’Etat chargé du numérique (Rolland, 2018). Le gouvernement envisage de débloquer une enveloppe de 100 millions d’euros pour former les Français aux outils numériques.

Au niveau international, les écarts dans l’accès à Internet restent importants. Par exemple, en 2017, 95% des Britanniques utilisaient Internet contre 28% des Zambiens selon l’Union internationale des télécommunications (UIT). Cet écart se réduit lentement, principalement grâce aux smartphones : l’UIT montre une plus grande convergence entre pays développés et pays en développement en termes d’abonnements téléphoniques que d’abonnements Internet. Le smartphone a longtemps été perçu comme un moyen de résorber la fracture numérique en apportant un « boom de connectivité » (Ling & Donner, 2009) aux pays en développement, qui ont toujours un accès limité aux ordinateurs. Environ un ménage zambien sur dix possèderait un ordinateur, contre huit sur dix en France selon les autorités des deux pays (ZICTA et Arcep).

Image 1 Pourcentage d'individus utilisant Internet par pays
Source : https://data.worldbank.org/indicator/IT.NET.USER.ZS?type=shaded&view=map

Le fait d’accéder à Internet via un ordinateur ou un smartphone est pourtant loin d’être neutre. Le répertoire numérique « mobile-only » est plus contraint que le répertoire « PC-based ». Les différences technologiques sur mobile (moins de fonctionnalités, moins de contenus adaptés) entraînent des disparités d’usage (moins de création de contenus, moins d’engagement des utilisateurs), souvent renforcées par l’absence de wifi. Par exemple, on compte plus d’un million de modifications sur Wikipédia par trimestre au Royaume-Uni (comme en France et dans la plupart des pays développés), contre seulement quelques milliers en Zambie (et dans la plupart des pays africains). Jonathan Donner, auteur de l’ouvrage After Access sur l’Internet mobile dans les pays du sud, qualifie ainsi les « mobinautes » d’ « information make-less ». Ces disparités d’usage ont des conséquences économiques et sociales non négligeables. Dans leur article « The Emerging Mobile Internet Underclass » (2014), les chercheurs Philip Napoli et Jonathan Obar expliquent que si le smartphone convient pour les usages de la vie quotidienne, il limite l’accès aux opportunités dont bénéficient les internautes « PC-based » (meilleure productivité, production de contenus complexes, accès à plus d’information et d’opportunités y compris professionnelles, acquisition de compétences numériques). Les auteurs pointent du doigt la façon dont les différences entre les accès mobile et PC exacerbent les inégalités, produisant « des citoyens de seconde zone ». Bien que dans une moindre mesure, les pays développés sont également touchés : aux Etats-Unis, environ un cinquième de la population n’a qu’un smartphone pour se connecter (Pew Research Center, 2019).

Image 2 Nombre moyen de modifications sur Wikipédia par semestre
Source : http://www.zerogeography.net/2012/02/where-do-wikipedia-edits-come-from.html

Ces disparités compliquent donc l’idée d’une fracture numérique binaire (accès/non accès) : le type d’équipement utilisé, la présence d’une connexion à domicile, la fréquence d’usage et la maîtrise d’un ensemble de compétences numériques sont autant de critères qui renforcent les inégalités existantes. Les mesures fondées sur la technologie – favoriser l’accès au smartphone ou le déploiement de la fibre – ne suffisent pas à connecter une société de façon équitable si les questions d’usages et de compétences ne sont pas adressées en même temps. Alors que des pans entiers de nos vies se déplacent en ligne – accès aux services publics, à l’information, au travail – les populations défavorisées risquent de l’être d’autant plus si les différents niveaux de la fracture numérique ne sont pas pris en compte.

En marge de la sphère publique, en ligne comme hors ligne

La transformation numérique produirait-elle donc des citoyens de seconde zone ? Les effets du numérique sur l’égalité politique ont fait l’objet de grands débats – Internet ayant été décrit tantôt comme « l’arme des forts » (Scholzman, Verba & Brady, 2014), tantôt comme un « grand égalisateur » (Xenos, Vromen & Loader, 2014). La fracture numérique est bien sûr le principal obstacle à l’égalité politique en ligne ; mais même au sein des citoyens connectés à Internet, on voit se reproduire les schémas traditionnels d’inégalités.

Selon Robert Dahl, auteur de l’ouvrage On Political Equality (2007), l’égalité politique repose d’abord sur deux conditions formelles que sont l’égalité de vote et l’égalité en droit. Or, le mouvement de dématérialisation des services publics peut pénaliser les groupes sociaux défavorisés dans l’accès à leurs droits. Des études ont en effet montré que même lorsque les populations défavorisées ont accès à Internet, elles ne s’en servent pas pour accéder aux services publics en ligne (voir par exemple Dodel, 2016). En France, 56% des personnes interrogées dans l’enquête BVA disent s’être déjà retrouvées démunies face à une démarche administrative en ligne. Le calendrier de la dématérialisation s’accélère néanmoins : le gouvernement souhaite que 100% des démarches soient réalisables sur Internet d’ici à 2022. Certaines doivent déjà être obligatoirement réalisées en ligne, comme la déclaration d’impôts. Il n’est pas impossible d’imaginer que l’inscription sur liste électorale puisse un jour se faire uniquement en ligne. Afin de limiter les effets de la transformation numérique du gouvernement sur les populations déjà défavorisées, il est donc important de renforcer les politiques d’accompagnement et de médiation numérique.

L’égalité politique repose également, selon Dahl, sur des conditions informelles comme l’accès à l’information politique et la participation au débat public. Mais comme pour l’accès aux services publics numériques, les questions d’information et de participation politique en ligne reflètent les inégalités traditionnelles. Dans The Myth of Digital Democracy (2009), Matthew Hindman montre que non seulement une toute petite partie du trafic Internet concerne les sites d’actualité et les sites politiques, mais que les hommes et les personnes âgées sont en plus surreprésentés au sein de ce trafic. Si Internet rend l’information politique plus accessible, il multiplie les options de divertissements et permet à ceux qui ne s’intéressaient pas à la politique de l’éviter de manière plus systématique en ligne. C’est la thèse de Markus Prior dans Post-Broadcast Democracy (2007) : l’accroissement du choix renforce les inégalités de participation à la vie politique. De plus, des études ont démontré que les actes politiques en ligne étaient stratifiés selon le revenu et l'éducation de leurs auteurs, comme pour les actes hors ligne. Pourtant, le numérique n’exacerbe pas systématiquement les inégalités politiques. Dans certains cas, il les réduit même en abaissant les barrières à l’entrée que sont le temps, l’argent et la volonté. Internet favorise en effet ce qu’Helen Margetts et ses co-auteurs appellent dans leur ouvrage Political Turbulence (2015) des « micro-actes de participation » : partage d’articles, signature de pétitions, micro-dons en ligne sont autant de façon de participer au débat public à faible coût. Ces micro-actes se retrouvent particulièrement lors d’événements politiques à forte visibilité, comme les élections présidentielles. En France, Frédérick Bastien et Stéphanie Wojcik (2018) se sont penchés sur le cas des campagnes présidentielles et ont constaté que l’âge et les compétences numériques, plus que le niveau d’éducation et la catégorie professionnelle, constituent des prédicteurs significatifs des « micro-actes » décrits par Margetts, modalités « sporadiques, mais néanmoins efficaces de politisation des individus ».

L’égalité politique repose enfin, pour Dahl, sur des conditions symboliques (sphère publique inclusive, respect pour toutes les voix). Dans Republic.com 2.0, Cass Sunstein nous mettait en garde, dès 2007, contre les risques des « information cocoons » et des « echo chambers » créés par les algorithmes des moteurs de recherche et des réseaux sociaux, ainsi que par notre tendance à nous entourer d’individus pensant comme nous. Selon Sunstein, les médias sociaux nous privent ainsi des deux critères d’une sphère publique saine : l’exposition à des points de vue non choisis et divergents, et le partage d’une gamme d’expériences communes. Ces mutations sont pointées du doigt comme étant responsables de la propagation des « fake news » dans de nombreux pays (Woolley & Howard, 2018) et de la polarisation des usagers. Dominique Cardon, directeur du Media Lab de Sciences Po, invite toutefois à ne pas tomber dans le déterminisme technologique en diabolisant les réseaux sociaux et explique que « le risque d’emprisonnement dans une « bulle idéologique » concerne en réalité des personnes peu engagées politiquement et à faible intérêt pour l’actualité » (2019). Une étude de William Dutton et Laleah Fernandez (2018), menée dans sept pays, a ainsi montré que seule une petite proportion d’internautes sont vulnérables face aux bulles de filtre, chambres d’écho et infox (entre 0,9% et 3,7% suivant les pays). Les utilisateurs plus âgés, avec des niveaux d’éducation ou de revenu plus faibles, sont parmi les plus vulnérables. Si ces menaces sont réelles, elles ne touchent donc pas tous les utilisateurs de la même manière.

Image 3 Pourcentage d’utilisateurs vulnérables face aux bulles de filtre, chambres d’écho et infox par pays
Source : https://www.iicom.org/images/iic/intermedia/jan-2019/im2019-v46-i4-internetusers.pdf

En résumé, Internet ne semble pas ramener au cœur de la sphère publique les populations défavorisées, qui sont les moins à même d’accéder aux services publics dématérialisés ou à une information de qualité en ligne, même si la possibilité d’effectuer de micro-actes de participation leur permet de s’engager ponctuellement. Il faut donc permettre à tous, et aux plus vulnérables en priorité, de développer des compétences et une culture numérique, mais aussi une capacité à accéder et évaluer l’information (« media literacy »). Face à ces problèmes qui touchent toutes les démocraties, les arènes multilatérales constituent un niveau adéquat pour l’échange de bonnes pratiques.

Comment les algorithmes automatisent les hiérarchies et biais de la société

Les algorithmes jouent un rôle croissant dans nos vies : ils organisent et trient l’information, étudient nos CV, calculent nos impôts et nos aides sociales… S’ils sont présentés comme des outils techniques impartiaux, exacts et objectifs, Tarleton Gillespie (2014) dénonce cette « fiction soigneusement fabriquée » et invite à « décrypter les choix humains et institutionnels qui se cachent derrière ces mécanismes froids ». Les procédures des algorithmes sont inévitablement sélectives et ne sont pas exemptes de biais : les algorithmes reflètent les rapports de force et les inégalités de leur milieu de conception.

Les algorithmes qui trient l’information, comme ceux du newsfeed de Facebook, se fondent sur des critères d’évaluation qui nous sont invisibles pour déterminer la pertinence des contenus. Les plateformes mettent ainsi en place un filtrage algorithmique, qui a un impact fort sur la visibilité et la mise à l’agenda de certains sujets. Zeynep Tufekci (2014, 2015) montre comment ce filtrage renforce les inégalités sociales et ethniques et pénalise les populations défavorisées, en prenant pour exemple les manifestations à Ferguson après qu’un adolescent afro-américain ait été tué par la police. Elle explique que les algorithmes de Facebook ont tardé à mettre en avant les contenus liés à la manifestation, alors que le sujet avait déjà pris de l’ampleur sur Twitter. Comme elle l’écrit dans « What Happens to #Ferguson Affects Ferguson », le filtrage algorithmique « s’ajoute aux inégalités existantes en termes d’attention, de visibilité et de contrôle » et pose « la question de l’écoute des sans-voix » (2014). Mais si Twitter peut aider les populations défavorisées à contourner le filtrage des médias traditionnels, la plateforme n’en reste pas moins marquée par une forte hiérarchisation : les médias de masse figurent parmi les comptes les plus suivis et la hiérarchie des intérêts fait écho à la hiérarchie de la couverte médiatique traditionnelle (Kwak et al, 2013 ; Wilkinson & Thelwall, 2012). Comme le résume Dominique Cardon (2019), « la compétition pour la visibilité […] crée des inégalités absolument considérables. La popularité numérique reste très difficile d’accès pour les acteurs périphériques. Et la distribution des audiences web continue globalement à reproduire les hiérarchies traditionnelles. »

Image 4 Le filtrage algorithmique détermine la place des contenus dans nos fils d’actualité
Source : https://medium.com/message/ferguson-is-also-a-net-neutrality-issue-6d2f3db51eb0

Créés dans un certain contexte social, les algorithmes reproduisent les biais et préjugés, conscients ou invisibles, de leurs concepteurs, des données d’entraînement et de la société en général. Les technologies biométriques en sont l’exemple type. Les produits développés sont souvent mal adaptés aux caractéristiques des femmes et des minorités (sous-représentées dans les milieux tech) et entraînés sur des données biaisées (reflétant les inégalités structurelles de la société). Ils sont donc « structurellement calibrées pour la blancheur » (Pugliese, 2007) et « échouent de façon disproportionnée à reconnaître les corps ‘autres’ » (Magnet, 2011), des outils de reconnaissance vocale inadaptés aux voix des femmes aux distributeurs de savon qui ne fonctionnent pas sur des mains noires. Les enjeux s’aggravent lorsque ces technologies sont utilisées par les forces de l’ordre, comme c’est par exemple le cas pour l’outil de reconnaissance faciale Rekognition développé par Amazon. Joy Buolamwini, chercheuse au MIT Media Lab et fondatrice de l’Algorithmic Justice League, a mis en avant les biais racistes et sexistes de l’outil, dont les taux d’erreur sont bien plus élevés dans le cas de femmes à la peau foncée que d’hommes à la peau blanche, et qui a échoué à reconnaître comme « femme » plusieurs personnalités afro-américaines (Buolamwini & Gebru, 2018 ; Buolamwini, 2018 ; Raji & Buolamwini, 2019). Testé sur les représentants au Congrès américain, Rekognition a identifié à tort 28 membres du Congrès comme des individus ayant été arrêtés pour crime. Les faux positifs touchent proportionnellement plus de représentants afro-américains (Snow, 2018).

Image 5 La représentante démocrate Alexandria Ocasio-Cortez à l’audition sur la reconnaissance faciale organisée par le Comité de contrôle et de réforme de la Chambre des représentants des Etats-Unis
Source : https://twitter.com/AOC/status/1131238601830879233

En dépit des biais et de l’opacité des algorithmes, les outils automatisés de prise de décision se déploient rapidement. Ils jugent des quartiers à surveiller, présélectionnent les candidats pour un emploi et prennent des décisions administratives. Sous couvert de rationalisation, ces outils intensifient souvent les inégalités structurelles : c’est ce qu’Oscar Gandy appelle la « discrimination rationnelle » (2008). C’est par exemple le cas des outils de recrutement qui amplifient les discriminations existantes envers les femmes (Dastin, 2018). De la même façon, les systèmes de calcul de droit automatisés peuvent limiter l’accès des familles aux prestations sociales ou les décourager. Dans Automating Inequality (2018), Virginia Eubanks cite l’Etat de l’Indiana en exemple, où plus d’un million de demandes d'aide publique en moins de trois ans ont été rejetées après avoir adopté le traitement automatisé des documents. Eubanks explique que les populations défavorisées sont la cible privilégiée des nouveaux outils de gestion de la « pauvreté numérique » : elles font l’objet d’une plus grande collecte de données et d’une plus grande surveillance numérique puisqu’elles vivent dans des quartiers plus surveillés par la police et ont recours à davantage de services administratifs. L’Etat du Maine a par exemple surveillé les retraits d’argent des bénéficiaires d’aides sociales, pointant du doigt les retraits effectués dans des bars et des bureaux de tabac. C’est ce profilage social qui conduit selon Eubanks à la mise en place d’une « digital poorhouse ».

Les outils automatisés, privés ou publics, influent donc sur la représentation des personnes défavorisées, leurs accès aux prestations sociales, ou encore la surveillance numérique dont elles font l’objet. Les femmes et les minorités sont les plus à même d’être soumise à un profilage social et ethnique, d’être victimes de biais et de subir l’effet limitant des filtres algorithmiques sur l’expression de leur voix ou leurs droits. Mais comme le dit Gillespie (2014) : « il faut résister au déterminisme technologique simpliste […] les algorithmes ne sont pas juste des lignes de code avec des conséquences, mais aussi des mécanismes construits socialement et gérés de façon institutionnelle ». La réponse doit donc être sociale (alerter sur les risques, encourager les femmes et les minorités à poursuivre des carrières dans le secteur technologique, intégrer l’aspect éthique dans les cursus d’ingénieurs) et institutionnelle (encadrer les algorithmes privés, garantir la transparence des algorithmes publics, constituer des bases de données ouvertes représentatives). Aux Etats-Unis, le Congrès a organisé plusieurs auditions sur les problèmes de la reconnaissance faciale. En France, la loi pour une République numérique prévoit déjà plusieurs obligations pour protéger les personnes soumises à des traitements algorithmiques de la part de l’administration.

Du travail numérique au futur du travail : une vulnérabilité à géométrie variable

Le numérique exacerbe les inégalités entre usagers et citoyens mais aussi entre travailleurs. Les mutations technologiques en cours – avènement des plateformes, progrès de l’intelligence artificielle et de la robotisation – ont déjà et continueront d’avoir des conséquences significatives pour le marché de l’emploi. La précarisation, les menaces de destruction et la transformation des emplois ne touchent cependant pas tous les groupes sociaux de la même manière. Les plus défavorisés aujourd’hui sont aussi les plus susceptibles d’exercer les nouvelles formes précaires du travail numérique ou de voir leur emploi être automatisé.

La transformation numérique a fait naître de nouvelles formes de travail numérique, souvent précaires, rendues possibles par les plateformes technologiques de mise en relation (comme Uber) ou de micro-travail (comme MTurk). L’architecture de ce travail numérique repose sur des outils techniques et des algorithmes mais aussi sur des pratiques sociales. Si les plateformes positionnent leur discours sur l’entrepreneuriat et l’indépendance des travailleurs, cette architecture a tendance à favoriser l’exploitation plutôt que l’émancipation des travailleurs indépendants. Le rapport Digital labour platforms and the future of work de l’Organisation internationale du travail (Berg et al., 2018) explique comment les méthodes de management des plateformes (fondées sur l’itération et les métriques) imposent à la fois des changements fréquents et des objectifs chiffrés aux travailleurs. L’asymétrie d’information, l’absence de capacité de négociation, la mise en concurrence des travailleurs, l’obligation de maintenir un certain taux d’acceptation, le transfert du coût des imprévus aux travailleurs et la non-portabilité de la réputation sont autant d’éléments qui instaurent une relation de domination entre plateformes et travailleurs. Dans leur étude de cas sur Uber, Rosenblat et Stark (2016) montrent en détail comment l’entreprise exerce un contrôle significatif sur les conducteurs, reposant sur une surveillance constante et un pouvoir asymétrique. En contournant le modèle traditionnel du salariat, le travail numérique favorise ainsi une économie d’indépendants et de travailleurs « à la tâche » à la situation précaire. En réponse, il faut à la fois restaurer le pouvoir des travailleurs érodé par les plateformes et adapter notre système de protection sociale à ces nouvelles formes de travail. Le rapport de l’OIT recommande de renforcer la capacité de décision et l’autonomisation des travailleurs en obligeant les plateformes à mieux partager l’information, à définir les métriques d’évaluation lors de négociations collectives et à assurer la portabilité de la réputation. En France, le Conseil national du numérique souhaite également instaurer des obligations légales (plutôt que des chartes comme le prévoit la loi d’orientation des mobilités), comme une obligation de négociation collective pour décider de la rémunération, des frais de commission et du droit à la déconnexion des travailleurs.

D’une part, les mutations technologiques entrainent donc de nouvelles formes de précarité avec le développement du travail numérique « à la tâche » ; d’autre part, elles risquent d’automatiser une partie du travail actuel, notamment les emplois exercés par des catégories défavorisées de la population, qui sont aussi les moins à même de s’adapter aux transformations. L’OCDE (2019) estime que 14% des métiers actuels sont menacés et que 32% d’entre eux sont susceptibles d’être profondément transformés à l’horizon 15-20 ans. Ces deux chiffres cachent de profondes disparités. Premièrement, certains groupes sociaux sont particulièrement vulnérables face à l’automatisation car ils occupent des emplois peu rémunérés et répétitifs, donc plus susceptibles d’être automatisés. C’est le cas des jeunes, surreprésentés dans des métiers fortement robotisables (commerce de détail, restauration, etc.), et des individus avec un faible niveau d’éducation, selon le rapport Automation and AI: How Machines Affect People and Places de la Brookings Institution (Muro et al., 2019). Au contraire, seuls 8% des employés possédant un bac+3 font face à des « menaces élevées ». Deuxièmement, les groupes sociaux défavorisés sont également les moins à même à s’adapter à la transformation de l’emploi. Selon France Stratégie (2016), depuis 1998, 30 % des métiers ont vu leur contenu évoluer avec le numérique dans un sens qui les rend moins automatisables. Cette évolution est susceptible de laisser de côté ceux dont le niveau d’éducation et les compétences numériques limités ne leur permettent pas de s’adapter. Selon l’OCDE, 56% des adultes des pays membres n’ont pas ou peu de compétences numériques, ce qui limite les efforts de reconversion. Face à de double constat, les pistes d’action doivent se concentrer sur l’éducation et la formation professionnelle (développement des compétences numériques, formation continue, apprentissage par expérience, partenariats entre employeurs et établissements de formation). Aux Etats-Unis, la Maison Blanche a défini « l’éducation et la formation d’une main d’œuvre pour l’économie du XXIe » comme l’une de ses priorités stratégiques pour 2020 et met en œuvre des initiatives intéressantes basées sur des partenariats public-privé. America Makes forme par exemple des vétérans aux nouvelles méthodes de production comme l’impression 3D.

Image 6 Risque moyen d’automatisation des emplois par âge et origine ethnique
Source : https://www.brookings.edu/research/automation-and-artificial-intelligence-how-machines-affect-people-and-places/

Face aux mutations du travail, notre modèle de protection et de formation doit évoluer en même temps que la technologie. Les menaces d’automatisation et de destruction d’emploi concernent plus particulièrement les groupes sociaux déjà défavorisés, occupant des emplois peu qualifiés. Ces derniers doivent se sentir soutenus face aux transformations en cours et dans leur recherche de nouvelles opportunités. C’est d’autant plus important que la perte de confiance face à la menace de l’automatisation et le sentiment d’insécurité économique viennent nourrir les comportements politiques extrémistes, selon une étude à paraître de quatre chercheurs de Sciences Po (« The losers of automation, a reservoir of votes for the radical right », Im et al., 2019). Toutefois, les situations varient selon les pays et les contextes nationaux. Comme le rappelle France Stratégie, qui évaluait en 2016 la part d’emplois automatisables en France à 15%, l’automatisation n’est pas qu’une question de technologie, mais aussi d’acceptabilité sociale et d’organisation du travail. Le degré de robotisation d’un pays (en 2016, l’OCDE estimait que la part d’emplois automatisables pouvait différer du simple au double d’un pays membre à l’autre), la volonté de maintenir le contact humain ou les efforts des syndicats (seuls 10% des effectifs de caisse ont été automatisés en France alors que c’est techniquement possible depuis plus d’une décennie), ainsi que les capacités de formation et de reclassement sont autant d’éléments qui entrent en ligne de compte.

 

***


La transformation numérique nous a fait entrer dans l’ère de la société d’information, des plateformes, des algorithmes et de l’automatisation, autant de mutations technologiques qui exacerbent les inégalités entre individus en tant que citoyens, usagers et travailleurs. Il est crucial pour les décideurs de mettre en place des mesure appropriées pour garantir l’inclusion et les opportunités de tous. Les enjeux sont multiples : lutter contre les inégalités d’usages et de compétences au-delà de l’accès à Internet, former à l’accès aux services publics et à l’information en ligne, garantir la transparence et combattre les biais des algorithmes, adapter le système de formation professionnelle et de protection sociale. Notre futur technologique n’est pas tracé, mais dépendra au contraire de l’organisation sociétale que nous adopterons et des valeurs que nous défendrons.

 

Les recommandations établies par le Youth7 (2019) pour un monde numérique plus équitable vont largement dans ce sens. Les délégués du Youth7 appellent ainsi les gouvernements du G7 à assurer un accès égal aux opportunités offertes par le numérique, en développant à la fois les infrastructures d’accès et les compétences des utilisateurs ; à encourager la diversité dans les carrières scientifiques et les entreprises technologiques ; à garantir une protection sociale aux travailleurs « à la tâche » ; à offrir des programmes de formation aux travailleurs pour améliorer leurs compétences numériques ou les aider à retrouver un emploi s’ils sont victimes de l’automatisation ; à développer un système d’encadrement et d’audit des algorithmes pour limiter les biais ; et à permettre à tous les citoyens de faire appel devant les tribunaux pour contester une décision automatisée.

Références

(1) Comme le rappelait récemment Thomas Friang, le fondateur d’Open Diplomacy, dans une tribune pour la revue France Forum, « le G7 sous présidence française [a] pour mission de démontrer que la coopération internationale peut changer – améliorer – la vie des citoyens de la planète ».

(2) Voir par exemple l’article “Weapon of the Strong? Participatory Inequality and the Internet” Scholzman, Verba & Brady, publié dans Perspectives on Politics (2010).

(3) Voir https://hbr.org/2019/05/voice-recognition-still-has-significant-race-and-gender-biases sur les biais de la reconnaissance vocale et https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773 pour une démonstration vidéo d’un distributeur de savon reconnaissant les mains à la peau blanche mais pas à la peau noire.

(4) Le logiciel PredPol, initialement utilisé par la police de Los Angeles, analyse les données de crimes passés pour orienter les patrouilles de police vers les quartiers susceptibles d’être le théâtre de nouveaux crimes. PredPol a depuis été utilisé par des dizaines d’autres villes américaines (voir par exemple https://www.vice.com/en_us/article/d3m7jq/dozens-of-cities-have-secretly-experimented-with-predictive-policing-software). Des outils similaires sont expérimentés en France (voir http://www.internetactu.net/2017/07/26/ou-en-est-la-police-predictive/). Dans le même temps, les entreprises recourent de façon croissante à l’intelligence artificielle pour trier les candidatures : 27% des entreprises de plus de 50 salariés sont équipées de logiciels scannant les candidatures, et de nombreuses startups (la chinoise Seedlink, la russe Stafory ou la française EasyRecrue) développent des outils plus poussés (voir https://www.lesechos.fr/tech-medias/intelligence-artificielle/le-recrutement-dans-loeil-de-lintelligence-artificielle-991588). Enfin, les administrations ont recours aux outils automatisés, que ce soit pour les procédures de visas (voir https://www.theguardian.com/australia-news/2017/aug/08/computer-says-no-irish-vet-fails-oral-english-test-needed-to-stay-in-australia) ou d’affectation dans l’enseignement supérieur (Parcoursup en France).

(5) Voir le mémo de la Maison Blanche à l’attention des responsables des agences et départements fédéraux portant sur les priorités budgétaires pour l’année 2020 en matière de recherche et de développement : https://www.whitehouse.gov/wp-content/uploads/2018/07/M-18-22.pdf

Sources :

ALAHYANE Zacharia, LHERMITTE Stéphane, SUEL Elisabeth et al., L’état d’Internet en France. Edition 2017, ARCEP, mai 2017 [en ligne], https://www.arcep.fr/uploads/tx_gspublication/rapport-etat-internet-france-2017-mai2017.pdf - consulté le 23 juin 2019

ARNTZ Melanie, GREGORY Terry & ZIERAHN Ulrich, The Risk of Automation for Jobs in OECD Countries. A Comparative Analysis, OCDE, 14 mai 2016 [en ligne], https://www.oecd-ilibrary.org/social-issues-migration-health/the-risk-of-automation-for-jobs-in-oecd-countries_5jlz9h56dvq7-en – consulté le 5 juillet 2017

AUSTRALIAN ASSOCIATED PRESS, « Computer says no: Irish vet fails oral English test needed to stay in Australia », The Guardian, 8 août 2017 [en ligne], https://www.theguardian.com/australia-news/2017/aug/08/computer-says-no-irish-vet-fails-oral-english-test-needed-to-stay-in-australia – consulté le 5 juillet 2019

BAJOREK Joan, « Voice Recognition Still Has Significant Race and Gender Biases », Harvard Business Review, 10 mai 2019 [en ligne], https://hbr.org/2019/05/voice-recognition-still-has-significant-race-and-gender-biases – consulté le 5 juillet 2019

BASTIEN Frédérick & WOJCIK Stéphanie, « Inégalités démocratiques et numériques dans la participation en ligne aux campagnes électorales », Politique et Sociétés, 37(2), 2018

BERG Janine, FURRER Marianne, HARMON Ellie, RANI Uma & SILBERMAN M. Six, Digital labour platforms and the future of work: Towards decent work in the online world, Organisation international du travail, 20 septembre 2018 [en ligne], https://www.ilo.org/global/publications/books/WCMS_645337/lang--en/index.htm - consulté le 23 juin 2019

BUOLAMWINI Joy et GEBRU Timmit, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, Proceedings of Machine Learning Research, 81:1-15, février 2018.

BUOLAMWINI Joy, “When AI Fails on Oprah, Serena Williams, and Michelle Obama, It’s Time to Face Truth.”, Medium, 4 juillet 2018 [en ligne], https://medium.com/@Joy.Buolamwini/when-ai-fails-on-oprah-serena-williams-and-michelle-obama-its-time-to-face-truth-bf7c2c8a4119 - consulté le 23 juin 2019

CARDON Dominique, « Pourquoi avons-nous si peur des fake news », AOC Media, 20 juin 2019 [en ligne], https://aoc.media/analyse/2019/06/20/pourquoi-avons-nous-si-peur-des-fake-news-1-2/ - consulté le 23 juin 2019

DASTIN Jeffrey, « Amazon scraps secret AI recruiting tool that showed bias against women », Reuters, 9 octobre 2018 [en ligne], https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G - consulté le 25 juin 2019

DAHL Robert, On Political Equality, Yale University Press, 2007, 160 pages

DEMICHELIS Remy, « Le recrutement dans l'oeil de l'intelligence artificielle », Les Echos, 19 février 2019 [en ligne], https://www.lesechos.fr/tech-medias/intelligence-artificielle/le-recrutement-dans-loeil-de-lintelligence-artificielle-991588 – consulté le 5 juillet 2019

DODEL Matias, “e-Government's Hidden Inequality”, Proceedings of the 9th International Conference on Theory and Practice of Electronic Governance, mars 2016

DUTTON William & FERNANDEZ Laleah, « How susceptible are Internet users?”, InterMedia, 46(4), décembre/janvier 2018/2019 [en ligne], https://www.iicom.org/images/iic/intermedia/jan-2019/im2019-v46-i4-internetusers.pdf - consulté le 23 juin 2019

EUBANKS Virginia, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St Martin’s Press, 2018, 260 pages

FREY Carl B. & OSBORNE Michael, The Future of Employment: How Susceptible are Jobs to Computerisation?, Oxford Martin School, 17 septembre 2013 [en ligne], https://www.oxfordmartin.ox.ac.uk/blog/automation-and-the-future-of-work-understanding-the-numbers/ - consulté le 25 juin 2019

FRIANG Thomas, « De la créativité diplomatique », France Forum, n°72, avril 2019

FUSSELL Sidney, « Why Can't This Soap Dispenser Identify Dark Skin? », Gizmodo, 17 août 2017 [en ligne], https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773 - consulté le 5 juillet 2019

GANDY, Oscar H., « Engaging rational discrimination: Exploring reasons for placing regulatory constraints on decision support systems », Ethics and Information Technology, 12(1), 2008

GILLESPIE Tarleton, « The Relevance of Algorithms », in GILLESPIE Tarleton, BOCZKOWSKI Pablo J. & FOOT Kirsten A., Media Technologies: Essays on Communication, Materiality, and Society, 2014, 344 pages

GUILLAUD Hubert, “Où en est la police prédictive ? », InternetActu.net (La Fing), 26 juillet 2017 [en ligne], http://www.internetactu.net/2017/07/26/ou-en-est-la-police-predictive/# - consulté le 5 juillet 2019

HASKINS Caroline, « Dozens of Cities Have Secretly Experimented With Predictive Policing Software », Vice, 6 février 2019 [en ligne], https://www.vice.com/en_us/article/d3m7jq/dozens-of-cities-have-secretly-experimented-with-predictive-policing-software – consulté le 5 juillet 2019

HINDMAN Matthew, The Myth of Digital Democracy, Princeton University Press, 2009, 200 pages

IM Zhen, MAYER Nonna, PALIER Bruno & ROVNY Jan, « The losers of automation, a reservoir of votes for the radical right », Research and Politics, 2019 [à paraître]

INTERNATIONAL TELECOMMUNICATION UNION, « Individuals using the Internet », World Telecommunication/ICT Development Report and Database, The World Bank Data, 2017 [en ligne], https://data.worldbank.org/indicator/IT.NET.USER.ZS - consulté le 25 juin 2017

INTERNATIONAL TELECOMMUNICATION UNION, « Fixed broadband subscriptions », World Telecommunication/ICT Development Report and Database, The World Bank Data, 2017 [en ligne], https://data.worldbank.org/indicator/IT.NET.BBND - consulté le 25 juin 2017

INTERNATIONAL TELECOMMUNICATION UNION, « Mobile cellular subscriptions », World Telecommunication/ICT Development Report and Database, The World Bank Data, 2017 [en ligne], https://data.worldbank.org/indicator/IT.CEL.SETS - consulté le 25 juin 2017

KWAK Haewoon, LEE Changhyun, PARK Hosung & MOON Sue, « What is Twitter, a Social Network or a News Media? », Proceedings of the 19th international conference on World Wide Web, avril 2013

LE FIGARO.FR, « Pour 39% des Français, le numérique renforce plutôt les inégalités sociales », Le Figaro, 13 novembre 2018 [en ligne], http://www.lefigaro.fr/secteur/high-tech/2018/11/13/32001-20181113ARTFIG00203-pour-39-des-francais-le-numerique-renforce-plutot-les-inegalites-sociales.php - consulté le 23 juin 2019

LE RU Nicolas, « L'effet de l'automatisation sur l'emploi : ce qu'on sait et ce qu'on ignore », France Stratégie, 19 juillet 2016 [en ligne], https://www.strategie.gouv.fr/publications/leffet-de-lautomatisation-lemploi-quon-sait-quon-ignore - consulté le 23 juin 2019.

LING Rich & DONNER Jonathan, Mobile Communication: Digital Media and Society, Wiley, 2009, 200 pages

MACKENZIE Donald & WAJCMAN Judy, The Social Shaping of Technology, Open University Press, 1985, 327 pages

MAGNET Soshana Amielle, When Biometrics Fail: Gender, Race, and the Technology of Identity, Duke University Press, 2011, 224 pages

MARGETTS Helen, JOHN Peter, HALE Scott & YASSERI Taha, Political Turbulence: How Social Media Shape Collective Action, Princeton University Press, 2015, 304 pages

MULVANEY Mick & KRATSIOS Michael, « FY2020 Administration Research and Development Budget Priorities », Executive Office of the President of the United States, 31 juillet 2018 [en ligne], https://www.whitehouse.gov/wp-content/uploads/2018/07/M-18-22.pdf – consulté le 5 juillet 2019

MURO Mark, MAXIM Robert &WHITON Jacob, Automation and AI: how machines affect people and places, Brookings Institute, 26 mai 2019 [en ligne], https://www.brookings.edu/research/automation-and-artificial-intelligence-how-machines-affect-people-and-places/ - consulté le 25 juin 2019

MURO Mark, “« Quels sont les premiers emplois menacés par la robotisation ? », L’Opinion, 26 mai 2019 [en ligne], https://www.lopinion.fr/edition/wsj/quels-sont-premiers-emplois-menaces-robotisation-188011 - consulté le 25 juin 2019

NAPOLI Philip & OBAR Jonathan, « The Emerging Mobile Internet Underclass: A Critique of Mobile Internet Access », The Information Society, 30(5), 2014.

OCDE, L’avenir du travail : Perspectives de l’emploi de l’OCDE 2019, OCDE, 2019 [en ligne], https://www.oecd-ilibrary.org/sites/9ee00155-en/index.html?itemId=/content/publication/9ee00155-en - consulté le 25 juin 2019

PEW RESEARCH CENTER, “Internet/Broadband Fact Sheet”, Pew Research Center Internet & Technology, 12 juin 2019 [en ligne], https://www.pewinternet.org/fact-sheet/internet-broadband/ - consulté le 23 juin 2019

PRIOR Markus, Post-Broadcast Democracy, Princeton University, 2007, 336 pages

PUGLIESE Joseph, « Biometrics, Infrastructural Whiteness, and the Racialized Zero Degree of Nonrepresentation », Boundary 2, 34(2), 2007

RAJI Inioluwa Deborah & BUOLAMWINI Joy, “Actionable Auditing: Investigating the Impact of Publicly Naming Biased Performance Results of Commercial AI Products”, AAAI/ACM Conference on Artificial Intelligence, Ethics and Society, janvier 2019 [en ligne], http://www.aies-conference.com/wp-content/uploads/2019/01/AIES-19_paper_223.pdf - consulté le 25 juin 2019

ROLLAND Sylvain, « Illectronisme : l'État prévoit jusqu'à 100 millions d'euros pour former 13 millions de Français », La Tribune, 12 septembre 2018 [en ligne], https://www.latribune.fr/technos-medias/internet/illectronisme-l-etat-prevoit-jusqu-a-100-millions-d-euros-pour-former-13-millions-de-francais-790164.html - consulté le 23 juin 2019

ROSENBLAT Alex & STARK Luke, « Algorithmic Labor and Information Asymmetries: A Case Study of Uber’s Drivers », International Journal of Communication, 10, 2016.

SCHOLZMAN Kay Lehman, VERBA Sidney & BRADY Henri E., « Weapon of the Strong? Participatory Inequality and the Internet », Perspectives on Politics, 8(2), 2010.

SNOW Jacob, « Amazon’s Face Recognition Falsely Matched 28 Members of Congress with Mugshots », ACLU, 26 juillet 2018 [en ligne], https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28 - consulté le 25 juin 2019

TUFEKCI Zeynep, « What Happens to #Ferguson Affects Ferguson », Medium, 14 août 2014 [en ligne], https://medium.com/message/ferguson-is-also-a-net-neutrality-issue-6d2f3db51eb0 - consulté le 25 juin 2019

TUFEKCI Zeynep, « Algorithmic Harms beyond Facebook and Google: Emergent Challenges of Computational Agency », Colorado Technology Law Journal, 13: 203, 2015 [en ligne], http://ctlj.colorado.edu/wp-content/uploads/2015/08/Tufekci-final.pdf - consulté le 25 juin 2019

UFC-QUE CHOISIR, « Qualité de l’Internet fixe », UFC-Que Choisir, 21 mars 2019 [en ligne], https://www.quechoisir.org/action-ufc-que-choisir-qualite-de-l-internet-fixe-un-outil-participatif-et-evolutif-favorisant-une-reelle-transparence-sur-la-fracture-numerique-n65007/ - consulté le 23 juin 2019

WILKINSON David & THELWALL Mike, « Trending Twitter topics in English: An international comparison », Journal of the American Society for Information Science and Technology, 63(8), 2012

WOOLLEY Samuel & HOWARD Philip (ed.), Computation Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media, Oxford University Press, 2018, 272 pages

XENOS Michael, VROMEN Ariadne & LOADER Brian D., « The great equalizer? Patterns of social media use and youth political engagement in three advanced democracies », Information, Communication and Society, 17(2), 2014

YOUTH7, Call to action non G7 Leaders to pave the way for a fair future, 2019 [en ligne], https://uploads.strikinglycdn.com/files/b55731f7-7363-4659-9a82-6c9f68f11534/Y7%20Call%20to%20Action.pdf – consulté le 23 juin 2019