Les femmes ou les hommes... Qui trouve l'intelligence artificielle plus dangereuse ?
Divers

Les femmes ou les hommes... Qui trouve l'intelligence artificielle plus dangereuse ?

SadaNews - L'intelligence artificielle est souvent présentée comme une révolution dans la productivité capable d'augmenter la production économique, d'accélérer l'innovation et de remodeler la façon dont le travail est réalisé. Cependant, une nouvelle étude montre que le public ne perçoit pas les promesses de l'intelligence artificielle de la même manière et que les attitudes envers cette technologie sont fortement influencées par le facteur du genre, particulièrement lorsque ses effets sur l’emploi sont incertains.

L'étude conclut que les femmes, par rapport aux hommes, considèrent l'intelligence artificielle comme étant plus dangereuse, et que leur soutien à l'adoption de ces technologies diminue plus rapidement lorsque les chances de gains nets en termes d'emplois diminuent. Les chercheurs avertissent que si les préoccupations spécifiques des femmes ne sont pas prises en compte dans les politiques d'intelligence artificielle, notamment en ce qui concerne les perturbations du marché du travail et les inégalités d'accès aux bénéfices, cela pourrait approfondir le fossé entre les sexes et peut-être entraîner une réaction politique contre la technologie.

Un fossé qui n'est pas uniquement lié à la connaissance

L'étude part du principe simple que les bénéfices et les coûts de l'intelligence artificielle ne seront pas répartis de manière égale parmi tous. Avec la prolifération de l'intelligence artificielle dans l'économie, certains postes pourraient être renforcés tandis que d'autres seraient redéfinis, et certains emplois pourraient disparaître ou voir leur importance diminuer. L'étude indique que les femmes sont sur-représentées dans des emplois administratifs, rédactionnels et de services qui risquent d'être plus affectés par les technologies automatisées. En revanche, les femmes restent sous-représentées dans les domaines des sciences, de la technologie, de l'ingénierie et des mathématiques, ainsi que dans des postes de direction qui offrent souvent de meilleures opportunités d'accéder à des emplois d'intelligence artificielle mieux rémunérés, ce qui pourrait élargir l'écart salarial entre les sexes au fil du temps.

L'étude montre que ces différences de risque réel et d'accès aux bénéfices se traduisent par des divergences dans les attitudes. Selon des recherches antérieures, les femmes ont tendance à être plus sceptiques que les hommes envers les vagues d'automatisation précédentes.

Cependant, ce qui n'était pas suffisamment clair, c'est pourquoi cet écart persiste. C'est ici que les chercheurs introduisent le facteur des « risques » dans la manière de les appréhender, ainsi que le degré d'exposition pour offrir une explication supplémentaire.

Tendance à prendre des risques et exposition aux dangers

L'étude se concentre sur deux éléments : le premier concerne l'orientation vers le risque (Risk orientation), c'est-à-dire le degré de préparation d'un individu à supporter l'incertitude et les compromis portant sur des résultats indéterminés. L'autre est l'exposition aux risques (Risk exposure), la probabilité qu'adopter l'intelligence artificielle entraîne un coût direct ou un bénéfice direct pour l'individu, en fonction de sa position sur le marché du travail, et d'autres facteurs.

Les chercheurs présument que les femmes considèrent l'intelligence artificielle comme plus risquée, car elles sont en moyenne plus averses au risque et aussi plus exposées aux perturbations liées aux emplois causées par l'intelligence artificielle. L'étude affirme que ces schémas ne sont pas présentés comme des « caractéristiques intrinsèques », mais comme le résultat de normes sociales, d'apprentissages sociaux et de structures de travail ancrées depuis des décennies.

Une expérience concrète

Pour tester cette hypothèse, les chercheurs ont mené un sondage en ligne en novembre 2023 en utilisant un panel « YouGov ». L'échantillon complet comptait 6056 participants, mais l'analyse de cette étude se concentre sur 3049 participants à qui des questions sur l'intelligence artificielle générative ont été posées (tandis que l'autre groupe a reçu des questions comparatives sur le commerce). L'échantillon comprenait des participants des États-Unis et du Canada, deux pays que les chercheurs décrivent comme similaires en termes de fondations institutionnelles et de structure du marché du travail, bien que les détails de l'adoption et de la réglementation de l'intelligence artificielle varient.

Les chercheurs ont mesuré le « ressenti concernant la dangerosité de l'intelligence artificielle » par deux questions sur une échelle de 11 points. Les participants ont été interrogés sur leur opinion concernant le fait de savoir si les risques de l'intelligence artificielle générative l'emportent sur ses bénéfices pour eux personnellement ? Et l'emportent-ils sur ses bénéfices pour votre communauté ? Ensuite, les deux réponses ont été regroupées en un seul indice.

Pour mesurer l'orientation vers le risque, l'étude a utilisé une question courante dans la recherche sur le risque : Préférez-vous un gain garanti de 1000 dollars ? Ou une chance de 50 % de gagner 2000 dollars ? Il est supposé que le choix des mille garantis indique une aversion plus forte au risque.

Quant à la mesure de l'exposition au risque, elle était plus complexe car les effets de l'intelligence artificielle générative sur le marché du travail ne sont pas encore tranchés. Donc, l'étude a utilisé l'éducation comme indicateur général de la disposition à tirer parti des transformations technologiques, avec des tests supplémentaires sur des indicateurs liés à l'exposition professionnelle à l'automatisation et à l'intelligence artificielle sur des échantillons secondaires de travailleurs.

Le sondage comprenait également une expérience d'enquête préparée à l'avance qui modifiait le niveau de risque économique dans un scénario d'adoption par l'entreprise de l'intelligence artificielle. Les participants ont lu un cas sur une entreprise adoptant des outils d'intelligence artificielle générative, puis différentes probabilités (tirage aléatoire) leur ont été présentées concernant la possibilité que cela conduise à des gains nets en emploi. Les probabilités variaient entre 100 % (gains garantis) et 70 %, 50 %, 30 % (niveau de risque élevé), puis on leur demandait de confirmer ou de refuser la décision de l'entreprise.

Quel est le résultat le plus frappant ?

Les résultats montrent que les femmes sont plus susceptibles que les hommes de dire que les risques de l'intelligence artificielle l'emportent sur ses bénéfices. L'étude indique que la proportion de celles qui voient les risques supérieurs aux bénéfices augmente chez les femmes d'environ 11 % par rapport aux hommes, ce qui se rapproche de la taille de l'écart connu dans les attitudes des sexes envers le commerce, un sujet qui a historiquement influencé les discussions politiques et les décisions réglementaires.

En approfondissant, il apparaît que cet écart est fortement lié à l'orientation vers le risque. Parmi les participants les plus enclins à prendre des risques, l'écart entre femmes et hommes se réduit considérablement, voire disparaît. En revanche, l'écart est plus évident entre ceux qui préfèrent la certitude. Cela signifie que l'aversion générale au risque multiplie la prudence envers une technologie dont les résultats économiques sont incertains.

Les résultats suggèrent également un rôle de l'exposition au risque, les femmes étant davantage enclines à considérer l'intelligence artificielle comme plus dangereuse que les hommes dans les catégories d'éducation universitaire et non universitaire, ce qui concorde avec le fait qu'elles sont plus souvent concentrées dans des emplois qui peuvent être plus sujets à l'automatisation, et moins accessibles aux parcours professionnels les plus lucratifs dans les domaines de l'intelligence artificielle.

Preuve empirique

L'expérience d'enquête montre que tant les hommes que les femmes réduisent leur soutien à l'adoption de l'intelligence artificielle lorsque les probabilités de gains nets en emploi diminuent. Toutefois, le soutien des femmes diminue plus rapidement lorsque le scénario devient plus risqué. Ainsi, au niveau de risque le plus élevé où la probabilité de gains nets en emploi n'est que de 30 %, le soutien des femmes est nettement inférieur à celui des hommes. Quand les gains sont garantis à 100 %, l'écart entre les sexes se réduit et ne présente plus de signification statistique selon l'étude. En d'autres termes : les femmes ne sont pas « contre l'intelligence artificielle » en soi, mais leur soutien semble plus lié à la clarté des bénéfices économiques et à leur certitude.

Qui en sait le plus ?

L'étude a également analysé des réponses ouvertes concernant les plus grands bénéfices et risques de l'intelligence artificielle en utilisant la modélisation de sujets textuels. Des différences qualitatives sont apparues, les réponses des femmes exprimant davantage d'incertitude (« je ne sais pas ») et de scepticisme quant à l'existence de bénéfices économiques clairs. En revanche, les réponses des hommes étaient davantage centrées sur la productivité et l'efficacité, et l'amélioration des processus économiques.

Concernant les risques, les réponses des femmes étaient plus focalisées sur la perte d'emplois et le chômage, tandis que les réponses des hommes mettaient davantage l'accent sur les usages malveillants et les risques sociétaux plus larges. Cela renforce la conclusion de l'étude selon laquelle les femmes accordent en moyenne un poids plus important aux risques économiques, exprimant un degré plus élevé d'incertitude quant aux bénéfices de l'intelligence artificielle.

Importance de la recherche

L'étude estime que ces différences ne sont pas seulement sociales, mais également politiques. Si la baisse du soutien des femmes à l'adoption de l'intelligence artificielle se traduit par une diminution de leur utilisation de ses outils au travail, cela pourrait réduit leur présence dans l'élaboration et la gouvernance de ces technologies à un moment où les applications de l'intelligence artificielle se développent au sein des entreprises. Cela signifie que les préoccupations des femmes pourraient ne pas être suffisamment intégrées dans la conception, les garanties et les décisions de déploiement et d'exploitation.

L'étude suggère également que les attitudes envers l'intelligence artificielle pourraient devenir plus politisées. Si les femmes soutiennent davantage l'intervention gouvernementale pour ralentir l'adoption dans les scénarios de perte d'emplois, cela pourrait ouvrir des opportunités politiques : certains politiciens pourraient adopter des politiques de protection et de régulation pour attirer les voix des femmes, ou les sentiments de prudence à l'égard de l'intelligence artificielle pourraient être utilisés comme un outil de mobilisation électorale.

L'étude ne dit pas que les femmes rejettent la technologie parce qu'elle est « technologique », mais elle avance qu'elles réagissent à un paysage de risques où les enjeux sont inégaux, un contexte où les promesses de l'intelligence artificielle coïncident avec des effets sur l'emploi non garantis et des opportunités de bénéfice inégales. Pour les gouvernements et les institutions qui poussent vers une adoption rapide, le message semble clair : les politiques d'intelligence artificielle qui négligent l'exposition inégale à la perte d'emplois, les inégalités d'accès aux emplois de haute valeur et les différences dans la perception des risques pourraient aggraver les inégalités et éroder la confiance du public. Par conséquent, aborder ces préoccupations à travers la protection de la main-d'œuvre, des voies de réhabilitation, la réduction des biais dans les systèmes et une gouvernance inclusive pourrait être nécessaire non seulement pour la justice mais aussi pour maintenir la légitimité de la transformation tandis que l'intelligence artificielle redéfinit l'économie.