L’avenir de l’intelligence artificielle : Entre régulation et responsabilité

6 mars 2025 | par la rédaction de Guide IT @Laetitia R.
À la une, Actualités, IA

L’avenir de l’intelligence artificielle : Entre régulation et responsabilité

Un discours révisé pour une nouvelle ère

Aux États-Unis, Elon Musk semble prendre un virage dans son discours sur l’intelligence artificielle (IA). Accompagné du président Donald Trump, il plaide pour une dérégulation du secteur, et ce après avoir milité auparavant pour ralentir le développement des technologies d’IA. Ce retour sur le devant de la scène interroge les enjeux de la régulation et de la responsabilité dans un domaine en pleine expansion.

L’IA en Europe : une régulation déjà en place

En Europe, la réglementation de l’IA est en revanche déjà en place avec l’adoption de l’AI Act. Ce cadre législatif vise à garantir un développement responsable de l’IA. Mais ces règles sont-elles réellement essentielles ? Pour répondre à cette question, l’Observatoire de l’IA responsable d’Impact AI a réalisé une étude impliquant plus de 1000 salariés du secteur privé, en collaboration avec KPMG et BNP Paribas.

Les salariés en faveur de la régulation

Le collectif réunit plus de 80 membres, parmi lesquels des acteurs majeurs comme Bouygues et Crédit Agricole. L’étude a révélé que près de trois quarts des sondés estiment qu’une régulation du développement de l’IA est nécessaire. En effet, 37% des participants jugent même cette régulation tout à fait nécessaire. Contrairement aux appréhensions des entrepreneurs, les utilisateurs de ces technologies voient la régulation comme un soutien plutôt qu’un frein. 85% d’entre eux se prononcent donc pour une régulation, montrant que la majorité des salariés souhaite un équilibre entre innovation, sécurité et responsabilité dans les projets d’IA.

Priorité à l’éthique sur l’innovation

L’éthique semble primer sur la simple quête de l’innovation. En effet, 21% des sondés affirment qu’il est essentiel de respecter les principes éthiques avant de se concentrer sur les innovations. En revanche, seuls 10% pensent que l’innovation devrait revêtir la priorité dans les développements d’IA. Qui devrait être responsable de cette régulation ? Pour 30% des collaborateurs, une agence internationale est préférable pour superviser ce domaine, alors que 25% mandatent un État et 19% soutiennent l’idée d’une régulation par l’Europe.

Un regard positif sur l’AI Act

Malgré des critiques sur l’efficacité de l’AI Act, 57% des participants perçoivent ce cadre comme une “très bonne ou bonne chose”. L’approbation est encore plus marquée parmi les utilisateurs d’IA, portant cette proportion à 75%.

Vers une IA responsable

Renforcer les bases d’une IA responsable est une nécessité pour 63% des sondés, qui estiment son développement comme souhaitable ou indispensable. Pour les utilisateurs d’IA, ce chiffre grimpe à 83%. Les salariés s’accordent à dire que cette notion d’IA responsable doit inclure des éléments cruciaux : 

  • Protection des données personnelles et sensibles (36%)
  • Respect des droits fondamentaux (27%)
  • Amélioration du bien-être humain (25%)
  • Respect de l’humain et de sa singularité (24%)

Ces préoccupations sont d’autant plus urgentes que les risques liés au déploiement de l’IA ne sont pas à négliger. Ainsi, 41% des employés identifient l’impact sur les emplois comme un enjeu majeur. Viennent ensuite les questions de confidentialité des données (33%) et de dépendance excessive à ces technologies (31%).

Conclusion : Un chemin à parcourir

Le débat autour de la régulation de l’IA est donc loin d’être clos. Tandis qu’Elon Musk et d’autres acteurs majeurs plaident pour déréguler le secteur, les salariés, eux, expriment ainsi un besoin urgent de régulation. La voix des utilisateurs pourrait bien façonner l’avenir de l’intelligence artificielle, en plaçant l’éthique au cœur des préoccupations. 

L’avenir de l’intelligence artificielle : Entre régulation et responsabilité
Retour en haut