Réglementation de l'intelligence artificielle
politique publique, loi et régulation sur le développement et l'utilisation de l'IA / De Wikipedia, l'encyclopédie encyclopedia
La réglementation de l'intelligence artificielle est l'élaboration de politiques et de lois du secteur public pour promouvoir et réglementer l'intelligence artificielle (IA). Elle est donc liée à la réglementation des algorithmes[1]. Le paysage réglementaire et politique de l'IA est un problème émergent dans les juridictions du monde entier, y compris dans l'Union européenne (qui dispose d'un pouvoir de réglementation gouvernemental[2]) et dans les organismes internationaux comme l'IEEE, l'OCDE (qui n'en ont pas) et d'autres. Depuis 2016, une série de lignes directrices en matière d’éthique de l'IA ont été publiées afin de maintenir le contrôle social sur cette technologie[3]. La réglementation est considérée comme nécessaire à la fois pour encourager l’IA et pour gérer les risques associés. Outre la réglementation, les organisations déployant l’IA jouent un rôle central dans la création et le déploiement d’une IA digne de confiance[4], et dans l'atténuation des risques[5]. La réglementation de l’IA par le biais de mécanismes tels que les commissions d’examen peut également être considérée comme un moyen social d’aborder le problème du contrôle de l’IA[6],[7].
Selon AI Index de Stanford, le nombre annuel de lois liées à l'IA adoptées dans les 127 pays étudiés est passée de une en 2016 à 37 adoptées rien qu'en 2022[8],[9].