vice-président Kamala Harris envisage d’annoncer la création d’un État américain IA Security Institute dans un discours prononcé mercredi dans le cadre de sa visite au Royaume-Uni pour un sommet sur la sécurité des applied sciences émergentes.
Le Security Institute, qui fera partie de l’Institut nationwide des normes et de la technologie, élaborera des conseils methods pour les régulateurs envisageant des mesures sur des questions telles que l’authentification du contenu généré par l’homme et le filigrane du contenu de l’IA, ainsi que les efforts visant à endiguer la discrimination algorithmique et à renforcer les normes de confidentialité. . L’institut créera également des références et des meilleures pratiques pour évaluer et atténuer les risques liés à l’IA.
Le discours de Harris sera lié au Sommet mondial sur la sécurité de l’IA, un événement de deux jours à Bletchley Park qui devrait réunir des dirigeants mondiaux et des dirigeants d’entreprises technologiques. Parmi les contributors attendus figurent Elon Musk et Sam Altman, le fondateur d’OpenAI, ainsi que le Premier ministre britannique Rishi Sunak et la présidente de la Fee européenne Ursula von der Leyen.
Harris devrait également annoncer un projet d’orientations politiques sur l’utilisation de l’IA par le gouvernement américain, une déclaration politique sur l’utilisation militaire de l’IA et une initiative philanthropique de 200 tens of millions de {dollars}, financée par dix fondations, pour garantir que l’IA soit utilisée dans le monde. intérêt public.
Ces initiatives s’ajoutent aux mesures prises récemment par l’administration Biden pour tenter d’établir des garde-fous sur la technologie. Président Joe Biden a publié cette semaine un décret sur l’IA, exigeant notamment que les entreprises partagent les résultats de leurs assessments de sécurité avec le gouvernement américain. Biden et Harris ont obtenu un ensemble d’engagements volontaires de la half des entreprises d’IA lors d’une réunion à la Maison Blanche l’été dernier. L’un d’eux était l’engagement de créer des outils de filigrane pour aider à identifier le contenu synthétique.
Dans son discours, Harris prévoit de dire que « pour définir la sécurité de l’IA, nous devons considérer et traiter l’ensemble des risques liés à l’IA : menaces pour l’humanité dans son ensemble, menaces pour les individus, pour nos communautés et pour nos establishments, et menaces pour nos plus grands humains ». populations vulnérables. Pour garantir la sécurité de l’IA, nous devons gérer tous ces risks.