Mardi 11 février 2025, Station F à Paris a accueilli l’AI Action Summit, un événement clé pour l’écosystème européen de l’intelligence artificielle. Chez Dastra, nous avons eu la chance d’assister aux annonces majeures, aux débats sur l’éthique de l’IA et aux discussions qui concernent directement les Data Protection Officers (DPO) et les professionnels de la conformité. Voici un récapitulatif pour celles et ceux qui n’ont pas pu y assister.
Parmi les moments forts : une grande déclaration pour une IA responsable regroupant 61 pays, la présence d’Emmanuel Macron et de Sam Altman, ainsi qu’une session passionnante sur la construction d’une IA de confiance. Voici un récapitulatif pour celles et ceux qui n’ont pas pu y assister.
Un contexte stratégique pour l’IA en Europe
L’AI Action Summit s’inscrit dans un moment charnière : l’AI Act, la régulation européenne sur l’intelligence artificielle, entre dans sa phase de mise en œuvre. L’Europe veut s’affirmer comme un leader de l’IA responsable, en misant sur la transparence, la sécurité et l’innovation encadrée.
L’événement a rassemblé startups, régulateurs et géants de la tech, soulignant l’importance de trouver un équilibre entre innovation et réglementation.
Une grande déclaration pour une IA responsable
L’une des annonces marquantes du sommet a été la signature d'une déclaration pour une intelligence artificielle (IA) «ouverte», «inclusive» et «éthique» réunissant 61 pays dont la Chine, l'Inde et la France. L’objectif est clair : renforcer la coordination de la gouvernance de l’IA au niveau mondial.
Emmanuel Macron et Sam Altman à Station F
Le sommet a également été marqué par la venue d’Emmanuel Macron, qui a insisté sur le plan d’investissement de 109 milliards d’euros pour l’intelligence artificielle et la nécessité pour l’Europe de maîtriser cette technologie dans le respect de ses valeurs.
De son côté, Sam Altman, CEO d’OpenAI, était également présent et a répondu aux questions de Clara Chappaz, ministre déléguée chargée de l'intelligence artificielle.
Construire une IA de confiance : l’enjeu de l’open source
L’un des moments forts du sommet a été la session "Building Trustworthy AI", qui a mis en lumière les défis et opportunités liés à la confiance dans l’IA. Voici un résumé rapide.
L’open source, un levier d’accessibilité et de fiabilité
L’open source joue un rôle clé dans la démocratisation de l’IA. Aujourd’hui, 70 à 90 % des logiciels traditionnels reposent sur des technologies open source, et l’IA suit la même trajectoire.
Des entreprises comme Hugging Face en Europe construisent leurs modèles sur une approche ouverte et collaborative, permettant de renforcer la transparence et la confiance. Comme l’a souligné un intervenant :
"Si vous gardez tout fermé, vous finissez par créer un écosystème moins fiable."
L’open source permet d’identifier les failles, de garantir l’auditabilité et d’améliorer la sécurité. Cependant, un débat persiste : qu’est-ce qu’une IA réellement open source ? Un simple accès via une API ne suffit pas. Un modèle doit être téléchargeable, exécutable localement et accompagné de toute sa documentation et ses boucles d’entraînement.
Transparence et documentation : des standards à développer
Pour construire une IA digne de confiance, les experts ont mis en avant plusieurs recommandations :
- Utiliser des cadres d’évaluation existants pour analyser l’impact des modèles d’IA.
- Partager les bonnes pratiques et contribuer aux projets open source.
- Standardiser la documentation pour créer des attentes claires sur la transparence des systèmes.
Avec l’entrée en vigueur de l’IA Act, l’Europe pourrait jouer un rôle moteur en définissant des formats normalisés de documentation et en renforçant les exigences de transparence.
Vers un écosystème IA plus inclusif et éthique
Enfin, la session a souligné l’importance de bâtir un écosystème diversifié, qui prenne en compte les biais algorithmiques et l’équité des modèles. La transparence ne se limite pas à l’aspect technique, elle doit aussi inclure une communication claire sur les limites et capacités des modèles d’IA.
Les entreprises ont donc un rôle à jouer en collaborant avec la société civile, en rendant leurs systèmes audités et en s’engageant activement dans l’open source. Comme l’a souligné un intervenant :
"Gouverner l’IA, c’est aussi innover."
Les points clés pour les Data Protection Officers (DPO)
L’AI Action Summit a soulevé plusieurs sujets cruciaux pour les DPO et professionnels de la conformité :
- Encadrement des modèles d’IA : L’AI Act imposera des obligations spécifiques aux fournisseurs et utilisateurs de modèles à haut risque.
- Transparence et documentation : Les entreprises devront justifier comment leurs modèles traitent les données personnelles et garantir leur explicabilité.
- Droits des personnes face aux décisions automatisées : Des mécanismes de recours efficaces doivent être mis en place.
- Certification et conformité : L’émergence de labels et certifications IA en Europe, tel que ISO42001, sera un enjeu clé dans les années à venir
Conclusion : vers une IA plus encadrée et responsable
Ce sommet a confirmé une chose : l’IA est à un tournant réglementaire majeur. L’Europe entend jouer un rôle de référence mondiale en matière d’IA responsable, et les entreprises doivent anticiper ces nouvelles obligations. Un consensus a été trouvé pour former une coalition pour une IA durable regroupant 61 pays dont la Chine et l'Inde, marquant un retour du "Sud Global" dans la sécurité et la durabilité de l'IA.
Chez Dastra, nous suivons de près ces évolutions pour aider les organisations à gérer la conformité IA et RGPD. N’hésitez pas à nous contacter pour échanger sur ces enjeux stratégiques ou découvrir comment Dastra peut vous aider à répondre aux enjeux de l'AI Act !