Aller au contenu principal

Objectif du défi

L'objectif de ce défi est de construire et d'évaluer une IA digne de confiance et de réduire ainsi les obstacles pour les entreprises wallonnes désireuses de déployer des solutions d'IA dans des secteurs réglementés.

Les enjeux

Les systèmes d'IA sont devenus de plus en plus complexes, évoluant de modèles avec des règles élaborées à la main (supervision/intervention humaine) à des modèles qui créent d'autres modèles. Beaucoup apparaissent comme des boîtes noires, ce qui suscite la méfiance et empêche les utilisateurs finaux de se fier à des technologies par ailleurs très efficaces. Cette évolution a poussé l'Union européenne et les régulateurs de nombreux secteurs à chercher des moyens de certifier les systèmes critiques basés sur l'IA (par exemple, les avions ou les voitures) avant leur fabrication et leur utilisation. La nécessité de certifier les technologies d'IA avant leur déploiement sur le marché constitue un obstacle important à l'adoption de l'IA, en particulier dans les secteurs sensibles comme l'aéronautique, l'espace ou la médecine. Des secteurs où elles pourraient justement être d'une aide précieuse à la prise de décision humaine.

Challenges

Mettre en place tout un cadre pour le développement de l'intelligence artificielle en toute confiance. L'Europe a fait de ce défi une de ses priorités afin de se différencier des autres grands marchés concurrentiels. Or, ce cadre doit offrir des lignes directrices claires et applicables afin que l'objectif initial d'encourager les entreprises à utiliser ces technologies soit effectivement servi.

 

Propriétés d’une IA digne de confiance​


-   Explicabilité (XAI)​
-   Robustesse et stabilité
-   Quantification d'incertitude
-   Qualité des données utilisés

Taches 

Les deux premières années du projet ARIAC se sont concentrés sur le pronlème d'explicabilité des modèles d'apprentissage profond.

-  Etude de méthodes d'explicabilité pour de la classification d'images médicales

- Investigation sur les métriques à utiliser pour évaluer ces méthodes d'explicabilité

- Explicabilité des algorithmes de réduction de la dimensionnalité non linéaire (ex.t-sne)

- Explicabilité des Transformers 

 

Pour la suite du projet, le challenge tente de se foculiser sur la qualité des données ( détéection de biais et ajustement des modèles)  et sur la robustess (généralisation du modèle) et la sureté des modèles (quantification d'incertitude et détection de données hors distibution)

 

 

Responsable(s) du grand défi