index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Neural Network Data Stream Adversarial Training Adversarial attack Bias Detection Robustness System Identification FOS Computer and information sciences Anomaly Detection AI component evaluation methodology Adversarial examples Fault tolerance Data trustworthiness Recurrent Neural Networks Sûreté Attack transferability Sûreté de fonctionnement Adversarial Attacks Explicabilité AI-Based Systems Counterfactuals Computer Vision Distributed Machine Learning Artificial intelligence Data Analysis Explicability Artificial Intelligence AI Case-based Distributed learning Complexity Explainable AI Mixed Integer Programming Engineering Processes Data Quality Deep learning ODD Custom search space Generative Models Monitoring Automated vehicle Distribution based method Reliability Enalty Bayesian Neural Networks Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Adversarial attacks AI engineering Semantic segmentation Fault tolerant systems AI-Systems Engineering Robustesse Explainability Evaluation Long Short-Term Memory Cycle-accurate simulator Adversarial physical attack Explanations Conformal Prediction Branch-and-Bound algorithm Critical systems XAI Arcadia Method Confiance Intelligence Articifielle Confiance explicabilité Computer Vision and Pattern Recognition Computer vision AI-based systems Calibration Embarqué Bayesian Optimization Deep Reinforcement Learning Fault detection Concepts Christoffel functions Anomaly detection Data Stream Processing GPU Deep neural network classifiers Trustworthiness Attributes Assurance case Cryptography and Security Example-based Data-driven reachability AI System Characterization Machine Learning Trustworthiness Assessment Federated Learning AI-Based Critical Systems Embedded AI Conformal prediction Anomaly Neural network Data Visualization Fiabilité Decision tree Bayesian inference Contextual Evaluation Realization theory Neural ODEs