L'intelligence artificielle responsable (IAR) vise à garantir que la responsabilité socio-environnementale est une considération fondamentale à toutes les étapes du développement et de la gouvernance de l'IA. Ceci est nécessaire pour prévenir les préjudices et injustices, en orientant le développement de l'IA vers des avantages durables dans un monde interconnecté. L'IAR nécessite une synthèse réfléchie et pragmatique d'approches de différents domaines. L'objectif du cours est de fournir les outils qualitatifs, quantitatifs, critiques, réflexifs et pratiques pour combler le fossé entre théorie et pratique et rendre l'IA responsable une réalité. Le cours couvre des sujets tels que l'analyse des utilisateurs, la conception participative, les tests de signification, la généralisation, les essais de contrôle, les biais, l'interprétabilité, l'équité, la transparence, l'éthique, la robustesse, les consultations avec les parties prenantes, la gouvernance des données, le travail numérique, l'examen par les pairs, l'ingénierie de la fiabilité, la sécurité de l'information, la confidentialité, la vérification, l'audit, la reproductibilité, les tests et bacs à sable, la planification par scénarios, l'analyse des risques et l'analyse d'impact