Par Jeff Maggioncalda, PDG de Coursera

L’intelligence artificielle (IA) est la force transformatrice de notre époque, remodelant les industries et redéfinissant les limites du potentiel humain. Cela soulève également de nouvelles questions sur la meilleure façon de construire ces systèmes puissants qui servent l’humanité de manière sûre et édifiante.

Coursera, fondée par deux professeurs d’informatique de Stanford, Andrew Ng et Daphne Koller, est un chef de file dans l’enseignement de l’IA et de l’apprentissage automatique aux apprenants du monde entier depuis plus d’une décennie. Cependant, l’émergence de l’IA générative apporte de nouvelles opportunités et des défis imprévus. Avec le potentiel de transformer notre façon d’apprendre et d’enseigner, il est essentiel de veiller à ce que l’IA soit développée et déployée de manière responsable et éthique.

Aujourd’hui, nous présentons les principes d’IA responsable de Coursera, qui guideront le développement et la mise en œuvre de systèmes d’IA sur notre plateforme.

Numéro un : impact positif.  Les systèmes d'IA devraient améliorer les résultats pour les apprenants, les éducateurs et la société.

Nous utilisons l’IA pour soutenir les individus avec un apprentissage personnalisé et interactif, aider les instructeurs à générer et mettre à jour un contenu de haute qualité plus rapidement et à moindre coût, et permettre aux institutions de mettre en œuvre des efforts de reconversion à grande échelle et de faire passer les travailleurs aux emplois du futur.

Numéro deux : Sûreté et sécurité.  Les systèmes d'IA doivent donner la priorité à la sécurité et protéger la sécurité et la confidentialité des utilisateurs et de leurs données.

Nous mettons en œuvre des mesures et des techniques de sécurité rigoureuses pour protéger les informations des utilisateurs et garantir un environnement d’apprentissage sûr. Nous surveillons et mettons à jour en permanence nos pratiques de sécurité pour garder une longueur d’avance sur les menaces potentielles et préserver la confiance de nos utilisateurs.

Numéro trois : équité.  Les systèmes d'IA doivent responsabiliser tout le monde et respecter les droits de contenu et les marques.

Nous travaillons avec diligence pour identifier et atténuer les biais dans nos algorithmes d’IA, en nous engageant activement avec diverses parties prenantes pour améliorer l’équité de nos systèmes. De plus, nous respectons les droits de propriété intellectuelle des créateurs de contenu et des marques institutionnelles, reconnaissant leur rôle essentiel dans la fourniture de ressources pédagogiques de haute qualité.

Numéro quatre : les systèmes d'IA doivent être transparents quant à leurs capacités, leurs limites et leurs sources de données.

Nous fournissons des explications claires sur nos technologies d’IA et leurs limites, en veillant à ce que les utilisateurs, les clients et les partenaires comprennent mieux nos systèmes d’IA.

Numéro cinq : responsabilité.  Nous serons responsables des performances, de la qualité et de l'impact des systèmes d'IA.

Nous nous engageons à surveiller et à évaluer l’efficacité de nos technologies d’IA, à remédier à toute conséquence imprévue et à affiner continuellement nos systèmes pour améliorer leurs performances.

Alors que nous embrassons le potentiel de transformation de l’IA dans l’éducation, nous nous engageons à développer et à déployer des systèmes d’IA qui sont fermement ancrés dans nos principes directeurs. En mettant ces principes en action, nous visons à créer la prochaine génération d’outils d’apprentissage et d’enseignement basés sur l’IA qui permettront aux individus et aux institutions de mieux s’adapter à un monde en évolution.