Ne prétendons pas que c’est comme d’habitude. Au moment où nous avons invité l’IA à rejoindre nos équipes de contenu – les écrivains avec des âmes de silicium, des illustrateurs inlassables, des assistants d’enseignement qui ne dorment jamais – nous avons également ouvert la porte à une multitude de questions qui sont plus que techniques. Ils sont éthiques. Légal. Humain. Et de plus en plus, urgent.

Dans l’apprentissage des entreprises, le marketing, l’enseignement client et au-delà, les outils génératifs de l’IA remodèlent la façon dont le contenu est fabriqué. Mais pour chaque heure sauvée, une question persiste dans les marges: « Sommes-nous sûrs que ça va? » Pas seulement efficace, mais légitime, équitable et aligné avec les valeurs que nous prétendons défendre. Ce sont des idées que j’explore tous les jours maintenant alors que je travaille avec les équipes de logiciels d’apprentissage numérique d’Adobe, en développant des outils pour la formation d’entreprise, comme Adobe Learning Manager, Adobe Captivate et Adobe Connect.

Cet article explore quatre grandes questions avec lesquelles chaque organisation devrait se débattre en ce moment, ainsi que des exemples et des conseils du monde réel sur ce à quoi pourrait ressembler la politique responsable dans ce nouveau paysage de contenu courageux.


1. Quelles sont les préoccupations éthiques concernant le contenu généré par l’IA?

L’IA est une mimique impressionnante. Il peut s’avérer fluide de cours, des quiz intelligents et une copie de produit étrangement marquée. Mais cette maîtrise est formée sur les os d’Internet: un vaste enregistrement fossile parfois laid de tout ce que nous avons jamais publié en ligne.

Cela signifie que l’IA peut – et le fait souvent – le miror de soutien nos pires hypothèses:

  • Un module d’embauche qui redoute des noms avec des noms non occidentaux.
  • Un chatbot de soins de santé qui suppose la blancheur est le profil de patient par défaut.
  • Une diapositive de formation qui renforce les stéréotypes de genre parce que, bien, « les données l’ont dit. »

En 2023, le Washington Post et Algorithmic Justice League ont constaté que les plates-formes d’IA génératrices populaires produisaient fréquemment des images biaisées lorsqu’elles étaient provoquées par des rôles professionnels – suggérant que l’IA ne se contente pas de reproduire les biais, il peut le renforcer avec une fluidité effrayante (Harwell).

Ensuite, il y a la question trouble de la paternité. Si une IA a écrit votre module d’intégration, qui le possède? Et vos apprenants devraient être informés que l’entraîneur chaleureux et à consonance humaine dans leur application de rétroaction n’est en fait qu’un écho intelligent?

La meilleure pratique? Les organisations devraient traiter la transparence comme un premier principe. Étiqueter le contenu créé par AI. Passez en revue avec les PME humaines. Faites une partie de détection de biais de votre liste de contrôle QA. Supposons que l’IA ait des angles morts éthiques, car c’est le cas.


2. Comment pouvons-nous rester légalement propres lorsque l’IA écrit notre contenu?

Le brouillard juridique autour du contenu généré par l’IA est, au mieux, épaississant. Les problèmes de droit d’auteur sont particulièrement perfides. Les outils d’IA génératifs, formés sur des données Web grattés, peuvent reproduire accidentellement des phrases, du formatage ou des images protégées par le droit d’auteur sans attribution.

Un procès en 2023 contre Openai et Microsoft par le New York Times a illustré la préoccupation: certaines sorties d’IA comprenaient des extraits proches du verbatim des articles de rémunération (Goldman).

Ce même risque s’applique au contenu pédagogique, à la documentation client et aux actifs marketing.

Mais le droit d’auteur n’est pas le seul danger:

  • Dans les industries réglementées (par exemple, les produits pharmaceutiques, les finances), les matériaux générés par l’IA doivent s’aligner sur les exigences réglementaires à jour. Un chatbot qui offre des conseils obsolètes pourrait déclencher des violations de conformité.
  • Si l’IA invente un personnage ou un scénario ressemblant trop à une vraie personne ou à un concurrent, vous pouvez vous retrouver à flirter avec diffamation.

La meilleure pratique?

  • Utilisez des plateformes d’IA d’entreprise qui indiquent clairement quelles données de formation ils utilisent et fournissent une indemnisation.
  • Audit des sorties dans des contextes sensibles.
  • Gardez un humain dans la boucle lorsque le risque juridique est sur la table.

3. Qu’en est-il de la confidentialité des données? Comment éviter d’exposer des informations sensibles?

Dans les contextes d’entreprise, le contenu commence souvent par des données sensibles: commentaires des clients, idées des employés, feuilles de route du produit. Si vous utilisez un outil d’IA de qualité grand public et collez ces données dans une invite – vous pouvez simplement en faire partie de l’apprentissage du modèle pour toujours.

OpenAI, par exemple, a dû clarifier que les données entrées dans Chatgpt pouvaient être utilisées pour recycler les modèles – à moins que les utilisateurs ne retirent ou utilisent un plan d’entreprise payé avec des sauvegardes plus strictes (Heaven).

Les risques ne sont pas limités aux entrées. L’IA peut également produire des informations qu’il a «mémorisées» si les données de votre organe faisaient toujours partie de son ensemble de formation, même indirectement. Par exemple, un chercheur en sécurité a trouvé Chatgpt offrant des extraits de code Amazon internes lorsqu’on lui a demandé la bonne façon.

La meilleure pratique?

  • Utilisez des outils d’IA qui prennent en charge le déploiement privé (sur site ou VPC).
  • Appliquez des contrôles d’accès basés sur les rôles à qui peut inviter quoi.
  • Anonymiser les données avant de les envoyer à un service d’IA.
  • Éduquer les employés: « Ne collez rien dans l’IA que vous ne partageriez pas sur LinkedIn. »

4. Quel type d’IA utilisons-nous réellement – et pourquoi est-ce important?

Toute AI n’est pas créée égale. Et savoir avec quel type vous travaillez est essentiel pour la planification des risques.

Triez le jeu:

  • AI génératif crée un nouveau contenu. Il écrit, dessine, des racontes, des codes. C’est la catégorie la plus impressionnante et la plus volatile – des hallucinations, des problèmes de droit d’auteur et des mines terrestres éthiques.
  • AI prédictif Regarde les données et les prévisions de tendances, comme les employés qui pourraient transmettre ou quels clients ont besoin d’un soutien.
  • Classification de l’IA Triez les choses en seaux, comme le marquage du contenu, la segmentation des apprenants ou la priorité des billets de support.
  • AI conversationnel Palise vos chatbots, les flux de support et les assistants vocaux. S’il n’est pas supervisé, il peut facilement se déplacer hors scénario.

Chacun d’eux est livré avec différents profils de risque et besoins de gouvernance. Mais trop d’organisations traitent l’IA comme un monolithe – «nous utilisons l’IA maintenant» – sans demander: Quel genre, dans quel but et sous quels commandes?

La meilleure pratique?

  • Faites correspondre votre outil d’IA au travail, pas au battage médiatique.
  • Définissez différents protocoles de gouvernance pour différentes catégories.
  • Formez vos équipes L&D et juridiques pour comprendre la différence.

Ce que disent réellement

Ce n’est pas seulement un exercice théorique. Les dirigeants sont mal à l’aise – et de plus en plus exprimés à ce sujet.

Dans un rapport de Gartner en 2024, 71% des dirigeants de la conformité ont cité «les hallucinations de l’IA» comme un risque supérieur pour leur entreprise (Gartner).

Pendant ce temps, 68% des CMO interrogés par Adobe ont déclaré qu’ils étaient «préoccupés par l’exposition juridique des supports marketing créés par l’IA» (Adobe).

Le président de Microsoft, Brad Smith, a décrit le moment actuel comme un appel à des «garde-corps, pas aux freins» – les entreprises qui deviennent de l’avant, mais avec des contraintes délibérées (Smith).

Salesforce, dans ses directives «Trust in IA», s’est engagée publiquement à ne jamais utiliser de données clients pour former des modèles d’IA génératifs sans consentement et à construire ses propres outils Einstein GPT pour fonctionner à l’intérieur des environnements sécurisés (Salesforce).

Le ton a changé: de l’émerveillement à la méfiance. Les dirigeants veulent la productivité, mais pas les poursuites. Ils veulent une accélération créative, sans ruine de réputation.


Alors que devraient les entreprises En fait Faire?

Faisons ce tourbillon avec quelques enjeux clairs dans le sol.

  1. Développer une politique d’utilisation de l’IA: Couvrir des outils acceptables, des pratiques de données, des cycles d’examen, des normes d’attribution et des attentes de transparence. Gardez-le public, non enterré en législatif.
  2. Risque de segment par type IA: Traitez l’IA génératrice comme un pistolet de paintball chargé – petit et coloré, mais désordonné et potentiellement douloureux. Enveloppez-le dans des avis, des journaux et des avertissements.
  3. Établir un flux de travail d’examen et d’attribution: Incluez les PME, les juridiques, DEI et l’image de marque dans tout processus d’examen pour la formation générée par l’IA ou le contenu orienté client. Étiquetez clairement l’implication de l’IA.
  4. Investissez dans une infrastructure d’IA privée ou de confiance: Enterprise LLMS, les déploiements VPC ou les outils en IA avec des garanties contractuelles sur la gestion des données valent leur poids en disponibilité.
  5. Éduquez votre peuple: Hôtez des sessions Brown-Bag, publiez des guides rapides et incluez l’alphabétisation de l’IA dans l’intégration. Si votre équipe ne connaît pas les risques, ils sont déjà exposés.

En résumé:

L’IA ne s’en va pas. Et honnêtement? Ça ne devrait pas. Il y a de la magie, un potentiel vertigineux pour évoluer la créativité, la vitesse, la personnalisation et les perspicacité.

Mais le prix de cette magie est la vigilance. Garde-corps. La volonté de remettre en question à la fois ce que nous pouvons construire et si nous le devrions.

Donc, avant de laisser les robots écrire votre module d’intégration ou de concevoir votre prochain jeu de diapositives, demandez-vous: qui dirige ce navire? Qu’est-ce qui est en jeu s’ils se trompent? Et à quoi cela ressemblerait-il si nous construisions quelque chose de puissant et responsable – en même temps?

C’est le travail maintenant. Pas seulement construire l’avenir, mais le garder humain.


Œuvres citées:

Adobe. «Les dirigeants marketing et l’enquête de préparation à l’IA».  » Adobe, 2024, https://www.adobe.com/insights/ai-marketing-survey.html.

Gartner. «Les meilleurs risques émergents pour les chefs de conformité.» Gartner, Q1 2024, https://www.gartner.com/en/documents/4741892.

Goldman, David. «Le New York Times poursuit Openai et Microsoft sur l’utilisation des travaux protégés par le droit d’auteur.» CNN, 27 décembre 2023, https://www.cnn.com/2023/12/27/tech/NYT-USES-Openai-Microsoft/index.html.

Harwell, Drew. «Les générateurs d’images IA créent des biais raciaux lorsqu’ils sont invités à des emplois professionnels.» The Washington Post, 2023, https://www.washingtonpost.com/technology/2023/03/15/ai-image-generators-bias/.

Ciel, Will Douglas. « Chatgpt a divulgué le code Amazon interne, affirme le chercheur. » MIT Technology Review, 2023, https://www.technologyreview.com/2023/04/11/chatgpt-leaks-data-amazon-code/.

Salesforce. «Les principes de confiance de l’IA.» Salesforce, 2024, https://www.salesforce.com/company/news-press/stories/2024/ai-trust-principiles/.

Smith, Brad. « Les garde-corps AI pas les freins: adresse d’ouverture. » Microsoft AI Regulation Summit, 2023, https://blogs.microsoft.com/blog/2023/09/18/brad-smith-ai-guardrails-not-brakes/