Microsoft a publié un ensemble de directives pour aider les développeurs à créer des assistants numériques « responsables ». L'adoption d'interfaces conversationnelles se développe dans un contexte d'amélioration rapide des technologies sous-jacentes. Cependant, la prise en compte des préoccupations éthiques avance à un rythme plus lent.
Microsoft a déclaré que les directives visent à rappeler aux développeurs que leurs produits peuvent être utilisés d'une manière qu'ils ne peuvent pas toujours prévoir. Bien que la conception éthique ait toujours été pertinente pour l'industrie technologique, elle est particulièrement importante dans le cas des interfaces conversationnelles.
Microsoft a utilisé l'exemple d'un bot de commande de pizza. Le service doit être conçu pour faciliter la commande de pizza, avec une susceptibilité minimale aux distractions des utilisateurs. Si l'utilisateur essaie de discuter de "sujets sensibles", tels que la race, le sexe, la religion ou la politique, le service doit s'abstenir de s'engager de la même manière qu'un serveur de pizza humain le ferait. Sinon, tout biais dans les algorithmes du bot pourrait l'amener à apprendre des comportements indésirables de la part du client.
Le reste des lignes directrices continue sur des thèmes similaires. Dans l'ensemble, Microsoft souligne que les bots peuvent être bénéfiques pour la société, si les développeurs restent conscients des problèmes potentiels. Les organisations doivent être franches quant à leur utilisation des bots. Tous les services alimentés par l'IA doivent rester exempts de préjugés et respectueux des normes culturelles.
« En général, les directives mettent l'accent sur le développement d'une IA conversationnelle responsable et digne de confiance dès le début du processus de conception », a déclaré Lili Cheng , vice-présidente de l'IA conversationnelle de Microsoft. "Ils encouragent les entreprises et les organisations à s'arrêter et à réfléchir à la façon dont leur bot sera utilisé et à prendre les mesures nécessaires pour prévenir les abus. En fin de compte, les directives sont toutes axées sur la confiance, car si les gens ne font pas confiance à la technologie, ils ne vont pas l'utiliser."
Vous pouvez trouver la liste complète des directives sur le site Web de Microsoft Research . Bien qu'il ne s'agisse pas de règles strictes, elles résument les normes éthiques de base à prendre en compte lors du développement de bots. Microsoft a publié les directives cette semaine avec un nouvel ensemble de technologies d'IA, y compris une boîte à outils de démarrage rapide pour les développeurs créant des assistants numériques.