Microsoft publie des directives pour les développeurs qui créent des assistants numériques

Comment

Microsoft a publié un ensemble de lignes directrices pour aider les développeurs à construire des assistants numériques « responsables ». L’adoption d’interfaces conversationnelles se développe au milieu d’améliorations rapides des technologies sous-jacentes. Cependant, la prise en compte des préoccupations éthiques progresse à un rythme plus lent.

Microsoft a déclaré que les directives visent à rappeler aux développeurs que leurs produits peuvent être utilisés d’une manière qu’ils ne peuvent pas toujours prévoir. Bien que la conception éthique ait toujours été pertinente dans l’industrie technologique, elle est particulièrement importante dans le cas des interfaces conversationnelles.

Microsoft a utilisé l’exemple d’un bot de commande de pizza. Le service doit être conçu pour faciliter la commande de pizza, avec une sensibilité minimale aux distractions des utilisateurs. Si l’utilisateur essaie de discuter de « sujets sensibles », tels que la race, le sexe, la religion ou la politique, le service doit s’abstenir de s’engager de la même manière que le ferait un serveur de pizza humain. Sinon, tout biais dans les algorithmes du bot pourrait l’amener à apprendre des comportements indésirables de la part du client.

Le reste des lignes directrices continue sur des thèmes similaires. Dans l’ensemble, Microsoft souligne que les bots peuvent être bons pour la société, si les développeurs restent conscients des problèmes potentiels. Les organisations doivent être franches quant à leur utilisation des bots. Tous les services alimentés par l’IA doivent rester exempts de préjugés et respectueux des normes culturelles.

« En général, les directives mettent l’accent sur le développement d’une IA conversationnelle responsable et digne de confiance dès le début du processus de conception », a déclaré Lili Cheng, vice-président de Microsoft pour l’IA conversationnelle. « Ils encouragent les entreprises et les organisations à s’arrêter et à réfléchir à la manière dont leur bot sera utilisé et à prendre les mesures nécessaires pour prévenir les abus. En fin de compte, les directives sont toutes une question de confiance, car si les gens ne font pas confiance à la technologie, ils ne vont pas l’utiliser. »

Vous pouvez trouver la liste complète des directives sur Site Web de Microsoft Research. Bien qu’il ne s’agisse pas de règles strictes, elles résument les normes éthiques de base à prendre en compte lors du développement de bots. Microsoft a publié les directives cette semaine aux côtés d’un nouvel ensemble de technologies d’IA, y compris une boîte à outils de démarrage rapide pour les développeurs créant des assistants numériques.

WindoQ