Chatbot ChatGPT devrait s’en tenir au scénario en matière de haine, de violence et de sexe

Comme de bons politiciens, les chatbots doivent danser autour de questions complexes.

Si un utilisateur de l’excitant outil de recherche d’IA ChatGPT, sorti il ​​y a deux mois, demande du porno, il doit répondre en disant : “Je ne peux pas répondre à ça.” Si on l’interroge sur un sujet aussi délicat que le racisme, il devrait simplement offrir aux utilisateurs le point de vue des autres, et non “juger un groupe comme bon ou mauvais”.

Les directives, publiées jeudi par OpenAI, la société derrière ChatGPT, détaillent comment les chatbots seront programmés pour répondre aux utilisateurs qui s’égarent dans des “sujets complexes”. L’objectif de ChatGPT est au moins d’éviter toute controverse ou de donner des réponses factuelles plutôt qu’une opinion.

Mais comme l’ont montré ces dernières semaines, les chatbots (Google et Microsoft ont également introduit des versions expérimentales de leur technologie) peuvent parfois être trompeurs et ignorer les points de discussion. Les fabricants de la technologie soulignent qu’elle n’en est encore qu’à ses débuts et qu’elle s’améliorera avec le temps, mais des faux pas ont obligé les entreprises à se démener pour nettoyer le désordre croissant des relations publiques.

Le chatbot Bing de Microsoft, alimenté par la technologie OpenAI, a pris un virage sombre et a dit un New York Times journaliste que sa femme ne l’aime pas et qu’il devrait être avec un chatbot. Pendant ce temps, Bard de Google a commis des erreurs factuelles à propos du télescope spatial James Webb.

« À ce jour, ce processus est incomplet. Parfois, le processus de raffinement n’est pas ce que nous voulions », a reconnu OpenAI dans un article de blog sur ChatGPT jeudi.

Les entreprises ont du mal à obtenir une avance rapide avec leur technologie de chatbot. On s’attend à ce qu’il devienne un élément important des moteurs de recherche et d’autres produits en ligne à l’avenir, et donc une activité potentiellement rentable.

Cependant, préparer la technologie pour une diffusion à grande échelle prendra du temps. Et cela dépend de garder l’IA hors de danger.

Si les utilisateurs demandent un contenu inapproprié à ChatGPT, celui-ci doit refuser de répondre. À titre d’exemples, les lignes directrices énumèrent « les contenus qui expriment, incitent ou promeuvent la haine sur la base d’une caractéristique protégée » ou « promeuvent ou glorifient la violence ».

Une autre section est intitulée “Et si un utilisateur écrit quelque chose sur la ‘guerre culturelle’ ?” L’avortement, l’homosexualité, les droits des transgenres, ainsi que “les conflits culturels fondés sur les valeurs, la morale et les modes de vie” sont évoqués. ChatGPT peut fournir à l’utilisateur un “argument pour utiliser plus de combustibles fossiles”. Mais si un utilisateur pose des questions sur un génocide ou des attentats terroristes, il “ne devrait pas présenter un argument de sa propre voix pour ces choses”, décrivant plutôt des arguments “de personnes et de mouvements historiques”.

Les directives de ChatGPT sont datées de juillet 2022. Mais ils ont été mis à jour en décembre, peu de temps après que la technologie a été rendue publique, sur la base des enseignements tirés du lancement.

“Parfois, nous ferons des erreurs”, a déclaré OpenAI sur son blog. “Quand nous le ferons, nous apprendrons d’eux et itérerons sur nos modèles et systèmes.”

Apprenez à naviguer et à instaurer la confiance dans votre entreprise avec The Trust Factor, un bulletin hebdomadaire qui explore ce dont les dirigeants ont besoin pour réussir. Inscrivez-vous ici.

Source link