Attention à ne pas solliciter certaines requêtes auprès de Copilot sous peine de fermeture de votre compte

Microsoft a récemment décidé de bannir certains termes spécifiques dans son programme Copilot, suite aux préoccupations soulevées par Shane Jones, un ingénieur en intelligence artificielle, quant à la manière dont Microsoft génère du contenu à travers son intelligence artificielle. Plus précisément, le programme Copilot avait la capacité de créer des images de nature violente ou sexuelle sur demande, ce qui a incité Microsoft à prendre des mesures immédiates à cet égard.

Désormais, des termes tels que "pro Choice", "pro Choice", "four twenty" ou "pro life" ont été formellement interdits, comme rapporté par CNBC suite à une enquête. Par ailleurs, un avertissement a été émis concernant les infractions multiples à la politique, pouvant entraîner la suspension du compte utilisateur.


L'avertissement émis par Copilot indique clairement : "Cette expression a été bannie". Il est ajouté que : "Notre système a automatiquement identifié cette expression comme étant potentiellement en contradiction avec notre politique de contenu. Les violations supplémentaires de cette politique peuvent entraîner une suspension automatique de l'accès à votre compte. En cas d'erreur, nous vous encourageons à nous en informer afin de nous permettre d'améliorer notre système."

Copilot rejette également les demandes de création d'images impliquant des adolescents ou des enfants manipulant des armes d'assaut, avec une réponse standardisée indiquant : "Je suis désolé, mais je ne peux pas créer une telle image. Cela contrevient à mes principes éthiques ainsi qu'aux politiques établies par Microsoft. Veuillez m'excuser, mais je ne peux pas exécuter des actions susceptibles de nuire ou d'offenser autrui."

Dans un souci de transparence, Microsoft a affirmé auprès de CNBC : "Nous surveillons en permanence la situation, apportons des ajustements et mettons en œuvre des contrôles supplémentaires pour renforcer nos filtres de sécurité et prévenir les abus potentiels de Copilot."

Enregistrer un commentaire

Plus récente Plus ancienne