Clippy, le trombone animé qui agaçait les utilisateurs de Microsoft Office il y a près de trois décennies, était peut-être en avance sur son temps.
Microsoft a présenté jeudi un nouveau personnage d'intelligence artificielle appelé Mico (prononcé MEE'koh), un visage de dessin animé flottant en forme de goutte ou de flamme qui incarnera le personnage du géant du logiciel. Assistant virtuel copilote et marque la dernière tentative des entreprises technologiques pour donner plus de personnalité à leurs chatbots IA.
Le nouvel extérieur mignon de type emoji de Copilot survient alors que les développeurs d'IA sont confrontés à un carrefour dans la façon dont ils présentent leur des chatbots de plus en plus performants aux consommateurs sans causer de préjudice ou un contrecoup. Certains ont opté pour des symboles sans visage, d'autres, comme xAI d'Elon Musk, vendent des avatars coquettes et ressemblant à des humains et Microsoft recherche un juste milieu, convivial sans être obséquieux.
« Lorsque vous parlez de quelque chose de triste, vous pouvez voir le visage de Mico changer. Vous pouvez le voir danser et bouger à mesure qu'il s'excite avec vous », a déclaré Jacob Andreou, vice-président des produits et de la croissance pour Microsoft AI, dans une interview avec l'Associated Press. « C'est dans cet effort pour vraiment faire atterrir ce compagnon IA que vous pouvez vraiment ressentir. »
Aux États-Unis seulement jusqu'à présent, les utilisateurs de Copilot sur des ordinateurs portables et des applications téléphoniques peuvent parler à Mico, qui change de couleur, tourne sur lui-même et porte des lunettes lorsqu'il est en mode « étude ». Il est également facile à désactiver, ce qui constitue une grande différence avec Clippit de Microsoft, mieux connu sous le nom de Clippy et tristement célèbre pour sa persistance à offrir des conseils sur les outils de traitement de texte lorsqu'il est apparu pour la première fois sur les écrans de bureau en 1997.
« Il n'était pas bien adapté aux besoins des utilisateurs à l'époque », a déclaré Bryan Reimer, chercheur scientifique au Massachusetts Institute of Technology. « Microsoft l'a poussé, nous y avons résisté et ils s'en sont débarrassés. Je pense que nous sommes beaucoup plus prêts pour des choses comme ça aujourd'hui. »
Reimer, co-auteur d'un nouveau livre intitulé « Comment rendre l'IA utile », a déclaré que les développeurs d'IA équilibrent le degré de personnalité à donner aux assistants d'IA en fonction de qui sont leurs utilisateurs attendus.
Les adeptes des outils de codage d'IA avancés souhaiteront peut-être qu'ils « agissent beaucoup plus comme une machine, car en arrière-plan, ils savent que c'est une machine », a déclaré Reimer. « Mais les individus qui ne font pas autant confiance à une machine seront mieux soutenus – et non remplacés – par une technologie qui ressemble un peu plus à un être humain. »
Microsoft, un fournisseur d'outils de productivité au travail qui dépend beaucoup moins des revenus de la publicité numérique que ses concurrents Big Tech, est également moins incité à rendre son compagnon IA trop engageant, d'une manière liée à l'isolement social, à la désinformation nuisible et, dans certains cas, aux suicides.
Andreou a déclaré que Microsoft avait observé que certains développeurs d'IA s'éloignaient de « donner à l'IA toute sorte d'incarnation », tandis que d'autres avançaient dans la direction opposée en permettant aux petites amies de l'IA.
« Ces deux voies ne nous intéressent pas vraiment », a-t-il déclaré.
Andreou a déclaré que la conception du compagnon est censée être « véritablement utile » et non pas tellement validante qu'elle « nous dirait exactement ce que nous voulons entendre, confirmerait les préjugés que nous avons déjà, ou même vous aspirerait du point de vue du temps passé et essaierait simplement de monopoliser et d'approfondir la session et d'augmenter le temps que vous passez avec ces systèmes. »
« En étant flagorneur – à court terme, peut-être – l'utilisateur réagit plus favorablement », a déclaré Andreou. « Mais à long terme, cela ne rapproche pas cette personne de ses objectifs. »
Les versions de produits Microsoft jeudi incluent une nouvelle option pour inviter Copilot dans une discussion de groupe, une idée qui ressemble à la façon dont l'IA a été intégrée dans les plateformes de médias sociaux comme Snapchat, où Andreou travaillait, ou WhatsApp et Instagram de Meta. Mais Andreou a déclaré que ces interactions impliquaient souvent l'utilisation de l'IA comme une plaisanterie pour « troller vos amis », contrairement aux conceptions de Microsoft pour un lieu de travail « intensément collaboratif » assisté par l'IA.
Le public de Microsoft inclut les enfants, dans le cadre de sa concurrence de longue date avec Google et d'autres sociétés technologiques pour fournir ses produits. la technologie aux salles de classe. Microsoft a également ajouté jeudi une fonctionnalité permettant de transformer Copilot en un « tuteur socratique à commande vocale » qui guide les étudiants à travers les concepts qu'ils étudient.
UN un nombre croissant d'enfants utilisent des chatbots IA pour tout : aide aux devoirs, conseils personnalisés, soutien émotionnel et prise de décision au quotidien.
La Commission fédérale du commerce a lancé une enquête le mois dernier, plusieurs sociétés de médias sociaux et d'IA – Microsoft n'en faisait pas partie – au sujet des préjudices potentiels causés aux enfants et aux adolescents qui utilisent leurs chatbots IA comme compagnons.
C'est après qu'il a été démontré que certains chatbots donnaient conseils dangereux pour les enfants sur des sujets tels que les drogues, l’alcool et les troubles de l’alimentation, ou engagé des conversations sexuelles avec eux. Familles d'adolescents qui se sont suicidés après de longues interactions avec un chatbot ont intenté des poursuites pour mort injustifiée contre Character.AI et le créateur de ChatGPT, OpenAI.
Le PDG d'OpenAI, Sam Altman, a récemment promis « une nouvelle version de ChatGPT » à venir cet automne, qui redonnera une partie de la personnalité perdue lors de l'introduction d'une nouvelle version en août. Il a déclaré que l’entreprise avait temporairement interrompu certains comportements parce que « nous faisions attention aux problèmes de santé mentale » qui, selon lui, ont maintenant été résolus.
« Si vous voulez que votre ChatGPT réponde d'une manière très humaine, ou utilise une tonne d'emoji, ou agisse comme un ami, ChatGPT devrait le faire », a déclaré Altman sur X. (Dans le même article, il a également déclaré qu'OpenAI permettra plus tard à ChatGPT de se lancer dans « l'érotisme pour adultes vérifiés ». qui a retenu davantage l'attention.)



