En 1950, le célèbre article d'Alan Turing " Computing Machinery and Intelligence " est publié[7], qui propose ce qu'on appelle aujourd'hui le test de Turing comme critère d'intelligence. Ce critère dépend de la capacité d'un programme informatique d'usurper l'identité d'un être humain dans une conversation écrite en temps réel avec un juge humain, suffisamment bien pour que le juge soit incapable de distinguer de façon fiable, sur la seule base du contenu conversationnel, entre le programme et un vrai humain. La notoriété du test proposé par Turing a suscité un grand intérêt pour le programme ELIZA de Joseph Weizenbaum, publié en 1966, qui semblait être en mesure de tromper les utilisateurs en leur faisant croire qu'ils conversaient avec un vrai humain. Cependant Weizenbaum lui-même n'a pas prétendu que ELIZA était vraiment intelligent, et l'introduction à son article l'a présenté plus comme un exercice de démystification :
Tay, un chatbot AI qui apprend de l'interaction précédente, a causé une controverse majeure en raison de sa cible par les trolls Internet sur Twitter. Le bot a été exploité, et après 16 heures a commencé à envoyer des Tweets extrêmement offensants aux utilisateurs. Ceci suggère que bien que le bot ait appris efficacement de l'expérience, la protection adéquate n'a pas été mise en place pour empêcher l'abus. [56]
La méthode de fonctionnement clé d'ELIZA (copiée par les concepteurs de chatbot depuis) implique la reconnaissance de mots ou de phrases d'indice dans l'entrée, et la sortie des réponses pré-préparées ou préprogrammées correspondantes qui peuvent faire avancer la conversation dans un apparemment de manière significative (par exemple en répondant à toute entrée qui contient le mot «MOTHER» avec «TELL ME MORE ABOUT YOUR FAMILY»). [9] Ainsi, une illusion de compréhension est générée, même si le traitement en cause a été simplement superficiel. ELIZA a montré qu'une telle illusion est étonnamment facile à générer, parce que les juges humains sont si prêts à donner le bénéfice du doute lorsque les réponses conversationnelles sont capables d'être interprétées comme «intelligentes».
Il est vrai que quand on se lance à son compte, on n’a pas toujours le choix quant aux mandats qui nous sont confiés. On prend tout ce qu’on peut prendre, question de faire sa place. Mais au fil du temps, on peut se permettre d’être plus sélectif, d’orienter ses affaires vers des clients avec qui on a des atomes crochus ou vers des mandats qui nous correspondent davantage. On ne veut rien refuser? On peut, si les contrats l’autorisent, sous-traiter les portions de travail qui nous plaisent moins. Du coup, on aide un autre pigiste à faire sa place, on élimine les irritants et on se taille un job de rêve. Qui dit mieux?

Crtitique chatterpal

×