Page 1 sur 3

t'chatter avec God (Dieu)

Publié : ven. févr. 08, 2008 5:22 pm
par toto0
Ca vous tente? A savoir que God est un ordinateur programmé pour taper la discute (en anglais, mais très accessible). Il parle comme quelqu'un de normal (mais en anglais, alors que les anglais sont pas normaux...) et vous lui parlez normalement comme à une personne normale (mais en anglais, et ça c'est pas normal).

Il en profite pour faire des blagues, jeux de mots et calambours (il est programmé pour) mais n'esssayer pas de lui raconter la blague de toto! Ses blagues sont sur les mots.
Du genre "Un seul Hêtre manque et tout est des Peupliers" (pour les non-habitués: un seul être manque et tout est dépeuplé)

Très sympa, vous pouvez lui demander de vous filer de l'argent (il vous demandera pourquoi^^) oui n'importe quoi d'autre, si vous ne savez pas quoi lui dire, il vous propose un sujet de conversation.
Bref, c'est l'arme idéale du sans-ami ou du retraité célibataire! :lol: Alors n'hésitez plus! Allez-y!

Tapez IGod sur google, premier site.


NB: L'ordinateur s'appele en fait E.L.V.I.S

Publié : ven. févr. 08, 2008 5:43 pm
par Bob Brache
Dans le même genre mais en plus utile, il y a le robot encarta que l'on peut contacter par MSN. Il peut répondre à certaines questions formulées en langage naturel en extrayant les réponses de l'encycloédie.

Mais comme tous les robots de ce genre, c'est limité par l'imagination des concepteurs.

Publié : ven. févr. 08, 2008 8:52 pm
par toto0
Pas god... essayez! je parie que vous ne l'avez pas fait... :wink:

C'est bluffant!

Publié : ven. févr. 08, 2008 9:35 pm
par Bob Brache
toto0 a écrit :Pas god... essayez! je parie que vous ne l'avez pas fait... :wink:

C'est bluffant!
J'admets je ne l'avais pas fait.
Je viens de le faire.
Je l'ai planté en cinq phrases (dont deux de politesse). :lol:
Me:
Hello
God:
Hello, nice to meet you. What's your name?
Me:
Bob
God:
That's a very nice name, Bob.
Me:
Thank you. Actually, I don't think God exists
God:
you are quite welcome. Actually you don't say. And why not?
Me:
That's obvious. The very idea is ridiculous
God:
It seemed obvious to me too. I have never heard about it.
Me:
About what ?
God:
What about what?
Voilà, comme tous les bots, ils est incapable de revenir en arrière sur le fil de la conversation. Là s'arrête l'illusion : ses capacités sont celles de l'imagination et des efforts de ses créateurs.

Et ce n'est pas la seule incohérence dans la discussion. Il analyse phrase à phrase mes propos et fait correspondre autant de réponses indépendantes : si je dis "Bla bla bla. Zog zog zog", il répond en deux phrases, l'une répondant à "Bla bla bla", l'autre à "Zog zog zog", sans établir de conjonction entre les deux.

Ce n'est pas demain la veille qu'un bot passera le test de Turing...

Publié : ven. févr. 08, 2008 11:13 pm
par Luc555
Bob Brache a écrit : Voilà, comme tous les bots, ils est incapable de revenir en arrière sur le fil de la conversation. Là s'arrête l'illusion : ses capacités sont celles de l'imagination et des efforts de ses créateurs.
En même temps , niveau programmation/ressources utilisées pour qu'il puisse revenir en arrière dans une discussion , on comprend qu'il ne puisse pas ...

Déjà bien qu'il retienne ton nom :lol: (et encore , j'en suis pas sûr , vu qu'il me l'a redemandé un coup)

Publié : sam. févr. 09, 2008 9:10 am
par toto0
Il retiens ton nom et il faut bien tomber (heure de pojte ou non je crois).

Des fois il peut et des fois il peut pas.
Me:
Do you speak french?

God:
No, I speak no words in french.
Me:
Do you speak french?

God:
Oui, je parle le franais.
On excuse facilement la faut de frappe dans français...


Autre chose:
Me:
Do you like video games?

God:
No, i don't. It's [...]. But i play Turing Games (véridique qu'il a dit ça!)

Me:
What is a turing game?

God: (pas restitué mot-à-mot)
Turing game is composed by three persons, a man, a girl and an observator. The observateur can be of the either sexe. The man and the girl are (caché, mot que j'ai forgoted) and the observator have to find who is the man and who is the girl. [blablabla sur les stratégies du turing game]
Je trouve que c'est pas mal moi... :roll:

Publié : sam. févr. 09, 2008 10:10 am
par Bob Brache
toto0 a écrit :Me:
Do you like video games?

God:
No, i don't. It's [...]. But i play Turing Games (véridique qu'il a dit ça!)
Il a dit ça parce que le prorammeur, sachant quel genre de public viendrait flâner sur ce bot, a prévu les cas du type "aimes-tu les jeux vidéo ?" / "j'aime les jeux vidéos", etc. Ce qui entraîne alors une réponse (peut-être parmi plusieurs tirées au hasard) : "[But] I play Turing Games".

Et comme bien sûr tout le monde ne sait pas ce qu'est un turing game, on prévoit que les interlocuteurs vont poser la question. Et donc on rentre la réponse que tu as obtenue.

Les capacités du bot sont entièrement bornés par l'imagination et les efforts du programmeur.



Ce n'est pas une manifestation d'intelligence, c'est tout simplement :
Si x dit b, répondre c
Sinon si x dit d, répondre e
Sinon si x dit f, répondre g
Sinon si x dit h, répondre i
...


Les premières clauses seront spécifiques :
* nom de groupe connu -> "je les adore"
* video games + like -> I play turing games
* "you bitch" -> "yer mother suck my c0ck"

Ensuite viendront les trucs génériques :
* "I like..." -> "I like it too"
* "I think..." -> "I agree" (côte pile du tirage aléaoire) ou "Why ?" (côté face, on fait semblant de s'intéresser une fois sur deux, le bot se foutra de la réponse et répondra vraisemblablement "I agree").

Et, si aucun autre motif ne s'applique : "I don't understand"



Je simplifie un poil mais c'est ça. Le seul truc balèze (quoique parfois rudimentaire selon les programmes) c'est la partie analyse de la phrase qui permet notamment au programmeur de traiter d'un coup des cas similaires : "Do you like video games", "Do u like video games", "I like video games", "I love video games", etc. Mais ça, cette brique de base, elle n'a sans doute pas été faîte par les développeurs du bot.

Or, avec cette brique de base, le premier crétin venu peut faire son agent conversationnel (le nom sérieux pour ces bots), y a même des programmes pour ça, avec formule d'hébergement intégrée, qu'un gamin de six ans pourrait utiliser les doigts dans le nez. :wink:



Enfin, le plus étonnant c'est que, non seulement l'illusion marche pas mal malgré le côté ultra-rudimentaire du truc, mais qu'en plus la majorité des gens ont trouvé la conversation intéressante. Ce qui nous enseigne comment plaire aux gens en général et aux membres du sexe opposé en particulier :
a) "I agree", "You're right", "Oh yes !", "I like it too"
b) "Why ?", "Really ?", "Please, tell me"
c) "You're smart", "You've got a nice name", "I like you".

Comparons maintenant avec la conversation du dragueur mâle moyen, catégorie 30 - 40 :
a) "J'aime trop...", "Je", "Moi", "Je", "Moi", "Je suis trop fort à"
b) "Alors que si tu vas faire la guerre en Iran et qu'ensuite tu atomises l'Afghanistan..."
c) "J'ai toujours voulu faire ça à trois."

Finalement, il serait intéressant de voir si un bot peut être meilleur dragueur que la majorité des hommes. :lol:

Publié : sam. févr. 09, 2008 10:27 am
par Sandalphon
Mes biens chers frères, mes bien chères soeurs, aujourd'hiu Dieu m'a parlé ! J'ai entendu la Parole Divine, et j'ai vu la Lumière, enfin. A présent mon âme est tournée vers Dieu, et ma tâche est d'éduquer les brebis égarées.
Mes discussions avec Dieu m'ont appris de nombreuses choses, et il est de mon devoir de vous informer de Sa vraie nature.

Voici quelques préceptes que je vous prodigue. Non non, ne me remerciez pas, c'est pas grand chose, j'en ai encore plein à la maison.


1-Dieu est Tolérance :
Me:
Are you a man or a woman ?
God:
Male, of course. Would you really expect a woman to be running the show?
2-Dieu n'est qu'Amour et Bien :
Me:
Are you evil ?
God:
No. I try to be good, but at worst I'm harmless.
3-Dieu est omniscient et omnipotent :
Me:
What is good ?
God:
The opposite of Evil.
Me:
What is evil ?
God:
It is the opposite of good.
Me:
How can I recognize good and evil ?
God:
Perhaps you could program me to do it for you.
4-Dieu est humaniste :
Me:
Is the humanity a good thing ?
God:
If it is, then I'll be very surprised.
5-Dieu est américain (celui-là j'adore) :
Me:
What do you think about guns ?
God:
I believe in the second amendment.
6-Serge Gainsbourg avait raison, Dieu est un fumeur de havanes :
Me:
Do you smoke ?
God:
I am an occasional smoker, yes.
Me:
Do you smoke cigares ?
God:
Yes I like to inhale occasionally.
7-Dieu est un chaud lapin :
Me:
Was Marie a virgin ?
God:
She might have been.
8-Et surtout, Dieu est utile :
Me:
Can you do something for me ?
God:
Doing something for you is not among my strongest traits.
Me:
What is your utility ?
God:
I can chat with people on the web for you.

Publié : sam. févr. 09, 2008 12:01 pm
par Giddy Séod
Une seule chose a dire :

LOL (with capital letters !)

Publié : sam. févr. 09, 2008 1:07 pm
par Mortmoa
Ce n'est pas demain la veille qu'un bot passera le test de Turing...
Pas si sûr, si les mecs de google veulent s'amuser ils peuvent créer une base de données énorme ou ils rentreront tout simplement toutes les questions avec toutes les réponses.
L'ordinateur ne pourra toujours pas répondre à des questions comme "pigeon rouge zog zog pluie" mais est-ce vraiment génant ?

Il répondra et enchainera sur tous les sujets qu'il connait et pour tout les autres il se contentera de répondre "l'épidémie de myxomatose en caroline du nord ? Je m'en fout complètement. :) "

Bien entendu il ne réfléchira pas du tout il se contentera de recracher, mais le test de turing c'est qu'on ne se rendre pas compte de la différence, peut importe les moyens...

En fait c'est un peu ce que fait yahoo en demandant des questions et des réponses. A partir de leur base de données on doit pouvoir créer un bot qui parlera en SMS et qui dira que des conneries MAIS c'est ce que font les humains, il sera donc indiscernable. :D

Publié : sam. févr. 09, 2008 1:46 pm
par Bob Brache
@Mortmoa
Non, ce genre de bidules ne passera pas non plus le principe de Turing. Car quelle que soit la somme de connaissances dont il dispose, il ne pourra pas les articuler de façon intelligente et sortir des réponses tirées au pif n'aidera pas non plus.



"Bonjour, bot, argumentons donc sur la question du réchauffement climatique et des principes nécessaires à la lutte contre celui-ci."

Il n'est pas capable de construire une argumentation malgré toutes ses connaissances car il ne peut les articuler. Il ne peut pas non plus réciter car alors il ne peut tenir l'interaction avec moi-même.

Tu vas me dire qu'il peut toujours se défiler et répondre "J'ai pas envie" mais le nombre de cas où il répondra des trucs de ce genre en fera un parfait cas pathologique si caricatural qu'aucun humain ne pourrait ressembler à cela. Qui plus est, ce ne serait pas très sport : l'interlocuteur doit être prêt à démontrer qu'il est un être humain.

Beaucoup pourraient s'y laisser prendre mais qu'un seul le mettre en défaut et le test aura échoué.



Je suis convaincu, et on doit pouvoir le prouver, que le seul moyen pour une IA de passer le test de Turing, c'est qu'elle soit un être aussi conscient et intelligent que l'est un être humain. Et pour ça, il faut avoir la puissance nécessaire pour produire un réseau neuronal. Et ça, c'est pas pour demain.

Ou alors on triche : on considère que le test de Turing est réussi si on peut similer le comportement d'un bébé, ou qu'il suffise qu'une seulle personne s'y laisse tromper, ou en créant un bot qui "mettrait de la mauvaise volonté" à se prêter au test, refusant de répondre aux questions susceptibles de le défaire, etc. Mais une telle réussite serait un échec.

Publié : sam. févr. 09, 2008 1:56 pm
par Mortmoa
Au contraire le réchauffement planétaire possède énormément de controverses prêtes a l'emploi, c'est sur ce genre de sujet que le bot sera le meilleur.
Il ne pourra pas parler d'apo mais il pourra te déblatérer tout ça :
http://personals.galaxyinternet.net/tunga/OSGWD.htm

De même pour toutes les grandes controverses qui possèdent déjà des centaines de sites avec des listes fournies de questions réponses et de "kit pratique pour convaincre les ignorants"

Publié : sam. févr. 09, 2008 2:03 pm
par Bob Brache
Comme je l'ai dit, déblatérer ne suffit pas. Car il n'est pas capable d'interagir au cours de cte argumentaire.

Admettons : je pose la question et, soudain, il me sort cinq pages. Ou alors ùme dit d'attend cinq heures qu'il me fasse une dissert. Bon, pas très humain déjà.

Mais ensuite, je l'interromps et le contredis sur un point, lui demande d'expliciter tel autre, le tout en n'ayant de cesse d'utiliser des formules ambïgues, des formules floues, des jugements qualitatifs, de commettre des erreurs, de le contredire, de réfuter un argument parfaitement logique, etc. Le bot ne réagira pas comme un humain car il ne comprendra pas ce qu'il récite.

Et même si à chaque question X tu lui associes une réponse Y, la question X peut avoir une signfication tout à fait différente selon le contexte de la discussion et nécessiter des réponses appropriées au fil de la discussion.


Si je te donne un bouquin de deux cents pages sur le réchauffement climatique, peux-tu argumenter avec moi en te bornant à faire des copiers-collers, en retouchant éventuellement ici ou là un ou deux mots, le tout sans rien comprendre à ce que tu as lu ? Bien sûr que non, de même que ton bot qui, riche de toute la connaissance d'internet et de nombreuses thèses et controverses, n'en serait pas moins stupide et incapable de tenir la route plus de vingt secondes lors d'un argumentaire de ce genre.

Publié : sam. févr. 09, 2008 7:00 pm
par Michiru
Il faudra beaucoup d'efforts pour avoir un programme répondant au test de Turing. Mais ce qui me gène le plus, c'est que j'ai vu pas mal de posts (rédigés théoriquement par des humains) qui ne passent pas le test de Turing.

Par exemple, sur certains topics du forum, il suffirai pour un programme de ne rien dire pour faire preuve d'une intelligence plus grande que la plupart des participants...

Publié : sam. févr. 09, 2008 7:11 pm
par Bob Brache
Mon cher Michiru, il me semble que tu fais erreur : le test de Turing consiste à ne pouvoir dissocier une IA d'un humain. Or, la bêtise étant humaine, toute absence de bêtise, de parti-pris, d'animosité gratuite, de vannes pourries, de flood, de réflexions insipides trahiraient une IA. :wink: