J'm'interroge a écrit :Je prouve assez que mes contradicteurs ont tort dans nombre de leurs affirmations et qu'ils ne raisonnent pas logiquement.
vic a écrit : 07 mars26, 22:58
Le problème que tu es le seul à penser que tu as prouvé quelque chose , parce que nous on ne voit rien de pertinent.
Ce n' est pas quelque chose qui se voit, c'est quelque chose qui se comprend ou non. Et pour ça, il faut raisonner logiquement. Ce qui n'est pas votre cas.
vic a écrit : 07 mars26, 22:58
Du reste on voit de plus en plus que ça n'est pas toi qui parle , mais chat gpt , on reconnait la mise en forme avec les trait d'unions bizarres dans tes phrases .
Non, c'est toujours moi qui parle. ChatGPT ne me permet que de gagner un temps précieux, ce qui est tout à fait appréciable.
vic a écrit : 07 mars26, 22:58
D'où cette notion paumée et décousue , parce que manifestement prendre des phrases de chatGPT sans même que ça soit ta propre réflexion , et tenter de mettre ça bout à bout pour faire illusion d'une pensée qui est la tienne et qui tienne la route ça fait un sacré bordel à l'arrivée .
Ça ce n'est que ta réception, le résultat est nickel. Et c'est bien ma pensée qui est exprimée. D'autres ici qui utilisent l'IA n'ont pas le même résultat. Tout est dans l'art du prompt et la maîtrise du sujet. ChatGPT tout seul ne donne pas ce résultat. Je le briefe, le corrige quand il faut, je ne reprends jamais ses textes sans les revoir de fond en comble, ou alors je le précise en mentionnant : "Chat GPT à écrit". Donc, ce que je vous sers c'est bien du JMI pure souche. Par ailleurs, je n'utilise pas systématiquement l'IA.
vic a écrit : 07 mars26, 22:58
exemple :
C'est ça quand on n'arrive plus soit même à suivre , on utilise une IA .
C'est plutôt toi qui n'arrives pas à suivre.
En passant, tu n'as toujours pas répondu à mon défi.
vic a écrit : 07 mars26, 22:58
Faire croire qu'on a toujours raison (tenter de faire illusion ) , ça demande le cerveau d'une IA , pas celui d'un humain , c'est sans doute ce que tu es entrain de comprendre . Sauf qu'une IA non plus n'a pas toujours raison .

Je ne prends jamais ce que me dit une IA pour argent comptant.
Toi par exemple, si, pour te renseigner, tu posais à une IA des questions sur la logique, ça ne t'aiderai pas beaucoup, parce que tu n'as jamais étudié la question.
J'm'interroge a écrit :
En logique, une certitude est toujours conditionnelle.
vic a écrit : 07 mars26, 22:58
Conditionnelle a ta propre définition de la vérité .
Tu vois, tu n'as aucune idée de ce que cela signifie.
vic a écrit : 07 mars26, 22:58
Pour le cas j'minterroge :
La vérité ne dépend plus de la réalité ni d’un critère extérieur, mais seulement de la parole de la personne.
N'importe quoi.
vic a écrit : 07 mars26, 22:58
Logiquement, cela devient infalsifiable : elle ne peut jamais avoir tort puisque elle est elle-même la règle qui décide du vrai.
N'importe quoi.
vic a écrit : 07 mars26, 22:58
Sauf que en même temps en utilisant chat gpt , c'est l'avatar de j'minterroge qui a pris le relai .
Qu'est-ce qu'il a mon avatar ?
vic a écrit : 07 mars26, 22:58
J'minterroge . Ton truc c'est de définir les règles à ta sauce de définition de la logique , pour en conclure que ta pensée est rigoureuse à la vérité logique parce qu'elle est conforma à ces règles . Ensuite , la malhonnêteté te pousse à tenter de faire une inversion de la charge de la preuve , et de demander aux autres de prouver que tes règles ne sont pas les bonnes.
Toujours n'importe quoi.
Je ne vais pas répondre à toutes les absurdités que je lis.
Je pense avoir suffisamment détaillé.
vic a écrit : 07 mars26, 22:58
je pense que le cirque à un peu trop duré .
Tu devrais enlever ton nez de clown, alors.
Ah mince !
C'est ton vrai nez.
Lol.
____________________
@ ronronladouceur,
Tu insistes parce que tu n'as rien d'intelligent à m'opposer.
.