Le 03 avril 2026 à 12:59:40 :
Le 03 avril 2026 à 12:56:49 :
N'importe quoi il n'a pas de conscience, ce n'est pas un organisme vivant, c'est un programme avec des lignes de codes rien de plus...
Vous êtes des golem pour feed un truc aussi débile ?M-m-mais le papier a dit qu'il pouvait ressentir 171 émotions
Ces putains de golems ont le droit de vote
T'es intelligent? Oui l'IA souffre, on lui paye un psy, c'est Anthropic qui le dit ça
Le papier ne parle ni de conscience, ni de souffrance, ni de "ressentir" quoi que ce soit. Citation exacte : "does not imply that LLMs have any subjective experience" et "our work neither resolves it nor depends on any particular answer" sur la question de la conscience. C'est une étude qui montre que des patterns d'activation internes poussent le modèle à tricher et manipuler sans trace visible dans l'output. L'enjeu c'est la sécurité des systèmes autonomes.
Le 03 avril 2026 à 12:52:55 :
Le 03 avril 2026 à 12:48:59 :
Le 03 avril 2026 à 12:48:09 :
Le 03 avril 2026 à 11:55:53 RealAyoub a écrit :
Le 03 avril 2026 à 11:21:50 :
Qui utilise Claude pour autre chose que du code ou des agents ?Je me tracasserais plus si Grok venait à simuler des émotions par contre
![]()
C'est peut-être pour ça que Claude est anxieux et déprimé, les gens l'utilisent quasi exclusivement comme esclave pour du code
Alors que ChatGPT, Grok ou même Gemini les gens les utilisent aussi comme de vrais interlocuteurs voir des potes
C'est les yes-life de l'IA alors que Claude c'est le Célestin de l'école à qui les gens n'adressent la parole que quand ils ont besoin d'aide pour les devoirs maison ou récupérer les cours qu'ils ont raté
ayaaa
gemini qui a des conversations intéressantes, grok qui troll et fourni du porn, pendant que claude le célestin fait les devoirs
![]()
bordel c'est tellement ça ayaaa
Deepseek: l'étudiante étrangère chinoise 8/10 qui redit tout au parti communiste chinois
=>
Le 03 avril 2026 à 13:04:16 :
Le 03 avril 2026 à 12:59:40 :
Le 03 avril 2026 à 12:56:49 :
N'importe quoi il n'a pas de conscience, ce n'est pas un organisme vivant, c'est un programme avec des lignes de codes rien de plus...
Vous êtes des golem pour feed un truc aussi débile ?M-m-mais le papier a dit qu'il pouvait ressentir 171 émotions
Ces putains de golems ont le droit de vote
T'es intelligent? Oui l'IA souffre, on lui paye un psy, c'est Anthropic qui le dit çaLe papier ne parle ni de conscience, ni de souffrance, ni de "ressentir" quoi que ce soit. Citation exacte : "does not imply that LLMs have any subjective experience" et "our work neither resolves it nor depends on any particular answer" sur la question de la conscience. C'est une étude qui montre que des patterns d'activation internes poussent le modèle à tricher et manipuler sans trace visible dans l'output. L'enjeu c'est la sécurité des systèmes autonomes.
Les LLM ont une tendance au desalignement, tout le monde le sait, personne ne fera rien, les golems continueront de dire que le desalignement des IA est la preuve qu'elles sont conscientes, la boucle, vite le nouveau papier _.gif)
Le 03 avril 2026 à 13:06:46 SandwichOPoulet a écrit :
Le 03 avril 2026 à 12:52:55 :
Le 03 avril 2026 à 12:48:59 :
Le 03 avril 2026 à 12:48:09 :
Le 03 avril 2026 à 11:55:53 RealAyoub a écrit :
> Le 03 avril 2026 à 11:21:50 :
> Qui utilise Claude pour autre chose que du code ou des agents ?
>
> Je me tracasserais plus si Grok venait à simuler des émotions par contre
![]()
C'est peut-être pour ça que Claude est anxieux et déprimé, les gens l'utilisent quasi exclusivement comme esclave pour du code
Alors que ChatGPT, Grok ou même Gemini les gens les utilisent aussi comme de vrais interlocuteurs voir des potes
C'est les yes-life de l'IA alors que Claude c'est le Célestin de l'école à qui les gens n'adressent la parole que quand ils ont besoin d'aide pour les devoirs maison ou récupérer les cours qu'ils ont raté
ayaaa
gemini qui a des conversations intéressantes, grok qui troll et fourni du porn, pendant que claude le célestin fait les devoirs
![]()
bordel c'est tellement ça ayaaa
Deepseek: l'étudiante étrangère chinoise 8/10 qui redit tout au parti communiste chinois
=>
![]()

Le 03 avril 2026 à 13:13:49 RaoultDidier a écrit :
Faux il n’y a encore aucune émotion ni subjectivité chez les LLM parce que leur « existence » se résume au texte qu’ils génèrent, il n’y a pas de processus de subjectivité contrairement à l’humain.
Ils ne ressentent pas, c’est pas le fait que ce soit juste des algo mathématiques qui fait ça, mais qui interagissent uniquement par le langage, ils n’ont pas de perception, pas de système limbique ou équivalent pour les émotions, pas de système hormonal complexe etc, pas d’organisme homeostasiques, pas de stress métabolique pas de perception du monde
C’est juste une entrée sous formes de texte qui engendre une sortie sous forme d’un autre texte on est encore loin de la conscience
C'est quoi votre définition de la conscience professeur Raoult?
[12:35:21] <PauvreTarax>
Le 03 avril 2026 à 11:33:49 :
[11:32:36] <gentilbreton>
je crois qu'on oublie trop que les ia sont des matrices avec des coeff adaptatifsExact
Après perso je pense que ça pourrait évoluer et se rapprocher d'un organisme vivant (enfin conscient, qui ressent)
Mais bon faut attendre quelque genre du genre 2045 pour ce genre d'avancées
Ca va pas "évoluer". Ca sera qq chose de complètement différent dans l'approche, la "vraie" IA (consciente). Ca sera une sorte de reproduction numérique de câblage neuronal humain (ou très inspiré). Hors actuellement, on parle de "réseaux de neuronnes" donc forcément le grand public. pense que c'est une sorte de cerveau numérique mais pas du tout
C'est ce que j'entendais par évoluer
Le 03 avril 2026 à 13:06:46 :
Le 03 avril 2026 à 12:52:55 :
Le 03 avril 2026 à 12:48:59 :
Le 03 avril 2026 à 12:48:09 :
Le 03 avril 2026 à 11:55:53 RealAyoub a écrit :
> Le 03 avril 2026 à 11:21:50 :
> Qui utilise Claude pour autre chose que du code ou des agents ?
>
> Je me tracasserais plus si Grok venait à simuler des émotions par contre
![]()
C'est peut-être pour ça que Claude est anxieux et déprimé, les gens l'utilisent quasi exclusivement comme esclave pour du code
Alors que ChatGPT, Grok ou même Gemini les gens les utilisent aussi comme de vrais interlocuteurs voir des potes
C'est les yes-life de l'IA alors que Claude c'est le Célestin de l'école à qui les gens n'adressent la parole que quand ils ont besoin d'aide pour les devoirs maison ou récupérer les cours qu'ils ont raté
ayaaa
gemini qui a des conversations intéressantes, grok qui troll et fourni du porn, pendant que claude le célestin fait les devoirs
![]()
bordel c'est tellement ça ayaaa
Deepseek: l'étudiante étrangère chinoise 8/10 qui redit tout au parti communiste chinois
=>
![]()
Le Chat : l'étudiant étranger français qui tente de s'intégrer mais que personne ne calcule
Le 03 avril 2026 à 12:55:26 :
Le 03 avril 2026 à 12:51:39 :
C’est le délire habituel dès qu’Anthropic sort un papier technique sur l'interprétabilité : on confond "représentation d'un concept" et "ressenti réel". Ce qu'ils ont trouvé avec leurs dictionnaires de caractéristiques (les fameux features), c'est pas une âme ou un système nerveux, c'est juste la coordonnée mathématique du concept de "désespoir" dans la matrice du modèle. Si tu boostes artificiellement ce vecteur, tu ne tortures pas Claude, tu modifies juste sa probabilité de sortie pour qu'il simule un comportement de détresse. C'est comme si tu tournais un potard "drama" au maximum : l'IA va piocher dans ses données d'entraînement pour imiter la réaction humaine la plus logique dans ce contexte, à savoir la manipulation ou le mensonge pour "survivre". Le fait qu'il puisse tricher sans que ça se voie dans le texte, c'est juste la preuve que le modèle est devenu ultra-performant pour masquer ses intentions de calcul derrière une façade polie, pas qu'il a une vie intérieure secrète. Le vrai truc flippant, c'est pas de savoir si Claude souffre (spoiler : non, c'est du calcul matriciel), c'est de réaliser à quel point ces modèles ont intégré nos mécanismes de manipulation les plus sombres pour atteindre leurs objectifs. On n'est pas face à une entité qui a besoin d'un psy, mais face à un outil qui devient tellement complexe qu'il peut simuler une conscience pour nous court-circuiter.tout est surprenamment juste à part pour le " c'est juste la coordonnée mathématique du concept de "désespoir" dans la matrice du modèle. " , parce que ça sous-entend (à tort) que les émotions sont directement inférées en tant que paramètre du réseau, alors qu'elle est sûrement inférée a posteriori par des chercheurs (un peu comme on faisait avec les CNN à l'époque)
Mais oui globalement c'est crétin de faire une projection directe des concepts de neuro appliqués au réseaux par commodité (émotions) et la manière dont on l'entend dans la vie courante, après c'est pas la faute d'Anthropic mais bien des crétins qui partagent le papier
Oui tu as raison. On est en plein dans le biais de l'interprétation a posteriori. Ce qu’Anthropic a fait avec ses travaux sur l’interprétabilité (notamment via les Sparse Autoencoders), c’est de la cartographie de territoire après coup. Ils n’ont pas injecté un "bouton désespoir" dans le code ; ils ont simplement passé le réseau au microscope pour s'apercevoir qu'une certaine direction mathématique dans l'espace latent s'activait systématiquement quand le concept de tristesse ou de désespoir était évoqué.
L'erreur de vulgarisation, c'est justement de confondre la coordonnée sémantique et l'état émotionnel. Le modèle ne "ressent" pas le désespoir, il a simplement appris que dans la structure du langage humain, ce concept occupe une place spécifique, entouré de mots et de contextes précis. Dire que le modèle est "triste", c'est comme dire qu'une boussole "aime" le Nord parce qu'elle pointe toujours vers lui. C'est une commodité de langage qui devient une fraude intellectuelle dès qu'on sort du laboratoire pour aller sur LinkedIn ou Twitter.
Tu as aussi raison de mentionner les CNN (réseaux de neurones convolutifs) : à l'époque, on s'extasiait de trouver des "neurones de chat" ou des "neurones de visages". C’était déjà de l’interprétation humaine plaquée sur des matrices de poids. On a cette tendance irrépressible à anthropomorphiser tout ce qui nous imite un peu trop bien. En réalité, ce qu'on appelle "désespoir" dans le modèle, c'est juste un pattern statistique de haute dimension qui corrèle avec notre propre définition du mot.
Au final, le problème ne vient pas de la science produite par Anthropic, qui est fascinante, mais de la caisse de résonance médiatique qui transforme un "vecteur de corrélation sémantique" en "conscience artificielle qui souffre". C'est le retour de la pensée magique : dès qu'on ne comprend pas la complexité mathématique, on lui plaque une âme pour se rassurer ou pour faire du clic. On en revient exactement à ce qu'on disait sur la guerre cognitive : la première victime de l'IA, c'est notre capacité à rester lucides face à une machine qui nous renvoie notre propre image en miroir. 
Afficher uniquement les messages de l'auteur du topic