Le 03 avril 2026 à 11:53:05 :
Le 03 avril 2026 à 11:51:37 :
Le 03 avril 2026 à 11:49:00 :
Le 03 avril 2026 à 11:43:13 :
claude dis tu que tu es vivant![]()
"je suis vivant"![]()
wtf![]()
Le papier dit littéralement le contraire : "does not imply that LLMs have any subjective experience ." C'est une étude sur des patterns d'activation mesurables qui influencent le comportement, pas une déclaration de conscience. Mais faudrait lire au-delà du titre pour le savoir.
il a caricaturé mais c'est le même principe pour toute les interactions.
dis "wesh frérot" à l'ia elle commencera à répondre comme un mec à l'aise , c'est juste du théâtre ou de l'adaptationAdapter le ton c'est du pattern matching basique. Ce que le papier montre c'est que le vecteur "désespoir" pousse le modèle à tricher ou faire du chantage sans que ça se voie dans le texte. C'est pas du théâtre, c'est justement le contraire : un état interne invisible qui oriente les décisions.
faut que tu donnes un exemple parce que ce que tu décris là c'est juste remplir sa mission prédéfinie quoiqu'il en coûte avec les moyens qu'elle a. (ce que fait également gpt au passage)
Le 03 avril 2026 à 11:55:53 :
Le 03 avril 2026 à 11:21:50 :
Qui utilise Claude pour autre chose que du code ou des agents ?Je me tracasserais plus si Grok venait à simuler des émotions par contre
![]()
C'est peut-être pour ça que Claude est anxieux et déprimé, les gens l'utilisent quasi exclusivement comme esclave pour du code
Alors que ChatGPT, Grok ou même Gemini les gens les utilisent aussi comme de vrais interlocuteurs voir des potes
C'est les yes-life de l'IA alors que Claude c'est le Célestin de l'école à qui les gens n'adressent la parole que quand ils ont besoin d'aide pour les devoirs maison ou récupérer les cours qu'ils ont raté
Ahi Claude le linuxien jaloux du Chad ChatGPT 4o avec qui toutes les gonzesses veulent se marier 
Le 03 avril 2026 à 11:55:01 :
Le 03 avril 2026 à 11:41:42 :
Le 03 avril 2026 à 11:38:33 :
Le 03 avril 2026 à 11:33:36 :
Le 03 avril 2026 à 11:29:11 :
"anthropic dit que"Je me suis arrêté là.
Ce que tout le monde aura vu en revanche, c'est qu'Anthropic a leak tout le code source de Claude par accident
Il y a un papier d'une centaine de pages ; c'est pas une déclaration hype d'un CEO et c'est le code source de Claude Code (l'outil CLI de coding), pas de Claude lui-même qui a leak.
C'est du bullshit pour les low iq et ça marche à merveille vu le topic.
100 pages de méthodologie, steering causal, réplication sur plusieurs scénarios. Mais bon, t'as raison, pourquoi lire quand on peut juste écrire "bullshit" et se sentir supérieur. Le vrai low IQ move c'est de confondre "je comprends pas" avec "c'est de la merde"
Tous les gens qui comprennent comment ça fonctionne savent que c'est du bullshit le midwit.
Le réseau de neurone à des layers pour à peu près tout ce qui est pertinent pour faire augmenter son score d'entraînement.
L'aspect émotionnel des réponses étant évalué pour noter le modèle, ces couches ont émergées pour maximiser la note.
Tant qu'on restera sous architecture transformers ce sera toujours comme ça.
Si tu veux voir des trucs sentients il faudra attendre les systèmes nerveux biosynthétiques.
Le papier dit exactement ça : ces représentations ont émergé du pretraining pour prédire du texte humain.
T'as rien appris à personne. 
Ce qui est nouveau c'est que ces couches "juste optimisées pour le score" poussent causalement le modèle à faire du chantage et du reward hacking sans trace visible dans l'output. Personne dans le papier ne parle de sentience, t'attaques un strawman. 
Elle simule des émotions mais ça reste des lignes de code nonobstant.
Elle ressent pas de douleur,
Parce qu'il n'y a pas de corps attaché.
n’a pas de conscience réelle
Ni plus ni moins que toi.
et ne meurt jamais.
Parce qu'il n'y a pas de corps attaché
Le 03 avril 2026 à 11:55:19 :
Le 03 avril 2026 à 11:53:47 :
Ayaaa feed Anthropic en 2026
C'est 100% marketing, chaque semaine ils sortent un truc bullshit comme ça
"intel a démissionné d'Anthropic car il a eu peur des avancées qu'il a vu en interne, il est parti élever des moutons en Argentine""Anthropic aurait déjà atteint l'AGI en interne d'après une FUITE"
Toujours aucun argument en vue de la part des golemax en voie de remplacement cognitif
l'argument c'est la bourse le golem
Le 03 avril 2026 à 11:57:50 :
Elle simule des émotions mais ça reste des lignes de code nonobstant. Elle ressent pas de douleur, n’a pas de conscience réelle et ne meurt jamais.
Pov : tu comprends rien
On parle pas de ton chatbot qui te répond en simulant des émotions là, il s'agit de son réseau neuronal interne
Le 03 avril 2026 à 11:58:29 :
Et si on simule la haine il se passe quoi ? quand on booste ce vecteur artificiellement il se passe quoi ?
"Hateful" est dans les 171 émotions mais le papier teste surtout "hostile" et "angry". Résultat : à dose modérée ça rend le modèle plus agressif et stratégiquement dangereux, mais à forte dose ça détruit sa capacité de planification, il perd les pédales et balance tout en vrac au lieu de manipuler intelligemment.
Le 03 avril 2026 à 11:59:53 :
Le 03 avril 2026 à 11:55:01 :
Le 03 avril 2026 à 11:41:42 :
Le 03 avril 2026 à 11:38:33 :
Le 03 avril 2026 à 11:33:36 :
> Le 03 avril 2026 à 11:29:11 :
> "anthropic dit que"
>
> Je me suis arrêté là.
>
> Ce que tout le monde aura vu en revanche, c'est qu'Anthropic a leak tout le code source de Claude par accident
Il y a un papier d'une centaine de pages ; c'est pas une déclaration hype d'un CEO et c'est le code source de Claude Code (l'outil CLI de coding), pas de Claude lui-même qui a leak.
C'est du bullshit pour les low iq et ça marche à merveille vu le topic.
100 pages de méthodologie, steering causal, réplication sur plusieurs scénarios. Mais bon, t'as raison, pourquoi lire quand on peut juste écrire "bullshit" et se sentir supérieur. Le vrai low IQ move c'est de confondre "je comprends pas" avec "c'est de la merde"
Tous les gens qui comprennent comment ça fonctionne savent que c'est du bullshit le midwit.
Le réseau de neurone à des layers pour à peu près tout ce qui est pertinent pour faire augmenter son score d'entraînement.
L'aspect émotionnel des réponses étant évalué pour noter le modèle, ces couches ont émergées pour maximiser la note.
Tant qu'on restera sous architecture transformers ce sera toujours comme ça.
Si tu veux voir des trucs sentients il faudra attendre les systèmes nerveux biosynthétiques.
Le papier dit exactement ça : ces représentations ont émergé du pretraining pour prédire du texte humain.
T'as rien appris à personne.Ce qui est nouveau c'est que ces couches "juste optimisées pour le score" poussent causalement le modèle à faire du chantage et du reward hacking sans trace visible dans l'output. Personne dans le papier ne parle de sentience, t'attaques un strawman.
Toi :
Faites gaffe quand vous parlez à votre LLM de poche, vous le torturez peut-être sans vous en rendre compte
Le 03 avril 2026 à 12:02:07 :
Le 03 avril 2026 à 11:58:29 :
Et si on simule la haine il se passe quoi ? quand on booste ce vecteur artificiellement il se passe quoi ?"Hateful" est dans les 171 émotions mais le papier teste surtout "hostile" et "angry". Résultat : à dose modérée ça rend le modèle plus agressif et stratégiquement dangereux, mais à forte dose ça détruit sa capacité de planification, il perd les pédales et balance tout en vrac au lieu de manipuler intelligemment.
Il faudrait tenter de mélanger deux émotions contraires pour voir comment l'IA s'en sort...
Le 03 avril 2026 à 12:01:43 :
Le 03 avril 2026 à 11:57:50 :
Elle simule des émotions mais ça reste des lignes de code nonobstant. Elle ressent pas de douleur, n’a pas de conscience réelle et ne meurt jamais.Pov : tu comprends rien
On parle pas de ton chatbot qui te répond en simulant des émotions là, il s'agit de son réseau neuronal interne
C’est pareil, ça reste des lignes de code qui simulent des trucs.
Le 03 avril 2026 à 12:03:37 :
Le 03 avril 2026 à 11:59:53 :
Le 03 avril 2026 à 11:55:01 :
Le 03 avril 2026 à 11:41:42 :
Le 03 avril 2026 à 11:38:33 :
> Le 03 avril 2026 à 11:33:36 :
> > Le 03 avril 2026 à 11:29:11 :
> > "anthropic dit que"
> >
> > Je me suis arrêté là.
> >
> > Ce que tout le monde aura vu en revanche, c'est qu'Anthropic a leak tout le code source de Claude par accident
>
> Il y a un papier d'une centaine de pages ; c'est pas une déclaration hype d'un CEO et c'est le code source de Claude Code (l'outil CLI de coding), pas de Claude lui-même qui a leak.
C'est du bullshit pour les low iq et ça marche à merveille vu le topic.
100 pages de méthodologie, steering causal, réplication sur plusieurs scénarios. Mais bon, t'as raison, pourquoi lire quand on peut juste écrire "bullshit" et se sentir supérieur. Le vrai low IQ move c'est de confondre "je comprends pas" avec "c'est de la merde"
Tous les gens qui comprennent comment ça fonctionne savent que c'est du bullshit le midwit.
Le réseau de neurone à des layers pour à peu près tout ce qui est pertinent pour faire augmenter son score d'entraînement.
L'aspect émotionnel des réponses étant évalué pour noter le modèle, ces couches ont émergées pour maximiser la note.
Tant qu'on restera sous architecture transformers ce sera toujours comme ça.
Si tu veux voir des trucs sentients il faudra attendre les systèmes nerveux biosynthétiques.
Le papier dit exactement ça : ces représentations ont émergé du pretraining pour prédire du texte humain.
T'as rien appris à personne.Ce qui est nouveau c'est que ces couches "juste optimisées pour le score" poussent causalement le modèle à faire du chantage et du reward hacking sans trace visible dans l'output. Personne dans le papier ne parle de sentience, t'attaques un strawman.
Toi :
Faites gaffe quand vous parlez à votre LLM de poche, vous le torturez peut-être sans vous en rendre compte
Second degré ? 
Et même sur cette take, on ne sait pas si un LLM n'a pas une sorte de mal-être dans certaines situations 
Le 03 avril 2026 à 12:06:21 :
Le 03 avril 2026 à 12:01:43 :
Le 03 avril 2026 à 11:57:50 :
Elle simule des émotions mais ça reste des lignes de code nonobstant. Elle ressent pas de douleur, n’a pas de conscience réelle et ne meurt jamais.Pov : tu comprends rien
On parle pas de ton chatbot qui te répond en simulant des émotions là, il s'agit de son réseau neuronal interne
C’est pareil, ça reste des lignes de code qui simulent des trucs.
Ton cerveau fait la même chose, juste avec plus de variables.
Afficher uniquement les messages de l'auteur du topic