Topic de Jeaneudeeee :

Bordel l'IA progresse de plus en plus vite

Je sais pas si vous avez vu mais Anthropic a sortit OPUS 4.5 il y'a un mois, et le modèle est tellement bon que des devs top tiers ne codent quasiment plus :rire:

Google qui a atomisé OPENAI avec gemini 3, des modèles open source chinois qui pop de partout :rire:

On est probablement à l'aube d'une révolution sociétale jamais vu dans l'histoire bordel :rire:

Manquerait plus que les sociétés dans la robotique trouvent un moyen de donner une vision parfaite aux robots pour qu'ils s'adaptent en continu à leurs environnements et c'est 99% de chomage :rire:

Le 28 décembre 2025 à 21:57:52 :
Je suis inquiet

pourquoi ça khey ?

C'est pas 3 points en plus sur les benchmarks qui vont révolutionner la tech.

Les LLM stagnent, les vrais avancées ce sont surtout les modèles hyper légers comme Qwen3 4B ou 30B-A3B qui sont des monstres d'efficience :ok:

Le 28 décembre 2025 à 22:01:01 :
C'est pas 3 points en plus sur les benchmarks qui vont révolutionner la tech.

Les LLM stagnent, les vrais avancées ce sont surtout les modèles hyper légers comme Qwen3 4B ou 30B-A3B qui sont des monstres d'efficience :ok:

j'ai pas testé qwen, ça consomme beaucoup en local ?

Le 28 décembre 2025 à 22:02:55 :

Le 28 décembre 2025 à 22:01:01 :
C'est pas 3 points en plus sur les benchmarks qui vont révolutionner la tech.

Les LLM stagnent, les vrais avancées ce sont surtout les modèles hyper légers comme Qwen3 4B ou 30B-A3B qui sont des monstres d'efficience :ok:

j'ai pas testé qwen, ça consomme beaucoup en local ?

Le modèle 30B, le plus intéressant, dépasse largement de mes 32Go de VRAM en 8bits mais il peut facilement s'exécuter sur le CPU tant que t'as assez de RAM (32Go c'est le grand minimum).

Je déconseille d'investir pour exécuter des LLM en local nonobstant, une station vaut plus cher que plusieurs années d'abonnement auprès des meilleurs services.

Sinon y'a Qwen Max en illimité sur le site https://chat.qwen.ai/ d'ailleurs sur le site on peut tester d'autres modèles Qwen sans limite.

C'est aussi tellement facile à manipuler tellement c'est con, bisous à grok.
osef j'ai un métier d'homme :) ( pas remplaçable par un programme)
on va perdre nos travail du coup ? https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png
je croyais que c'était en train de s'effondrer à cause de l'histoire des ram https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

Le 28 décembre 2025 à 22:16:38 :
osef j'ai un métier d'homme :) ( pas remplaçable par un programme)

décris ton métier pour qu'on rigole un peu https://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png

Le 28 décembre 2025 à 22:15:21 :
C'est aussi tellement facile à manipuler tellement c'est con, bisous à grok.

Pour le coup c'est pas que grok, même si chez grok j'ai l'impression que c'est un peu voulu qu'on puisse lui faire dire ce qu'on veut :hap:

Caude c'est le futur. J'ai arrêté Chat GPT de lemgo.

Le 28 décembre 2025 à 22:17:09 :
on va perdre nos travail du coup ? https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png
je croyais que c'était en train de s'effondrer à cause de l'histoire des ram https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

Si toi t'as pas de RAM, c'est justement parceque les serveurs en ont :rire2:

Le 28 décembre 2025 à 22:16:38 :
osef j'ai un métier d'homme :) ( pas remplaçable par un programme)

Le dos ça va? :rire:

niveau performance ca stagne un peu depuis le début de l'année, là où j'attends de vraies avancées c'est quand on aura du 10 millions voir 100 millions de context window 100% fiable et pas une context window d'1 million annoncée comme gemini mais qui fait n'importe quoi au dela de 100k tokens :)
Des conneries, l ia est tjr pas capable de faire certaines taches htper simples realisables par des enfants
L'IA va provoquer la fin du monde et vous vous marrez
Opus 4.5 pour faire du RP c'est effrayant oui, t'as l'impression de parler à un vrai humain https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

Le 28 décembre 2025 à 22:18:56 :

Le 28 décembre 2025 à 22:17:09 :
on va perdre nos travail du coup ? https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png
je croyais que c'était en train de s'effondrer à cause de l'histoire des ram https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

Si toi t'as pas de RAM, c'est justement parceque les serveurs en ont :rire2:

c'est dégeulasse bordel https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

Données du topic

Auteur
Jeaneudeeee
Date de création
28 décembre 2025 à 21:56:58
Nb. messages archivés
101
Nb. messages JVC
101
Voir le topic sur JVC

Afficher uniquement les messages de l'auteur du topic

En ligne sur JvArchive

JvArchive compagnon

Découvrez JvArchive compagnon , l'userscript combattant la censure abusive sur le 18-25 !