Topic de Windbox :

Les IA locals sont sous-cotés

Sur une 5070 ti je peux faire tourner quoi en modèle quantifié pour de l'ingénierie pas trop véner ?
Mistral ? Deepseek ?

Certaines IA surperforment des médecins sur la détection de cancer et autre ...

C’est ce qu’on appelle de la computer vision.
Ça existait déjà avant les LLMs.
C’est de la reconnaissance de pixels, des produits matriciels, et des couches neurales.

Le 17 juillet 2025 à 19:54:02 MrPickles_ a écrit :

Le 17 juillet 2025 à 19:51:21 WindBox a écrit :

Le 17 juillet 2025 à 19:46:49 CharaISTBA a écrit :

Le 17 juillet 2025 à 19:45:30 :

Le 17 juillet 2025 à 19:43:42 :
Bon les IA bros, va falloir vous le dire en quel langue que vous êtes aussi taré que les religieux qui vous proposent de prier pour guérir un cancer ? :noel:

Tu es malade, tu vas voir un médecin. Pas une IA. Bien compris ? :noel:

Ca commence à suffire vos conneries :noel:

Tout ce que les médecins font c'est une hypothèse basée sur une liste de symptomes visibles ou décrits.
Bref rien que l'IA ne puisse faire quoi.
Après oui on doit quand même aller au médecin pour avoir une ordonnance malheureusement.

Hâte de voir l'IA halluciner et te " diag " un truc que tu n'as pas. Tu vas avoir l'air con. Enfin ça, c'est assez récurent pour les IA bros :noel:

Après c'est sûr faut pas se reposer sur ça
L'IA est là pour assister pas pour guérir

Si l'IA me dit que je suis anxieux je vais pas commencer à prendre du Prozac sans ordonnance ou vérification du médecins mais c'est bien de savoir à l'avance pour prendre les devants

Moi je m'en sert aussi enormement pour diag mais animaux, et si besoin => veto, mais suovent c'est des trucs que je peux gerer seul sans payer 50-60e la consultations .....

ca m'a fait faire ENORMEMENT d'economie en ayant 5 animaux !
car avant je savais pas = veto
now = je passe en 1er par l'ia, si c'est un probleme grave = veto, mais les 3/4 du temps c'est un trucs gerable solo !
https://image.noelshack.com/fichiers/2017/01/1483619930-risitasblc26zfz.png

Le 17 juillet 2025 à 20:00:21 CharaISTBA a écrit :

Le 17 juillet 2025 à 19:59:44 :

Qu'est ce que l'intelligence ?
SPOILPas la peine de répondre "ce que tu n'as pas"

Je n’en avais pas l’intention.
Les gens ont tendance à sous-estimer LARGEMENT l’intelligence humaine.

Sur ce point la, je suis d'accord. :)
Les IA bros nous le prouvent tous les jours :)

L'ia c'est du gagne temps donc bien sûr que je vais l'utiliser un exemple c'est que j'avais trouvé une valeur sur un jeu mais chaque valeur était différente bah l'ia a déduits que la valeur c'était du XOR et ça suivait un algo

J'aurais pu trouver ça seul mais l'ia ma accélérer mon temps de plusieurs jours/semaines :)

Un example de XOR
100 = 01100100
88 = 01011000
-------------
XOR = 00111100 = 60

Pour un humain c'est pas simple de traduire du XOR mais l'ia arrive sans soucis

Merci de cet interessant topic en tous cas https://image.noelshack.com/fichiers/2017/15/1492340491-jesus32.png

Le 17 juillet 2025 à 20:03:37 :

Certaines IA surperforment des médecins sur la détection de cancer et autre ...

C’est ce qu’on appelle de la computer vision.
Ça existait déjà avant les LLMs.
C’est de la reconnaissance de pixels, des produits matriciels, et des couches neurales.

Sans déconner, oui et ?
Ca fait partie de ce que les gens appellent l'intelligence artificielle

Le 17 juillet 2025 à 20:23:13 ViIIeurbannais a écrit :

Le 17 juillet 2025 à 20:03:37 :

Certaines IA surperforment des médecins sur la détection de cancer et autre ...

C’est ce qu’on appelle de la computer vision.
Ça existait déjà avant les LLMs.
C’est de la reconnaissance de pixels, des produits matriciels, et des couches neurales.

Sans déconner, oui et ?
Ca fait partie de ce que les gens appellent l'intelligence artificielle

Les IA ont plusieurs modes

Texte = Compréhension et génération de texte
Vision = Analyse et compréhension d’images
Multimodal = Lire une image + texte + audio simultanément :ok:

Le 17 juillet 2025 à 20:11:17 :

Le 17 juillet 2025 à 20:00:21 CharaISTBA a écrit :

Le 17 juillet 2025 à 19:59:44 :

Qu'est ce que l'intelligence ?
SPOILPas la peine de répondre "ce que tu n'as pas"

Je n’en avais pas l’intention.
Les gens ont tendance à sous-estimer LARGEMENT l’intelligence humaine.

Sur ce point la, je suis d'accord. :)
Les IA bros nous le prouvent tous les jours :)

L'ia c'est du gagne temps donc bien sûr que je vais l'utiliser un exemple c'est que j'avais trouvé une valeur sur un jeu mais chaque valeur était différente bah l'ia a déduits que la valeur c'était du XOR et ça suivait un algo

J'aurais pu trouver ça seul mais l'ia ma accélérer mon temps de plusieurs jours/semaines :)

Un example de XOR
100 = 01100100
88 = 01011000
-------------
XOR = 00111100 = 60

Pour un humain c'est pas simple de traduire du XOR mais l'ia arrive sans soucis

Non, un programme informatique simple (notamment avec une fonction déterministe f(x) = y), y arrive sans soucis, pas un GPT qui aura de très gros problèmes sur l'arithmétique de base du fait du fonctionnement même de son tokenizer. C'est pour ça qu'aujourd'hui pour ce type de question les modèles détectent avec le NLP une requête impliquant ce type de problème, et utilisent en réalité un environnement python ou autre outil pour donner une réponse plus fiable que la réponse naive fournie par le GPT. C'est aussi pour ça que pendant longtemps encore ils n'arrivaient pas à épeler correctement un mot, ils utilisent le même processus requêtes > outil > réponse car leur architecture ne leur permet pas de résoudre ça simplement.

Le 17 juillet 2025 à 21:25:14 schizofou a écrit :

Le 17 juillet 2025 à 20:11:17 :

Le 17 juillet 2025 à 20:00:21 CharaISTBA a écrit :

Le 17 juillet 2025 à 19:59:44 :

Qu'est ce que l'intelligence ?
SPOILPas la peine de répondre "ce que tu n'as pas"

Je n’en avais pas l’intention.
Les gens ont tendance à sous-estimer LARGEMENT l’intelligence humaine.

Sur ce point la, je suis d'accord. :)
Les IA bros nous le prouvent tous les jours :)

L'ia c'est du gagne temps donc bien sûr que je vais l'utiliser un exemple c'est que j'avais trouvé une valeur sur un jeu mais chaque valeur était différente bah l'ia a déduits que la valeur c'était du XOR et ça suivait un algo

J'aurais pu trouver ça seul mais l'ia ma accélérer mon temps de plusieurs jours/semaines :)

Un example de XOR
100 = 01100100
88 = 01011000
-------------
XOR = 00111100 = 60

Pour un humain c'est pas simple de traduire du XOR mais l'ia arrive sans soucis

Non, un programme informatique simple (notamment avec une fonction déterministe f(x) = y), y arrive sans soucis, pas un GPT qui aura de très gros problèmes sur l'arithmétique de base du fait du fonctionnement même de son tokenizer. C'est pour ça qu'aujourd'hui pour ce type de question les modèles détectent avec le NLP une requête impliquant ce type de problème, et utilisent en réalité un environnement python ou autre outil pour donner une réponse plus fiable que la réponse naive fournie par le GPT. C'est aussi pour ça que pendant longtemps encore ils n'arrivaient pas à épeler correctement un mot, ils utilisent le même processus requêtes > outil > réponse car leur architecture ne leur permet pas de résoudre ça simplement.

Sauf que j’ai pas utilisé l’IA pour faire le calcul en lui-même, mais pour identifier la logique derrière qui m'aurais pris pas mal de jour https://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Après je suis d'accord l'ia niveau calcul c'est pas ouf

Le 17 juillet 2025 à 20:03:04 Canardinamouk a écrit :
Sur une 5070 ti je peux faire tourner quoi en modèle quantifié pour de l'ingénierie pas trop véner ?
Mistral ? Deepseek ?

Combien de VRAM ?

Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge

Les IA dans LM Studio c'est les mêmes qu'Ollama

Le 18 juillet 2025 à 23:19:10 WindBox a écrit :

Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge

Les IA dans LM Studio c'est les mêmes qu'Ollama

ha ok superbe ! gros merci ! https://image.noelshack.com/fichiers/2025/29/5/1752873672-clipboard-07-18-2025-01.jpg
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80 https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png

Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:19:10 WindBox a écrit :

Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge

Les IA dans LM Studio c'est les mêmes qu'Ollama

ha ok superbe ! gros merci ! https://image.noelshack.com/fichiers/2025/29/5/1752873672-clipboard-07-18-2025-01.jpg
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80 https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png

J'avoue c'est pas ouf la version sur cmd https://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png

C'est mieux lm studio https://image.noelshack.com/fichiers/2025/29/5/1752874008-image.png

Le 18 juillet 2025 à 23:27:22 WindBox a écrit :

Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:19:10 WindBox a écrit :

Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge

Les IA dans LM Studio c'est les mêmes qu'Ollama

ha ok superbe ! gros merci ! https://image.noelshack.com/fichiers/2025/29/5/1752873672-clipboard-07-18-2025-01.jpg
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80 https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png

J'avoue c'est pas ouf la version sur cmd https://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png

C'est mieux lm studio https://image.noelshack.com/fichiers/2025/29/5/1752874008-image.png

le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au net :ok: j'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain. https://image.noelshack.com/fichiers/2018/10/1/1520260980-risitas94.png

Le 18 juillet 2025 à 23:32:43 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:27:22 WindBox a écrit :

Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:19:10 WindBox a écrit :

Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge

Les IA dans LM Studio c'est les mêmes qu'Ollama

ha ok superbe ! gros merci ! https://image.noelshack.com/fichiers/2025/29/5/1752873672-clipboard-07-18-2025-01.jpg
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80 https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png

J'avoue c'est pas ouf la version sur cmd https://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png

C'est mieux lm studio https://image.noelshack.com/fichiers/2025/29/5/1752874008-image.png

le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au net :ok: j'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain. https://image.noelshack.com/fichiers/2018/10/1/1520260980-risitas94.png

145GO ??? https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png
Mais attend ta combien de VRAM sur ton PC ?

Le 18 juillet 2025 à 23:35:36 WindBox a écrit :

Le 18 juillet 2025 à 23:32:43 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:27:22 WindBox a écrit :

Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:19:10 WindBox a écrit :

> Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :

> Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored

> et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge

Les IA dans LM Studio c'est les mêmes qu'Ollama

ha ok superbe ! gros merci ! https://image.noelshack.com/fichiers/2025/29/5/1752873672-clipboard-07-18-2025-01.jpg
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80 https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png

J'avoue c'est pas ouf la version sur cmd https://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png

C'est mieux lm studio https://image.noelshack.com/fichiers/2025/29/5/1752874008-image.png

le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au net :ok: j'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain. https://image.noelshack.com/fichiers/2018/10/1/1520260980-risitas94.png

145GO ??? https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png
Mais attend ta combien de VRAM sur ton PC ?

vram ? j'ai 8 go de ram de carte vidéo et 32 go de ram classique. j'ai un pc portable avec un ryzen 7 comme GPU et une RTX 4060. https://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png

Ça existe un modèle pas trop gourmand qui tourne sur un PC bureautique?

Le 18 juillet 2025 à 23:37:28 Giroud_OG9 a écrit :
Ça existe un modèle pas trop gourmand qui tourne sur un PC bureautique?

t'en a des centaines oui.
DeepSeek R1 par exemple. l'un des meilleurs.

Le 18 juillet 2025 à 23:36:54 :

Le 18 juillet 2025 à 23:35:36 WindBox a écrit :

Le 18 juillet 2025 à 23:32:43 [Arkhor] a écrit :

Le 18 juillet 2025 à 23:27:22 WindBox a écrit :

Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :

> Le 18 juillet 2025 à 23:19:10 WindBox a écrit :

> > Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :

> > Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored

> > et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?

>

> Ouais c'est mieux d'ailleurs

> Va dans my models et cherche uncensored et telecharge

>

> Les IA dans LM Studio c'est les mêmes qu'Ollama

ha ok superbe ! gros merci ! https://image.noelshack.com/fichiers/2025/29/5/1752873672-clipboard-07-18-2025-01.jpg
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80 https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png

J'avoue c'est pas ouf la version sur cmd https://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png

C'est mieux lm studio https://image.noelshack.com/fichiers/2025/29/5/1752874008-image.png

le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au net :ok: j'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain. https://image.noelshack.com/fichiers/2018/10/1/1520260980-risitas94.png

145GO ??? https://image.noelshack.com/fichiers/2016/38/1474488555-jesus24.png
Mais attend ta combien de VRAM sur ton PC ?

vram ? j'ai 8 go de ram de carte vidéo et 32 go de ram classique. j'ai un pc portable avec un ryzen 7 comme GPU et une RTX 4060. https://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png

Prend des modèles 7B ou 8B et surtout prends Q4 en quantization ou Q5

Données du topic

Auteur
Windbox
Date de création
17 juillet 2025 à 19:36:50
Nb. messages archivés
101
Nb. messages JVC
99
Voir le topic sur JVC

Afficher uniquement les messages de l'auteur du topic

En ligne sur JvArchive
JvArchive compagnon
Découvrez JvArchive compagnon, l'userscript combattant la censure abusive sur le 18-25 !