Certaines IA surperforment des médecins sur la détection de cancer et autre ...
C’est ce qu’on appelle de la computer vision.
Ça existait déjà avant les LLMs.
C’est de la reconnaissance de pixels, des produits matriciels, et des couches neurales.
Le 17 juillet 2025 à 19:54:02 MrPickles_ a écrit :
Le 17 juillet 2025 à 19:51:21 WindBox a écrit :
Le 17 juillet 2025 à 19:46:49 CharaISTBA a écrit :
Le 17 juillet 2025 à 19:45:30 :
Le 17 juillet 2025 à 19:43:42 :
Bon les IA bros, va falloir vous le dire en quel langue que vous êtes aussi taré que les religieux qui vous proposent de prier pour guérir un cancer ?Tu es malade, tu vas voir un médecin. Pas une IA. Bien compris ?
Ca commence à suffire vos conneries
Tout ce que les médecins font c'est une hypothèse basée sur une liste de symptomes visibles ou décrits.
Bref rien que l'IA ne puisse faire quoi.
Après oui on doit quand même aller au médecin pour avoir une ordonnance malheureusement.Hâte de voir l'IA halluciner et te " diag " un truc que tu n'as pas. Tu vas avoir l'air con. Enfin ça, c'est assez récurent pour les IA bros
Après c'est sûr faut pas se reposer sur ça
L'IA est là pour assister pas pour guérirSi l'IA me dit que je suis anxieux je vais pas commencer à prendre du Prozac sans ordonnance ou vérification du médecins mais c'est bien de savoir à l'avance pour prendre les devants
Moi je m'en sert aussi enormement pour diag mais animaux, et si besoin => veto, mais suovent c'est des trucs que je peux gerer seul sans payer 50-60e la consultations .....
ca m'a fait faire ENORMEMENT d'economie en ayant 5 animaux !
car avant je savais pas = veto
now = je passe en 1er par l'ia, si c'est un probleme grave = veto, mais les 3/4 du temps c'est un trucs gerable solo !
Le 17 juillet 2025 à 20:00:21 CharaISTBA a écrit :
Le 17 juillet 2025 à 19:59:44 :
Qu'est ce que l'intelligence ?
SPOILPas la peine de répondre "ce que tu n'as pas"Je n’en avais pas l’intention.
Les gens ont tendance à sous-estimer LARGEMENT l’intelligence humaine.Sur ce point la, je suis d'accord.
Les IA bros nous le prouvent tous les jours
L'ia c'est du gagne temps donc bien sûr que je vais l'utiliser un exemple c'est que j'avais trouvé une valeur sur un jeu mais chaque valeur était différente bah l'ia a déduits que la valeur c'était du XOR et ça suivait un algo
J'aurais pu trouver ça seul mais l'ia ma accélérer mon temps de plusieurs jours/semaines _.gif)
Un example de XOR
100 = 01100100
88 = 01011000
-------------
XOR = 00111100 = 60
Pour un humain c'est pas simple de traduire du XOR mais l'ia arrive sans soucis
Le 17 juillet 2025 à 20:03:37 :
Certaines IA surperforment des médecins sur la détection de cancer et autre ...
C’est ce qu’on appelle de la computer vision.
Ça existait déjà avant les LLMs.
C’est de la reconnaissance de pixels, des produits matriciels, et des couches neurales.
Sans déconner, oui et ?
Ca fait partie de ce que les gens appellent l'intelligence artificielle
Le 17 juillet 2025 à 20:23:13 ViIIeurbannais a écrit :
Le 17 juillet 2025 à 20:03:37 :
Certaines IA surperforment des médecins sur la détection de cancer et autre ...
C’est ce qu’on appelle de la computer vision.
Ça existait déjà avant les LLMs.
C’est de la reconnaissance de pixels, des produits matriciels, et des couches neurales.Sans déconner, oui et ?
Ca fait partie de ce que les gens appellent l'intelligence artificielle
Les IA ont plusieurs modes
Texte = Compréhension et génération de texte
Vision = Analyse et compréhension d’images
Multimodal = Lire une image + texte + audio simultanément 
Le 17 juillet 2025 à 20:11:17 :
Le 17 juillet 2025 à 20:00:21 CharaISTBA a écrit :
Le 17 juillet 2025 à 19:59:44 :
Qu'est ce que l'intelligence ?
SPOILPas la peine de répondre "ce que tu n'as pas"Je n’en avais pas l’intention.
Les gens ont tendance à sous-estimer LARGEMENT l’intelligence humaine.Sur ce point la, je suis d'accord.
Les IA bros nous le prouvent tous les joursL'ia c'est du gagne temps donc bien sûr que je vais l'utiliser un exemple c'est que j'avais trouvé une valeur sur un jeu mais chaque valeur était différente bah l'ia a déduits que la valeur c'était du XOR et ça suivait un algo
J'aurais pu trouver ça seul mais l'ia ma accélérer mon temps de plusieurs jours/semaines
Un example de XOR
100 = 01100100
88 = 01011000
-------------
XOR = 00111100 = 60Pour un humain c'est pas simple de traduire du XOR mais l'ia arrive sans soucis
Non, un programme informatique simple (notamment avec une fonction déterministe f(x) = y), y arrive sans soucis, pas un GPT qui aura de très gros problèmes sur l'arithmétique de base du fait du fonctionnement même de son tokenizer. C'est pour ça qu'aujourd'hui pour ce type de question les modèles détectent avec le NLP une requête impliquant ce type de problème, et utilisent en réalité un environnement python ou autre outil pour donner une réponse plus fiable que la réponse naive fournie par le GPT. C'est aussi pour ça que pendant longtemps encore ils n'arrivaient pas à épeler correctement un mot, ils utilisent le même processus requêtes > outil > réponse car leur architecture ne leur permet pas de résoudre ça simplement.
Le 17 juillet 2025 à 21:25:14 schizofou a écrit :
Le 17 juillet 2025 à 20:11:17 :
Le 17 juillet 2025 à 20:00:21 CharaISTBA a écrit :
Le 17 juillet 2025 à 19:59:44 :
Qu'est ce que l'intelligence ?
SPOILPas la peine de répondre "ce que tu n'as pas"Je n’en avais pas l’intention.
Les gens ont tendance à sous-estimer LARGEMENT l’intelligence humaine.Sur ce point la, je suis d'accord.
Les IA bros nous le prouvent tous les joursL'ia c'est du gagne temps donc bien sûr que je vais l'utiliser un exemple c'est que j'avais trouvé une valeur sur un jeu mais chaque valeur était différente bah l'ia a déduits que la valeur c'était du XOR et ça suivait un algo
J'aurais pu trouver ça seul mais l'ia ma accélérer mon temps de plusieurs jours/semaines
Un example de XOR
100 = 01100100
88 = 01011000
-------------
XOR = 00111100 = 60Pour un humain c'est pas simple de traduire du XOR mais l'ia arrive sans soucis
Non, un programme informatique simple (notamment avec une fonction déterministe f(x) = y), y arrive sans soucis, pas un GPT qui aura de très gros problèmes sur l'arithmétique de base du fait du fonctionnement même de son tokenizer. C'est pour ça qu'aujourd'hui pour ce type de question les modèles détectent avec le NLP une requête impliquant ce type de problème, et utilisent en réalité un environnement python ou autre outil pour donner une réponse plus fiable que la réponse naive fournie par le GPT. C'est aussi pour ça que pendant longtemps encore ils n'arrivaient pas à épeler correctement un mot, ils utilisent le même processus requêtes > outil > réponse car leur architecture ne leur permet pas de résoudre ça simplement.
Sauf que j’ai pas utilisé l’IA pour faire le calcul en lui-même, mais pour identifier la logique derrière qui m'aurais pris pas mal de jour
Après je suis d'accord l'ia niveau calcul c'est pas ouf
Le 17 juillet 2025 à 20:03:04 Canardinamouk a écrit :
Sur une 5070 ti je peux faire tourner quoi en modèle quantifié pour de l'ingénierie pas trop véner ?
Mistral ? Deepseek ?
Combien de VRAM ?
Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?
Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telecharge
Les IA dans LM Studio c'est les mêmes qu'Ollama
Le 18 juillet 2025 à 23:19:10 WindBox a écrit :
Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telechargeLes IA dans LM Studio c'est les mêmes qu'Ollama
ha ok superbe ! gros merci !
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80
Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:19:10 WindBox a écrit :
Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telechargeLes IA dans LM Studio c'est les mêmes qu'Ollama
ha ok superbe ! gros merci !
![]()
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80![]()
Le 18 juillet 2025 à 23:27:22 WindBox a écrit :
Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:19:10 WindBox a écrit :
Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telechargeLes IA dans LM Studio c'est les mêmes qu'Ollama
ha ok superbe ! gros merci !
![]()
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80![]()
le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au net
j'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain.
Le 18 juillet 2025 à 23:32:43 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:27:22 WindBox a écrit :
Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:19:10 WindBox a écrit :
Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telechargeLes IA dans LM Studio c'est les mêmes qu'Ollama
ha ok superbe ! gros merci !
![]()
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80![]()
le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au netj'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain.
![]()
Le 18 juillet 2025 à 23:35:36 WindBox a écrit :
Le 18 juillet 2025 à 23:32:43 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:27:22 WindBox a écrit :
Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:19:10 WindBox a écrit :
> Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
> Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
> et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?
Ouais c'est mieux d'ailleurs
Va dans my models et cherche uncensored et telechargeLes IA dans LM Studio c'est les mêmes qu'Ollama
ha ok superbe ! gros merci !
![]()
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80![]()
le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au netj'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain.
![]()
vram ? j'ai 8 go de ram de carte vidéo et 32 go de ram classique. j'ai un pc portable avec un ryzen 7 comme GPU et une RTX 4060.
Le 18 juillet 2025 à 23:37:28 Giroud_OG9 a écrit :
Ça existe un modèle pas trop gourmand qui tourne sur un PC bureautique?
t'en a des centaines oui.
DeepSeek R1 par exemple. l'un des meilleurs.
Le 18 juillet 2025 à 23:36:54 :
Le 18 juillet 2025 à 23:35:36 WindBox a écrit :
Le 18 juillet 2025 à 23:32:43 [Arkhor] a écrit :
Le 18 juillet 2025 à 23:27:22 WindBox a écrit :
Le 18 juillet 2025 à 23:22:28 [Arkhor] a écrit :
> Le 18 juillet 2025 à 23:19:10 WindBox a écrit :
> > Le 18 juillet 2025 à 21:04:16 [Arkhor] a écrit :
> > Savez vous si on peu télécharger individuellement ces models d'IA ici : https://ollama.com/search?q=uncensored
> > et les intégrés a LM studio, un connurent plus intuitif et accessible que Ollama pour lancer des IA en local ?
>
> Ouais c'est mieux d'ailleurs
> Va dans my models et cherche uncensored et telecharge
>
> Les IA dans LM Studio c'est les mêmes qu'Ollama
ha ok superbe ! gros merci !
![]()
Car je te cache pas que ça me gonflé de devoir lancer l'invite de commande windows avec Ollama comme sur MS dos dans les années 80![]()
le pire c'est que tu install l'exe Ollama sur windows, a la fin, t'a une icône proche de l'horloge windows, le logiciel est lancé... mais plus d'infos... tu sais plus quoi faire... j'ai du voir sur google qu'il faut aller sur la commande CMD windows.... c'est des pros linux qui on fait le minimum syndicale ça !
Encore merci pour ce beau topic, c'est nettement mieux d'avoir une IA autonome sans connexion au netj'ai télécharger deepseek 2.5 pour 145 go, mais le temps de fou pour le charger. je verrais ça demain.
![]()
vram ? j'ai 8 go de ram de carte vidéo et 32 go de ram classique. j'ai un pc portable avec un ryzen 7 comme GPU et une RTX 4060.
![]()
Prend des modèles 7B ou 8B et surtout prends Q4 en quantization ou Q5
Afficher uniquement les messages de l'auteur du topic