Réseaux P2P et inference distribuée
Petals : réseau P2P où des milliers de GPUs perso font tourner Llama 405B, Mixtral, etc. en distribué. Des forks uncensored tournent en permanence.
OpenRouter dark pools / Inferno / Together AI uncensored : des proxies communautaires qui hébergent des versions sans garde-fous.
Vast.ai / RunPod : loue des GPU à l’heure et lance ton propre modèle uncensored (llama.cpp, vLLM, exllama).