NaN
GPUs compartidas. Modelos open-source. Comunidad cerrada.
Builders hispanohablantes compartiendo GPUs para correr los últimos modelos de IA open-source sin límites de tokens.
// what is nan
Builders hispanohablantes pagando entre todos GPUs dedicadas para correr modelos open-source y quemar tokens sin límites.
Las APIs de modelos cerrados son cómodas pero caras y limitadas. Los modelos open-source son gratis pero correrlos en serio requiere hardware que casi nadie tiene en casa.
NaN resuelve esto compartiendo GPUs potentes entre builders que las usan de verdad, repartiendo el coste real de la infraestructura.
No es un negocio escalable. Es una comunidad cerrada por diseño, limitada a la capacidad real de las GPUs compartidas. Cuando se llena, se abre lista de espera.
La comunidad vive en Discord. El sitio web solo gestiona acceso. Cada miembro paga por estar. Solo están quienes de verdad quieren construir.
// servers per region
Un server dedicado por región. 20-25 miembros por server.
Cada región tiene su propio server con NVIDIA RTX PRO 6000 Blackwell, 96 GB de VRAM, 256 GB de RAM DDR5 y 48 threads dedicados. Capacidad real: entre 20 y 25 miembros por server, distribuidos por región para que la latencia no sufra. Dos modelos open-source corriendo a la vez, elegidos por la comunidad cada trimestre.
hardware
- GPU
- NVIDIA RTX PRO 6000 Blackwell
- VRAM
- 96 GB GDDR7 ECC
- RAM
- 256 GB DDR5 ECC
- CPU
- 48 threads · Intel Xeon Gold 5412U
- Storage
- 2× 960 GB NVMe RAID 1
- Members
- 20-25 per server
stack
- Inference
- vLLM / SGLang
- Proxy
- LiteLLM
- API
- OpenAI-compatible
- Persistence
- PostgreSQL + Redis
// current models
Por definir
tbdPrimera votación al arrancar
Por definir
tbdPrimera votación al arrancar
- Tu código no entrena ningún modelo
- Datos en EU, sin logs de prompts
- Sin caps de tokens
- API key personal para cada miembro
// how models are chosen
Dos modelos. Elegidos por la comunidad. Renovados cada trimestre.
- Cada 3 meses, los miembros votan los 2 modelos que correrán en el server.
- Los candidatos se preseleccionan técnicamente: tienen que caber en 96 GB de VRAM.
- La votación se hace en Discord, abierta a los 25 miembros.
- El ecosistema open-source se mueve rápido. NaN también.
// candidate pool
Qwen3-Coder-Next 80B-A3B
Coding agéntico SOTA, MoE rapidísimo
MiniMax M2.5
Comparable a Claude Opus 4.5
Gemma 4 26B MoE
Multimodal: texto + visión + audio + video
Gemma 4 31B Dense
Top open source en LM Arena
GLM-4.7
Top open source en SWE-bench
GLM-4.7-Flash
Rápido, MoE eficiente
// list evolves with the ecosystem
// who's behind
La comunidad la monta una persona. No una empresa.
Cristian Córdova
@barckcodeTenerife, Islas Canarias
Founder de Helmcode SL, trabajando con startups en infraestructura cloud, AI tooling y open source.
Construyo AgentCrew (orquestación multi-agente) y publico experimentos y estudios con IA.
Activo en Twitter y LinkedIn sobre Claude, herramientas de IA y desarrollo en español.
Monté NaN porque quería un server real con modelos open-source de los buenos, y quería compartir el coste con gente que está en la misma: builders que queman tokens de verdad.
// pricing
Un tier por región. Sin upsells. Sin trial.
NaN Member EU
🇪🇺IVA incluido
Plazas limitadas
- Acceso al server compartido (96 GB VRAM)
- 2 LLMs open-source SOTA elegidos por la comunidad
- API key personal compatible con OpenAI
- Sin caps de tokens
- Canales privados en Discord solo para miembros
- Voz en la votación trimestral de modelos
- Voz en decisiones del proyecto
- Mes a mes, sin permanencia
Plazas limitadas. Cuando se llena, lista de espera.
NaN Member USA/Latam
🇺🇸Impuestos incluidos
Plazas limitadas
- Acceso al server compartido (96 GB VRAM)
- 2 LLMs open-source SOTA elegidos por la comunidad
- API key personal compatible con OpenAI
- Sin caps de tokens
- Canales privados en Discord solo para miembros
- Voz en la votación trimestral de modelos
- Voz en decisiones del proyecto
- Mes a mes, sin permanencia
Plazas limitadas. Cuando se llena, lista de espera.
// join
Una comunidad de builders. Plazas limitadas. GPUs compartidas sin límites de uso.
Pagamos entre todos GPUs dedicadas para correr modelos open-source y quemar tokens sin límites. Déjanos tu email y te escribimos cuando abramos pagos.
// faq
Lo que probablemente vas a preguntar.
- Los 2 modelos actuales los elige la comunidad en Discord. Al arrancar, la primera votación define el set inicial. Cada 3 meses se vota de nuevo.
- Sí. El acceso es vía LiteLLM con una API compatible con OpenAI. Funciona con Cline, Cursor, Continue, Aider, Open WebUI y cualquier cliente que acepte un base URL + API key al estilo OpenAI.
- No. Tu código no entrena nada. No hay fine-tuning con datos de usuarios. No hay logs de prompts más allá de métricas anónimas agregadas para que el server funcione bien.
- No hay caps explícitos. Hay rate limits técnicos internos para proteger la experiencia colectiva (evitar que uno acapare la GPU), pero no son caps de consumo que tengas que contar.
- Esto no es enterprise. Es un server dedicado con su propio uptime. El status se comparte en Discord en tiempo real, y el objetivo es que esté arriba todo lo que se pueda. No hay SLA contractual.
- Sí. Mes a mes, sin permanencia. Para cancelar, avisas al staff por Discord y se procesa la baja. Cuando una plaza se libera, avisamos al siguiente de la lista de espera.
- La capacidad real de las GPUs compartidas marca cuánta gente puede entrar sin que la experiencia se degrade. Más gente = latencia peor y colas. No es escalable por diseño.
- Cada 3 meses se abre votación en Discord con la lista de candidatos técnicamente viables (que quepan en 96 GB de VRAM). Los miembros votan. Ganan los 2 con más votos.
- Te pones en la lista de espera. Cuando alguien cancela, contactamos al siguiente en orden de llegada. Sin drama, sin saltos.
- 70€/mes por miembro es lo que toca para cubrir el coste de cada server dedicado con GPU (~1400€/mes por máquina), el setup amortizado, comisiones de Stripe y el IVA OSS, dejando un margen pequeño para reinvertir. Más barato no cuadra. Más caro sería innecesario.