Apple per l’esperienza. x86 per la scala.
Non stai vendendo scatole. Stai vendendo una linea coordinata di nodi. Apple offre l’esperienza locale più pulita e plug-and-play. x86 porta flessibilità di budget in basso e scalabilità GPU in alto. Servono entrambi.
Obsidian Personal
Apple Mac mini M2 · 16 GB unified · 1 TB
Best Apple entry
Affordable entry node that runs small local LLMs smoothly with almost no setup friction.
Unified memory behaves like VRAM, so Ollama and LM Studio feel unusually smooth for the size and price.
- Piattaforma
- Apple Silicon
- Accel. IA
- Unified memory
- Compatibilità modello
- 7B-8B local models
- Upgrade
- None
Silent desktop AI for personal assistants, Q&A and offline drafting.
Obsidian Flex
GMKtec Ryzen 7 8845HS · 32 GB
Flexible non-Apple budget node
A lower-cost Windows/Linux node with more RAM flexibility and a strong integrated GPU for local AI.
This is the strongest value-oriented alternative if you want higher RAM headroom without moving into Apple pricing.
- Piattaforma
- x86 Ryzen
- Accel. IA
- Radeon 780M iGPU
- Compatibilità modello
- 7B-13B local models
- Upgrade
- Moderate
Budget-conscious local AI, Linux-first setups and users who want more tweakability.
Obsidian Core
Apple Mac mini M4 · 32 GB unified
Minimum serious sellable configuration
Balanced Apple-first node for continuous local AI workloads, retrieval and multi-agent prototypes.
The base M4 exists around 929 EUR, but the 32 GB build is the first configuration worth selling for sustained local AI.
- Piattaforma
- Apple Silicon
- Accel. IA
- Neural Engine
- Compatibilità modello
- 7B-13B local models
- Upgrade
- None
The best balance of simplicity, silence and useful local model headroom.
Obsidian Pro
Apple Mac mini M4 Pro · 64 GB unified
Best Apple high-end
High-memory compact node for larger local models, multi-agent orchestration and heavier professional workflows.
Apple Silicon is fixed at purchase time. RAM and GPU are not field-upgradeable, so this is the tier to buy once and size correctly.
- Piattaforma
- Apple Silicon
- Accel. IA
- Neural Engine + stronger GPU
- Compatibilità modello
- 13B-30B local models
- Upgrade
- None
Team-level local AI, orchestration-heavy work and advanced secure inference on the desk.
Obsidian Edge
Minisforum AI X1 Pro · Ryzen AI 9
Scale-first non-Apple path
Expandable node for heavier inference, shared usage and future GPU-backed scaling beyond the Mac mini ceiling.
This is the node to choose when you care more about expansion, eGPU support and scale than absolute simplicity.
- Piattaforma
- x86 Ryzen AI
- Accel. IA
- NPU + eGPU path
- Compatibilità modello
- 13B-70B+ with expansion
- Upgrade
- High
Server-grade local AI, multi-user deployments and the path toward 70B-scale setups.
Contesto reale
I Mac mini sono eccellenti appliance AI proprio perché sono silenziosi, stabili e senza attrito. Il compromesso è la mancanza di upgrade: RAM e GPU sono fissate all’acquisto. Per questo la linea Apple deve essere venduta subito con la giusta configurazione di memoria.
Per questo la build M4 da 32 GB è la prima vera Core seria, ed è anche il motivo per cui il nodo Edge x86 esiste al vertice della gamma.
Regola di packaging
Apple è la scelta migliore quando la priorità è silenzio, semplicità ed esperienza desktop premium. x86 è la scelta giusta quando contano espansione, uso condiviso e futura scalabilità tramite GPU.
- Apple = esperienza + semplicità
- x86 = potenza + scalabilità
- La linea Obsidian deve presentare entrambi come nodi di prima classe
Panoramica capacità
| Capacità | Personal Apple Mac mini M2 · 16 GB unified · 1 TB 579,00 € | Flex GMKtec Ryzen 7 8845HS · 32 GB 359,99 € | Core Apple Mac mini M4 · 32 GB unified 1143,97 € | Pro Apple Mac mini M4 Pro · 64 GB unified 1903,99 € | Edge Minisforum AI X1 Pro · Ryzen AI 9 799,00 € |
|---|---|---|---|---|---|
| Architecture | Apple Silicon | x86 Ryzen | Apple Silicon | Apple Silicon | x86 Ryzen AI |
| Memory | 16 GB | 32 GB | 32 GB | 64 GB | 96 GB |
| GPU path | Integrated only | Integrated only | Integrated only | GPU-ready | GPU-ready |
| AI acceleration | Unified memory | Radeon 780M iGPU | Neural Engine | Neural Engine + stronger GPU | NPU + eGPU path |
| Model capability | 7B-8B local models | 7B-13B local models | 7B-13B local models | 13B-30B local models | 13B-70B+ with expansion |
| Upgradeability | None | Moderate | None | None | High |
| Noise / efficiency | 5/5 quiet | 4/5 quiet | 5/5 quiet | 5/5 quiet | 3/5 workstation |
| Best use | Silent desktop AI for personal assistants, Q&A and offline drafting. | Budget-conscious local AI, Linux-first setups and users who want more tweakability. | The best balance of simplicity, silence and useful local model headroom. | Team-level local AI, orchestration-heavy work and advanced secure inference on the desk. | Server-grade local AI, multi-user deployments and the path toward 70B-scale setups. |