FAQ
Bei unseren neuen vGPU-Produkten handelt es sich um eine Abwandlung unserer beliebten Root-Server mit hochwertiger Hardware, die in dieser Ausprägung jedoch neben garantierter CPU-Leistung auch dediziert zugewiesene GPU-Ressourcen bieten. Dadurch eignen sich diese Produkte besonders für rechenintensive Arbeitslasten wie beispielsweise AI Inference, Video-Encoding oder Datenanalyse.
Mit dem "Early Access" erhältst du die Möglichkeit, exklusiven, frühzeitigen Zugang zu unseren neuen vGPU-Produkten zu erlangen. Du kannst so als eine der Ersten diese Produkte kaufen und testen. Wir würden uns außerdem freuen, dein Feedback zu hören und werden dir dazu noch ein unverbindliches Feedback-Formular aussenden.
Dafür kann es unterschiedliche Gründe geben. Bitte achte auf die Fehlermeldung unter dem Gutschein-Feld.
Bitte beachte auch, dass ein Code nur einmalig eingelöst werden kann. Auch wenn du die Bestellung letzendlich nicht abschließt, den Code aber bereits validiert hast, ist dieser bei erneuter Eingabe nicht länger gültig. Achte daher bitte darauf, die Bestellung wenn möglich direkt abzuschließen.
Es ist darüber hinaus nicht möglich, mehr als einen Code einzulösen.
Bei bestehenden Problemen kannst du dich bei uns über folgendes Formular melden.
Dein individueller Code wird ab 15.05. ab ca. 11 Uhr (MEZ) versendet. Bitte beachte, dass es unter Umständen etwas dauern kann, bis du die entsprechende Mail in deinem Postfach findest.
Bei Problemen kannst du dich bei uns über folgendes Formular melden.
Ja, die Anzahl der vGPU-Server im Early Access ist limitiert. Es gilt das Prinzip: First come, first served. Außerdem kann in der Early-Access-Phase nur ein Tarif pro Kunde bestellt werden, um eine faire Verteilung zu gewährleisten.
Die Bestpreis- und Zufriedenheitsgarantie ist bei diesen Produkten nicht gültig.
Die hier gelisteten Produkte gibt es nicht regulär auf unserer Website zu kaufen.
Nvidia Treiber sind nicht öffentlich zugänglich und unterstützen offiziell nur Ubuntu, daher bieten wir für vGPU Server derzeit nur ein Ubuntu Image an.
Wir haben die neuen Server für den Betrieb einiger kompakter Open-Source-Sprachmodelle verschiedener Architekturen getestet. Nachfolgend findest du eine Auflistung von LLMs, die jeweils mit den angeführten Tarifen kompatibel sind.
RS 2000 vGPU 7 + RS 4000 vGPU 14
- llama3.2:1b
- llama3.2:3b
- llama3.1:8b
- mistral:7b
- gemma3:1b
- gemma3:4b
- phi3:3.8b
- deepseek-r1:1.5b
- deepseek-r1:7b
- deepseek-r1:8b
- qwen2.5:0.5b
- qwen2.5:1.5b
- qwen2.5:3b
- qwen2.5:7b
- qwen2.5-coder:0.5b
- qwen2.5-coder:1.5b
- qwen2.5-coder:3b
- qwen2.5-coder:7b
- qwen:0.5b
- qwen:1.8b
- qwen:4b
- qwen:7b
- gemma:2b
- gemma:7b
- qwen2:0.5b
- qwen2:1.5b
- qwen2:7b
- gemma2:2b
- llama2:7b
- tinyllama:1.1b
- starcoder2:3b
- starcoder2:7b
- dolphin3:8b
RS 4000 vGPU 14
- gemma3:12b
- deepseek-r1:14b
- phi4:14b
- qwen2.5:14b
- qwen2.5-coder:14b
- qwen:14b
- llama2:13b
- phi3:14b
- mistral-nemo:12b
- starcoder2:15b