Früher Zugang (Early Access): Funktionen, Preise und Parameter können sich zukünftig ändern.
Auf Basis einer optimierten Blibs-Architektur bietet unsere mit der OpenAI-API kompatible Schnittstelle hochleistungsfähige Inferenz für große Sprachmodelle – ohne dass Sie eigene dedizierte GPU-Ressourcen benötigen. Gehostet ausschließlich in EU-Rechenzentren, stellt sie eine nahtlose Integration in Ihre Anwendungen sicher und hält dabei strikte Einhaltung der DSGVO-Vorgaben. Durch Nutzung der skalierbaren Infrastruktur von Trooper.AI werden Hardware-Beschränkungen aufgehoben, was kosteneffiziente Bereitstellungen sowohl für Start-ups als auch Unternehmen ermöglicht. Egal, ob Sie Chatbots entwickeln, Modelle feinabstimmen oder generative KI-Arbeitsabläufe implementieren: Unsere API liefert Antworten mit niedriger Latenz und unternehmensübergreifender Zuverlässigkeit.
Der Service ist flexibel gestaltet und lässt sich reibungslos in bestehende Systeme über unkomplizierte Schnittstellen einbinden. Dabei werden sowohl Stapelverarbeitungen als auch Echtzeitanfragen unterstützt. Durch dauerhafte Datenspeicherung und erweiterte Sicherheitssysteme – inklusive Firewall und Schutz vor Distributed-Denial-of-Service-Angriffen (DDoS) – wird eine unterbrechungsfreie Betriebsbereitschaft für hochkritische KI-Prozesse gewährleistet. Erfahren Sie mehr zu unseren individuellen Einstellungen, die exakt auf Ihre Anforderungen zugeschnitten sind.
Unser Grundpreis sieht wie folgt aus. Je nach Land können zusätzliche Gebühren bei der Bestellung von API Blib anfallen. Zudem profitieren Sie von unseren regelmäßigen Extra-Credits-Aktionen.
| Route | Modell | Kontext | Input/1M | Output/1M | +33 % Rabattaktion** | Stärken |
|---|---|---|---|---|---|---|
| lebendig | Google Gemma 4 – 2,3B + 0,15B (Vision) + 0,3B (Audio) | 20,380 | €0.029 | €0.049 | Text, Vision, Audio, Logik (Reasoning), Tools, JSON | |
| clara | Mistral Ministral 3 – 13,5B + 0,4B (Vision) | 9,248 | €0.139 | €0.249 | EU-Modell, Vision, Tools, Text, JSON | |
| nikola | NVIDIA Nemotron 3 Nano – 30B MoE (128 Experten, davon 6 aktiv bei ~3,5 Mrd.) | 20,480 | €0.159 | €0.319 | Text, Logik/Argumentation, Werkzeuge, Programmierung/Coding, JSON |
* Aktuelle Aktion: Bei einer Zahlung von €150 diesen Monat erhalten Sie +33 % Bonus-Credits. Zahlen Sie €150, um €200 auf Ihr Konto zu bekommen!
Bevor Sie unsere API nutzen können, müssen Sie Ihren API-Blob auf unserer Website bestellen: API Blob bestellen
Sie können Ihr Modell sowie Ihre Region auswählen und sollten nach dem Bereitstellen Ihres gewünschten Modells etwas Ähnliches wie dies in Ihrem Management-Dashboard sehen:
Wir bieten einen kostenlosen System-Prompt mit bis zu 1.024 Zeichen an. Der kostenlose System-Prompt ist ausschließlich über das Dashboard verfügbar! Dynamische Systemnachrichten, die über die API gesendet werden, werden wie üblich berechnet. Klicken Sie auf Aktionen, um das Dialogfeld zur Bearbeitung des System-Prompts einzusehen:
Los geht’s – bestellen Sie jetzt Ihre API Blib:
Wenn Sie unsere LLM-Endpunkte mit anderen KI-Plattformen vergleichen möchten, können Sie hier unser kostenloses Tool für den LLM-Qualitätsbenchmark nutzen: Dies sieht wie folgt aus:
Testen Sie jeden mit OpenAI kompatiblen KI-Endpoint mit 25 automatisierten Qualitätsprüfungen – Logik, Programmierung, Mehrsprachigkeit, strukturierte Ausgabe, Tool-Aufrufe und mehr.
https://eu.router.trooper.ai/v1
Regionale Endpunkte für länderspezifische Datenhoheit:
| Domäne | Region |
|---|---|
eu.router.trooper.ai |
EU (alle EU-Rechenzentren) |
de.router.trooper.ai |
Nur für Deutschland |
nl.router.trooper.ai |
Nur für die Niederlande |
Alle Anfragen erfordern einen Bearer-Token. Holen Sie sich Ihren API-Schlüssel aus dem .
Authorization: Bearer YOUR_TROOPER_KEY
Schalten Sie Routen über trooper.ai/order-apiblib. Jede aktivierte Route stellt Ihnen einen Modellnamen zur Verfügung, den Sie in Ihren API-Anfragen verwenden.
| Route | Grundmodell | Stärken |
|---|---|---|
| lebendig | Google Gemma 4 | Günstigste Option. Unterstützt Text, Bilder, Audio sowie logisches Schlussfolgern. Ideal für hohe Arbeitslasten. |
| clara | Mistral Ministral AI 3 | Bildverarbeitung als Priorität. Schnelle Verarbeitungsgeschwindigkeit, starke Unterstützung für EU-Sprachen. |
| nikola | NVIDIA Nemotron 3 Nano | Leistungsstarker Logikprozessor. Codegenerierung, Funktionsaufrufe, autonome Arbeitsabläufe. |
/v1/chat/completionsStandard-kompatibler OpenAI-Chat-Completion-Endpoint.
/v1/modelsListet Ihre aktivierten Modelle auf. Erfordert Authentifizierung. Gibt nur Modelle zurück, die zur Region der von Ihnen angerufenen Domain passen.
Jedes Modellobjekt enthält:
| Feld | Typ | Beschreibung |
|---|---|---|
id |
Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. | Ihr Routenname (verwendet als model (in Anfragen). |
object |
Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. | Immer "model". |
owned_by |
Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. | Besitzerkennung. |
created |
Ganzzahl | Erstellungszeitpunkt als Unix-Timestamp. |
base_models |
String[] | Grundmodellname(n). |
context_length |
Ganzzahl | Maximale Kontextgröße (Tokens). |
max_tokens |
Ganzzahl | Maximale Ausgabetokens. |
capabilities |
Objekt | Merkmale/Funktionsflags dieses Modells (siehe unten). |
supported_parameters |
String[] | Von diesem Modell akzeptierte Parameter. |
Eigenschaften-Objekt:
| Kennzeichnung | Typ | Beschreibung |
|---|---|---|
thinking |
boolesch | Unterstützt reasoning_effort und kognitive Nachvollziehbarkeit (Chain-of-Thought-Reasoning). |
tools |
boolesch | Unterstützt Funktionsaufrufe / Tools. |
vision |
boolesch | Unterstützt Eingaben von Bildern und PDFs. |
audio |
boolesch | Unterstützt Audio-Eingaben. |
json_mode |
boolesch | Unterstützt response_format (JSON-Modus / strukturierte Ausgaben) |
token_budget |
boolesch | Unterstützt explizite Steuerung des Token-Budgets für Denkprozesse. |
Verwenden capabilities.thinking um zu prüfen, ob ein Modell Reasoning-Parameter akzeptiert, bevor diese gesendet werden.
Beispielantwort:
{
"object": "list",
"data": [
{
"id": "clara",
"object": "model",
"owned_by": "trooper_42",
"created": 1700000000,
"base_models": ["Ministral-3"],
"context_length": 131072,
"max_tokens": 131072,
"capabilities": {
"tools": true,
"vision": true,
"audio": false,
"thinking": false,
"json_mode": true,
"token_budget": false
},
"supported_parameters": [
"temperature", "top_p", "max_tokens", "stream",
"response_format", "tools", "tool_choice"
]
}
]
}
/healthGibt Auskunft über die Verfügbarkeit des Endpunkts sowie regionale Informationen.
Alle Parameter entsprechen dem Format der OpenAI Chat Completions API.
| Parameter | Typ | Beschreibung |
|---|---|---|
model |
Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. | Ihr Routenname (z. B. "clara", "nikola", "liv") |
messages |
Array | Anordnung von Nachrichtenobjekten (role + content) |
| Parameter | Typ | Standard | Beschreibung |
|---|---|---|---|
max_tokens |
Ganzzahl | automatisch (32–4096) | Maximale Anzahl der Ausgabe-Tokens. Automatisch auf das Kontextfenster der Route begrenzt. |
max_completion_tokens |
Ganzzahl | — | Alias für max_tokens. |
stream |
boolesch | false |
Server-Sent Events-(SSE)-Streaming aktivieren. |
temperature |
Zahl | Modellstandard | Abtasttemperatur (0–2). |
top_p |
Zahl | Modellstandard | Kernsampling. |
response_format |
Objekt | — | {"type": "json_object"} or {"type": "json_schema", "json_schema": {...}} |
tools |
Array | — | Funktionsaufrufs-Tooldefinitionen (im OpenAI-Format) |
tool_choice |
String/Objekt | — | Steuert die Werkzeugauswahl ("auto", "none", oder ein bestimmtes Tool). |
reasoning |
Objekt | — | `{"Anstrengung": "keine"} |
reasoning_effort |
Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. | — | Kurznotation: "none", "medium", "high". |
reasoning.exclude |
boolesch | false |
Gründe aus der Antwort entfernen. |
Standard-SSE-Streaming, vollständig kompatibel mit der OpenAI-SDK.
{ "stream": true }
Antwortformat: data: {...}\n\n Zeilen, beendet durch data: [DONE]\n\n.
Fordern Sie eine strukturierte JSON-Ausgabe an. Stellen Sie sicher, dass nicht nur der JSON-Anfrage im Textnachricht gesetzt wird – Sie müssen mindestens auch das response_format auf json_object festlegen!
Falls das Modell ungültiges JSON erzeugt, werden Ihnen keine Kosten berechnet.
{ "response_format": { "type": "json_object" } }
Mit einem Schema:
{
"response_format": {
"type": "json_schema",
"json_schema": {
"name": "my_schema",
"schema": {
"type": "object",
"properties": {
"name": { "type": "string" },
"age": { "type": "integer" }
},
"required": ["name", "age"]
}
}
}
}
Bilder können über eine URL oder als Base64 gesendet werden. PDFs werden automatisch serverseitig in Seitenbilder umgewandelt.
{
"messages": [{
"role": "user",
"content": [
{ "type": "image_url", "image_url": { "url": "https://example.com/photo.jpg" } },
{ "type": "text", "text": "Describe this image." }
]
}]
}
Base64:
{
"type": "image_url",
"image_url": { "url": "data:image/png;base64,iVBOR..." }
}
Audio-Dateien können in multimodalen Nachrichten gesendet werden. Unterstützt auf der Route liv.
Steuern Sie, ob und wie tief das Modell vor der Antwort nachdenkt (Chain-of-Thought).
| Wert | Wirkung |
|---|---|
"none" |
Denkprozess deaktiviert – schnellste Antworten, geringster Token-Verbrauch. |
"low" |
Denkprozess deaktiviert – wie bei „keine“. |
"medium" |
aktiviert – das Modell leitet schrittweise eine Überlegung ein, bevor es antwortet. Gute Balance zwischen Qualität und Geschwindigkeit. |
"high" |
Aktiviert + tiefgründig – das Modell wird angewiesen, sehr sorgfältig und in großer Detailtiefe nachzudenken. Ideal für komplexe Mathematik, Logik und Code. Falls max_tokens gesetzt ist, muss dieser mindestens 4 096 betragen, sonst wird der Request abgelehnt. |
Standarddenkprozess aktivieren:
{ "reasoning_effort": "medium" }
Für maximale Qualität tiefgründiges Denken aktivieren:
{ "reasoning_effort": "high" }
Oder über das reasoning Objekt:
{ "reasoning": { "effort": "high" } }
Denkprozess explizit deaktivieren:
{ "reasoning_effort": "none" }
Um die Begründung aus der Antwort zu entfernen (das Denken findet weiterhin statt, aber die Begründungstoken werden nicht zurückgegeben):
{ "reasoning": { "effort": "high", "exclude": true } }
Denkverhalten kann ebenfalls pro Route im Management-Dashboard konfiguriert werden. Die Dashboard-Einstellung steuert das Standardverhalten sowie die Rückgabe der Begründung:
"reasoning_effort": "medium" oder "high" aktiviert werden.reasoning_content zurückgegeben.<denke>-Tags im Inhalt zurückgegeben.Denkschutz (Reasoning Rescue): Falls das Modell eine Denkschleife durchläuft, erholt sich der Router automatisch und gibt eine nutzbare Antwort zurück.
Standardformat der OpenAI-Tools. Funktioniert mit allen Routen.
{
"tools": [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get current weather for a location",
"parameters": {
"type": "object",
"properties": {
"location": { "type": "string" }
},
"required": ["location"]
}
}
}],
"tool_choice": "auto"
}
Falls Ihre Eingabe das Kontextfenster überschreitet, komprimiert der Router automatisch den mittleren Teil des Gesprächs, um alles unterzubringen – eine manuelle Kürzung ist nicht erforderlich. Sie erhalten stets eine Antwort.
Ein kostenloser System-Prompt kann pro Route im Management-Dashboard konfiguriert werden. Er wird jeder Anfrage automatisch vorangestellt und ist nicht berechnet.
Standard-Antwortformat von OpenAI:
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1700000000,
"model": "clara",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I help you?"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 8,
"total_tokens": 20
}
}
Bei aktivierter Begründung kann die Antwort zusätzlich eine Begründungsinhalte enthalten. reasoning_content neben content.
Jede Antwort enthält einen x-transaction-id Header für Abrechnungsreferenz und Fehlersuche.
Fehler folgen dem OpenAI-Fehlerformat:
{
"error": {
"message": "The model 'nonexistent' does not exist.",
"type": "invalid_request_error",
"param": "model",
"code": "model_not_found"
}
}
| HTTP-Status | Code | Beschreibung |
|---|---|---|
| 400 | invalid_value |
Fehlendes Modell, ungültiger API-Schlüssel, Eingabe zu kurz oder ungültig max_tokens. |
| 403 | invalid_api_key |
Ungültiger API-Schlüssel oder unzureichendes Budget. |
| 404 | model_not_found |
Modell existiert nicht oder ist nicht aktiviert. |
| 404 | region_mismatch |
Modell ist in der angefragten Region nicht verfügbar. |
| 500 | — | Interne Router-Fehlermeldung. |
| 503 | — | Keine Endpunkte im angefragten Bereich verfügbar. |
Sehen Sie sich beliebte Codebeispiele an, wie man eine mit OpenAI kompatible API für Large-Language-Modell-Inferenz nutzt. Ersetzen Sie dabei router.trooper.ai durch die Endpunkt-URL aus Ihrer API-Bestellung!
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
response = client.chat.completions.create(
model="clara",
messages=[{"role": "user", "content": "Summarize this document."}],
max_tokens=1024
)
print(response.choices[0].message.content)
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://router.trooper.ai/v1",
apiKey: "YOUR_TROOPER_KEY",
});
const response = await client.chat.completions.create({
model: "nikola",
messages: [{ role: "user", content: "Write a unit test for this function." }],
max_tokens: 2048,
});
console.log(response.choices[0].message.content);
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
stream = client.chat.completions.create(
model="liv",
messages=[{"role": "user", "content": "Explain quantum computing."}],
max_tokens=2048,
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)
import json
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
response = client.chat.completions.create(
model="clara",
messages=[{"role": "user", "content": "List the 3 largest EU countries as JSON with name and population."}],
max_tokens=512,
response_format={"type": "json_object"}
)
data = json.loads(response.choices[0].message.content)
print(data)
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
response = client.chat.completions.create(
model="clara",
messages=[{
"role": "user",
"content": [
{"type": "image_url", "image_url": {"url": "https://example.com/invoice.png"}},
{"type": "text", "text": "Extract all line items from this invoice as JSON."}
]
}],
max_tokens=2048,
response_format={"type": "json_object"}
)
print(response.choices[0].message.content)
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get weather for a location",
"parameters": {
"type": "object",
"properties": {
"location": {"type": "string", "description": "City name"}
},
"required": ["location"]
}
}
}]
response = client.chat.completions.create(
model="nikola",
messages=[{"role": "user", "content": "What's the weather in Berlin?"}],
tools=tools,
tool_choice="auto",
max_tokens=512
)
tool_calls = response.choices[0].message.tool_calls
if tool_calls:
print(tool_calls[0].function.name, tool_calls[0].function.arguments)
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY",
model="clara",
max_tokens=1024
)
response = llm.invoke("Extract all dates from the following text: ...")
print(response.content)
from llama_index.llms.openai_like import OpenAILike
llm = OpenAILike(
api_base="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY",
model="nikola",
max_tokens=2048
)
response = llm.complete("Explain the EU AI Act in simple terms.")
print(response.text)
curl https://router.trooper.ai/v1/chat/completions \
-H "Authorization: Bearer YOUR_TROOPER_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "clara",
"messages": [{"role": "user", "content": "Hello!"}],
"max_tokens": 512
}'
Einzeilige Änderung – Base-URL und API-Schlüssel aktualisieren:
# Before (OpenAI)
client = OpenAI(api_key="sk-...")
# After (Trooper.AI)
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
Alles andere bleibt gleich: Anfrageformat, Antwortschema, Streaming, Tools sowie JSON-Modus.