API-Blibs – Entwickler-Integrationsleitfaden

Früher Zugang (Early Access): Funktionen, Preise und Parameter können sich zukünftig ändern.

Auf Basis einer optimierten Blibs-Architektur bietet unsere mit der OpenAI-API kompatible Schnittstelle hochleistungsfähige Inferenz für große Sprachmodelle – ohne dass Sie eigene dedizierte GPU-Ressourcen benötigen. Gehostet ausschließlich in EU-Rechenzentren, stellt sie eine nahtlose Integration in Ihre Anwendungen sicher und hält dabei strikte Einhaltung der DSGVO-Vorgaben. Durch Nutzung der skalierbaren Infrastruktur von Trooper.AI werden Hardware-Beschränkungen aufgehoben, was kosteneffiziente Bereitstellungen sowohl für Start-ups als auch Unternehmen ermöglicht. Egal, ob Sie Chatbots entwickeln, Modelle feinabstimmen oder generative KI-Arbeitsabläufe implementieren: Unsere API liefert Antworten mit niedriger Latenz und unternehmensübergreifender Zuverlässigkeit.

Der Service ist flexibel gestaltet und lässt sich reibungslos in bestehende Systeme über unkomplizierte Schnittstellen einbinden. Dabei werden sowohl Stapelverarbeitungen als auch Echtzeitanfragen unterstützt. Durch dauerhafte Datenspeicherung und erweiterte Sicherheitssysteme – inklusive Firewall und Schutz vor Distributed-Denial-of-Service-Angriffen (DDoS) – wird eine unterbrechungsfreie Betriebsbereitschaft für hochkritische KI-Prozesse gewährleistet. Erfahren Sie mehr zu unseren individuellen Einstellungen, die exakt auf Ihre Anforderungen zugeschnitten sind.

Jetzt API Blib bestellen


Modelle & Preise

Unser Grundpreis sieht wie folgt aus. Je nach Land können zusätzliche Gebühren bei der Bestellung von API Blib anfallen. Zudem profitieren Sie von unseren regelmäßigen Extra-Credits-Aktionen.

Route Modell Kontext Input/1M Output/1M +33 % Rabattaktion** Stärken
lebendig Google Gemma 4 – 2,3B + 0,15B (Vision) + 0,3B (Audio) 20,380 €0.029 €0.049 €0,029 €0,022 ein, €0,049 €0,037 aus Text, Vision, Audio, Logik (Reasoning), Tools, JSON
clara Mistral Ministral 3 – 13,5B + 0,4B (Vision) 9,248 €0.139 €0.249 €0.139 €0.105 ein, €0.249 €0.187 aus EU-Modell, Vision, Tools, Text, JSON
nikola NVIDIA Nemotron 3 Nano – 30B MoE (128 Experten, davon 6 aktiv bei ~3,5 Mrd.) 20,480 €0.159 €0.319 €0.159 ab €0.120 ein, €0.319 ab €0.240 aus Text, Logik/Argumentation, Werkzeuge, Programmierung/Coding, JSON

* Aktuelle Aktion: Bei einer Zahlung von €150 diesen Monat erhalten Sie +33 % Bonus-Credits. Zahlen Sie €150, um €200 auf Ihr Konto zu bekommen!


Wie Sie Ihren API-Blob bestellen

Bevor Sie unsere API nutzen können, müssen Sie Ihren API-Blob auf unserer Website bestellen: API Blob bestellen

Sie können Ihr Modell sowie Ihre Region auswählen und sollten nach dem Bereitstellen Ihres gewünschten Modells etwas Ähnliches wie dies in Ihrem Management-Dashboard sehen:

API Blib in your Dashboard
Ihre API-Blobs im Dashboard


Kostenloser Statischer System-Prompt

Wir bieten einen kostenlosen System-Prompt mit bis zu 1.024 Zeichen an. Der kostenlose System-Prompt ist ausschließlich über das Dashboard verfügbar! Dynamische Systemnachrichten, die über die API gesendet werden, werden wie üblich berechnet. Klicken Sie auf Aktionen, um das Dialogfeld zur Bearbeitung des System-Prompts einzusehen:

API Blib Static System Prompt
Statischer System-Prompt für API Blib

Los geht’s – bestellen Sie jetzt Ihre API Blib:

Jetzt API Blib bestellen


KI-Modell-Benchmark 🧪

LLM Quality Benchmark Interface
LLM-Qualitäts-Benchmark-Schnittstelle

Wenn Sie unsere LLM-Endpunkte mit anderen KI-Plattformen vergleichen möchten, können Sie hier unser kostenloses Tool für den LLM-Qualitätsbenchmark nutzen: Dies sieht wie folgt aus:

Testen Sie jeden mit OpenAI kompatiblen KI-Endpoint mit 25 automatisierten Qualitätsprüfungen – Logik, Programmierung, Mehrsprachigkeit, strukturierte Ausgabe, Tool-Aufrufe und mehr.


Basis-URL

Code
https://eu.router.trooper.ai/v1

Regionale Endpunkte für länderspezifische Datenhoheit:

Domäne Region
eu.router.trooper.ai EU (alle EU-Rechenzentren)
de.router.trooper.ai Nur für Deutschland
nl.router.trooper.ai Nur für die Niederlande

Authentifizierung

Alle Anfragen erfordern einen Bearer-Token. Holen Sie sich Ihren API-Schlüssel aus dem .

Code
Authorization: Bearer YOUR_TROOPER_KEY

Verfügbare Modelle

Schalten Sie Routen über trooper.ai/order-apiblib. Jede aktivierte Route stellt Ihnen einen Modellnamen zur Verfügung, den Sie in Ihren API-Anfragen verwenden.

Route Grundmodell Stärken
lebendig Google Gemma 4 Günstigste Option. Unterstützt Text, Bilder, Audio sowie logisches Schlussfolgern. Ideal für hohe Arbeitslasten.
clara Mistral Ministral AI 3 Bildverarbeitung als Priorität. Schnelle Verarbeitungsgeschwindigkeit, starke Unterstützung für EU-Sprachen.
nikola NVIDIA Nemotron 3 Nano Leistungsstarker Logikprozessor. Codegenerierung, Funktionsaufrufe, autonome Arbeitsabläufe.

API-Endpunkte

POST /v1/chat/completions

Standard-kompatibler OpenAI-Chat-Completion-Endpoint.

GET /v1/models

Listet Ihre aktivierten Modelle auf. Erfordert Authentifizierung. Gibt nur Modelle zurück, die zur Region der von Ihnen angerufenen Domain passen.

Jedes Modellobjekt enthält:

Feld Typ Beschreibung
id Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. Ihr Routenname (verwendet als model (in Anfragen).
object Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. Immer "model".
owned_by Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. Besitzerkennung.
created Ganzzahl Erstellungszeitpunkt als Unix-Timestamp.
base_models String[] Grundmodellname(n).
context_length Ganzzahl Maximale Kontextgröße (Tokens).
max_tokens Ganzzahl Maximale Ausgabetokens.
capabilities Objekt Merkmale/Funktionsflags dieses Modells (siehe unten).
supported_parameters String[] Von diesem Modell akzeptierte Parameter.

Eigenschaften-Objekt:

Kennzeichnung Typ Beschreibung
thinking boolesch Unterstützt reasoning_effort und kognitive Nachvollziehbarkeit (Chain-of-Thought-Reasoning).
tools boolesch Unterstützt Funktionsaufrufe / Tools.
vision boolesch Unterstützt Eingaben von Bildern und PDFs.
audio boolesch Unterstützt Audio-Eingaben.
json_mode boolesch Unterstützt response_format (JSON-Modus / strukturierte Ausgaben)
token_budget boolesch Unterstützt explizite Steuerung des Token-Budgets für Denkprozesse.

Verwenden capabilities.thinking um zu prüfen, ob ein Modell Reasoning-Parameter akzeptiert, bevor diese gesendet werden.

Beispielantwort:

JSON
{
  "object": "list",
  "data": [
    {
      "id": "clara",
      "object": "model",
      "owned_by": "trooper_42",
      "created": 1700000000,
      "base_models": ["Ministral-3"],
      "context_length": 131072,
      "max_tokens": 131072,
      "capabilities": {
        "tools": true,
        "vision": true,
        "audio": false,
        "thinking": false,
        "json_mode": true,
        "token_budget": false
      },
      "supported_parameters": [
        "temperature", "top_p", "max_tokens", "stream",
        "response_format", "tools", "tool_choice"
      ]
    }
  ]
}

GET /health

Gibt Auskunft über die Verfügbarkeit des Endpunkts sowie regionale Informationen.

Jetzt API Blib bestellen


Anfrageparameter

Alle Parameter entsprechen dem Format der OpenAI Chat Completions API.

Erforderlich

Parameter Typ Beschreibung
model Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. Ihr Routenname (z. B. "clara", "nikola", "liv")
messages Array Anordnung von Nachrichtenobjekten (role + content)

Optionale

Parameter Typ Standard Beschreibung
max_tokens Ganzzahl automatisch (32–4096) Maximale Anzahl der Ausgabe-Tokens. Automatisch auf das Kontextfenster der Route begrenzt.
max_completion_tokens Ganzzahl Alias für max_tokens.
stream boolesch false Server-Sent Events-(SSE)-Streaming aktivieren.
temperature Zahl Modellstandard Abtasttemperatur (0–2).
top_p Zahl Modellstandard Kernsampling.
response_format Objekt {"type": "json_object"} or {"type": "json_schema", "json_schema": {...}}
tools Array Funktionsaufrufs-Tooldefinitionen (im OpenAI-Format)
tool_choice String/Objekt Steuert die Werkzeugauswahl ("auto", "none", oder ein bestimmtes Tool).
reasoning Objekt `{"Anstrengung": "keine"}
reasoning_effort Mithilfe einer optimierten Blibs-basierten Architektur bietet unsere OpenAI-kompatible API leistungsstarke Inference großer Sprachmodelle – ganz ohne dass Sie dedizierte GPU-Ressourcen vorhalten müssen. Gehostet ausschließlich in EU-Rechenzentren, sorgt dies für reibungslose Integrationen in Ihre Anwendungen und gleichzeitig für strikte DSGVO-Konformität. Durch die skalierbare Infrastruktur von Trooper.AI werden Hardware-Grenzwerte aufgehoben, was kostengünstige Implementierungen sowohl für Start-ups als auch Unternehmen ermöglicht. Ob beim Aufbau von Chatbots, Feintuning von Modellen oder Einsatz generativer KI-Prozesse: Unsere API liefert Antworten mit minimaler Verzögerung und unternehmensreifer Zuverlässigkeit. Kurznotation: "none", "medium", "high".
reasoning.exclude boolesch false Gründe aus der Antwort entfernen.

Funktionen

Streaming

Standard-SSE-Streaming, vollständig kompatibel mit der OpenAI-SDK.

JSON
{ "stream": true }

Antwortformat: data: {...}\n\n Zeilen, beendet durch data: [DONE]\n\n.

Modus JSON

Fordern Sie eine strukturierte JSON-Ausgabe an. Stellen Sie sicher, dass nicht nur der JSON-Anfrage im Textnachricht gesetzt wird – Sie müssen mindestens auch das response_format auf json_object festlegen!

Falls das Modell ungültiges JSON erzeugt, werden Ihnen keine Kosten berechnet.

JSON
{ "response_format": { "type": "json_object" } }

Mit einem Schema:

JSON
{
  "response_format": {
    "type": "json_schema",
    "json_schema": {
      "name": "my_schema",
      "schema": {
        "type": "object",
        "properties": {
          "name": { "type": "string" },
          "age": { "type": "integer" }
        },
        "required": ["name", "age"]
      }
    }
  }
}

Bildverarbeitung (Bilder & PDFs)

Bilder können über eine URL oder als Base64 gesendet werden. PDFs werden automatisch serverseitig in Seitenbilder umgewandelt.

JSON
{
  "messages": [{
    "role": "user",
    "content": [
      { "type": "image_url", "image_url": { "url": "https://example.com/photo.jpg" } },
      { "type": "text", "text": "Describe this image." }
    ]
  }]
}

Base64:

JSON
{
  "type": "image_url",
  "image_url": { "url": "data:image/png;base64,iVBOR..." }
}
  • Bilder werden automatisch skaliert und von Metadaten bereinigt (SSRF-sicher).
  • Die maximale Anzahl und Größe der Bilder hängt von Ihrer Routenkonfiguration ab.
  • Verfügbar auf den Routen liv und clara.

Stärken: Audio

Audio-Dateien können in multimodalen Nachrichten gesendet werden. Unterstützt auf der Route liv.

Denken / Logikschlüsse

Steuern Sie, ob und wie tief das Modell vor der Antwort nachdenkt (Chain-of-Thought).

Wert Wirkung
"none" Denkprozess deaktiviert – schnellste Antworten, geringster Token-Verbrauch.
"low" Denkprozess deaktiviert – wie bei „keine“.
"medium" aktiviert – das Modell leitet schrittweise eine Überlegung ein, bevor es antwortet. Gute Balance zwischen Qualität und Geschwindigkeit.
"high" Aktiviert + tiefgründig – das Modell wird angewiesen, sehr sorgfältig und in großer Detailtiefe nachzudenken. Ideal für komplexe Mathematik, Logik und Code. Falls max_tokens gesetzt ist, muss dieser mindestens 4 096 betragen, sonst wird der Request abgelehnt.

Standarddenkprozess aktivieren:

JSON
{ "reasoning_effort": "medium" }

Für maximale Qualität tiefgründiges Denken aktivieren:

JSON
{ "reasoning_effort": "high" }

Oder über das reasoning Objekt:

JSON
{ "reasoning": { "effort": "high" } }

Denkprozess explizit deaktivieren:

JSON
{ "reasoning_effort": "none" }

Um die Begründung aus der Antwort zu entfernen (das Denken findet weiterhin statt, aber die Begründungstoken werden nicht zurückgegeben):

JSON
{ "reasoning": { "effort": "high", "exclude": true } }

Denkverhalten kann ebenfalls pro Route im Management-Dashboard konfiguriert werden. Die Dashboard-Einstellung steuert das Standardverhalten sowie die Rückgabe der Begründung:

Thinking Modes under Actions on supported Models
Denkmodi unter Aktionen bei unterstützten Modellen

  • Deaktiviert – Standardmäßig ist das Denken ausgeschaltet. Kann pro-Anfrage über "reasoning_effort": "medium" oder "high" aktiviert werden.
  • Strippen – Denkprozess aktiviert, aber die Begründungstokens werden aus der Antwort entfernt.
  • Denkverlauf (Reasoning) — Denken aktiviert, Begründung wird in einem separaten Feld reasoning_content zurückgegeben.
  • Denk-Tag — Denken aktiviert, Begründung wird als <denke>-Tags im Inhalt zurückgegeben.

Denkschutz (Reasoning Rescue): Falls das Modell eine Denkschleife durchläuft, erholt sich der Router automatisch und gibt eine nutzbare Antwort zurück.

Funktionsaufrufe / Werkzeuge

Standardformat der OpenAI-Tools. Funktioniert mit allen Routen.

JSON
{
  "tools": [{
    "type": "function",
    "function": {
      "name": "get_weather",
      "description": "Get current weather for a location",
      "parameters": {
        "type": "object",
        "properties": {
          "location": { "type": "string" }
        },
        "required": ["location"]
      }
    }
  }],
  "tool_choice": "auto"
}

Automatische Kontextkomprimierung

Falls Ihre Eingabe das Kontextfenster überschreitet, komprimiert der Router automatisch den mittleren Teil des Gesprächs, um alles unterzubringen – eine manuelle Kürzung ist nicht erforderlich. Sie erhalten stets eine Antwort.

Statischer System-Prompt

Ein kostenloser System-Prompt kann pro Route im Management-Dashboard konfiguriert werden. Er wird jeder Anfrage automatisch vorangestellt und ist nicht berechnet.


Antwortformat

Standard-Antwortformat von OpenAI:

JSON
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "clara",
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "Hello! How can I help you?"
    },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 12,
    "completion_tokens": 8,
    "total_tokens": 20
  }
}

Bei aktivierter Begründung kann die Antwort zusätzlich eine Begründungsinhalte enthalten. reasoning_content neben content.

Transaktions-ID

Jede Antwort enthält einen x-transaction-id Header für Abrechnungsreferenz und Fehlersuche.


Fehlerbehandlung

Fehler folgen dem OpenAI-Fehlerformat:

JSON
{
  "error": {
    "message": "The model 'nonexistent' does not exist.",
    "type": "invalid_request_error",
    "param": "model",
    "code": "model_not_found"
  }
}

Fehlercodes

HTTP-Status Code Beschreibung
400 invalid_value Fehlendes Modell, ungültiger API-Schlüssel, Eingabe zu kurz oder ungültig max_tokens.
403 invalid_api_key Ungültiger API-Schlüssel oder unzureichendes Budget.
404 model_not_found Modell existiert nicht oder ist nicht aktiviert.
404 region_mismatch Modell ist in der angefragten Region nicht verfügbar.
500 Interne Router-Fehlermeldung.
503 Keine Endpunkte im angefragten Bereich verfügbar.

Abrechnung / Preisgestaltung

  • Preis pro Token – Eingabe- und Ausgabetokens werden separat pro Million Tokens abgerechnet.
  • Keine Leerkosten – Sie zahlen nur bei API-Aufrufen.
  • Vorgeladene Guthaben – laden Sie Ihr Konto auf und nutzen Sie das Guthaben nach Verbrauch.
  • System-Prompt-Tokens sind kostenlos (werden nicht berechnet).
  • Fehlerhafte JSON-Anfragen werden bei Nutzung des JSON-Modus nicht berechnet.
  • Bildinputs werden pro Einheit (verarbeitete Bilder) abgerechnet.

Jetzt API Blib bestellen


Beispiel-Integrationen

Sehen Sie sich beliebte Codebeispiele an, wie man eine mit OpenAI kompatible API für Large-Language-Modell-Inferenz nutzt. Ersetzen Sie dabei router.trooper.ai durch die Endpunkt-URL aus Ihrer API-Bestellung!

Python (OpenAI-SDK)

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY"
)

response = client.chat.completions.create(
    model="clara",
    messages=[{"role": "user", "content": "Summarize this document."}],
    max_tokens=1024
)

print(response.choices[0].message.content)

Node.js (OpenAI-SDK)

javascript
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://router.trooper.ai/v1",
  apiKey: "YOUR_TROOPER_KEY",
});

const response = await client.chat.completions.create({
  model: "nikola",
  messages: [{ role: "user", content: "Write a unit test for this function." }],
  max_tokens: 2048,
});

console.log(response.choices[0].message.content);

Python mit Stream-Verarbeitung

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY"
)

stream = client.chat.completions.create(
    model="liv",
    messages=[{"role": "user", "content": "Explain quantum computing."}],
    max_tokens=2048,
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Modus JSON

Python
import json
from openai import OpenAI

client = OpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY"
)

response = client.chat.completions.create(
    model="clara",
    messages=[{"role": "user", "content": "List the 3 largest EU countries as JSON with name and population."}],
    max_tokens=512,
    response_format={"type": "json_object"}
)

data = json.loads(response.choices[0].message.content)
print(data)

Bildanalyse

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY"
)

response = client.chat.completions.create(
    model="clara",
    messages=[{
        "role": "user",
        "content": [
            {"type": "image_url", "image_url": {"url": "https://example.com/invoice.png"}},
            {"type": "text", "text": "Extract all line items from this invoice as JSON."}
        ]
    }],
    max_tokens=2048,
    response_format={"type": "json_object"}
)

print(response.choices[0].message.content)

Funktionsaufruf

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY"
)

tools = [{
    "type": "function",
    "function": {
        "name": "get_weather",
        "description": "Get weather for a location",
        "parameters": {
            "type": "object",
            "properties": {
                "location": {"type": "string", "description": "City name"}
            },
            "required": ["location"]
        }
    }
}]

response = client.chat.completions.create(
    model="nikola",
    messages=[{"role": "user", "content": "What's the weather in Berlin?"}],
    tools=tools,
    tool_choice="auto",
    max_tokens=512
)

tool_calls = response.choices[0].message.tool_calls
if tool_calls:
    print(tool_calls[0].function.name, tool_calls[0].function.arguments)

LangChain

Python
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY",
    model="clara",
    max_tokens=1024
)

response = llm.invoke("Extract all dates from the following text: ...")
print(response.content)

LlamaIndex

Python
from llama_index.llms.openai_like import OpenAILike

llm = OpenAILike(
    api_base="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY",
    model="nikola",
    max_tokens=2048
)

response = llm.complete("Explain the EU AI Act in simple terms.")
print(response.text)

cURL

bash
curl https://router.trooper.ai/v1/chat/completions \
  -H "Authorization: Bearer YOUR_TROOPER_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "clara",
    "messages": [{"role": "user", "content": "Hello!"}],
    "max_tokens": 512
  }'

Migration von OpenAI zu Trooper.AI

Einzeilige Änderung – Base-URL und API-Schlüssel aktualisieren:

Python
# Before (OpenAI)
client = OpenAI(api_key="sk-...")

# After (Trooper.AI)
client = OpenAI(
    base_url="https://router.trooper.ai/v1",
    api_key="YOUR_TROOPER_KEY"
)

Alles andere bleibt gleich: Anfrageformat, Antwortschema, Streaming, Tools sowie JSON-Modus.


Datenhoheit & Konformität

  • ISO/IEC 27001-zertifizierte Rechenzentren in Deutschland und der EU
  • Keine Datenretention – Anfragen und Antworten werden ausschließlich im Arbeitsspeicher (RAM) verarbeitet und nie gespeichert.
  • DSGVO-konform – keine grenzüberschreitenden Datenübermittlungen, kein Training des Modells mit Ihren Daten.
  • Länderspezifische Routingoptionen verfügbar (DE, NL oder gesamte EU).

Jetzt API Blib bestellen