KI-Inferenz ohne GPU. Keine Konfigurationsprobleme, keine Sicherheitssorgen. Einfach reine Geschwindigkeit mit 🇪🇺 EU-Regionssteuerung.
Wählen Sie Ihre KI-Inferenz-Route – zahlen Sie nur für das, was Sie nutzen (pro Token):
Lade verfügbare API-Routen
Infrastruktur & Compliance – vollständig verwaltet, sicher und von Anfang an regelkonform.
Intelligente Inferenz & Medienverarbeitung – integrierte KI, die Randfälle automatisch abdeckt – ohne dass Sie sich darum kümmern müssen.
Sicherheit & Resilienz – abgesichert, selbstheilend, immer verfügbar.
Nutzen Sie eine beliebige OpenAI-kompatible SDK. Zeigen Sie diese einfach auf Ihr Trooper.AI-Routenendpunkt:
curl https://router.trooper.ai/v1/chat/completions \
-H "Authorization: Bearer YOUR_TROOPER_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "clara",
"messages": [{"role": "user", "content": "Hello!"}],
"max_tokens": 512
}'
Große Sprachmodelle auf eigener Infrastruktur auszuführen, erfordert die Verwaltung von GPUs, Treiberaktualisierungen, CUDA-Versionen, Modellparametern, Skalierungsanforderungen und Sicherheitspatches – alles noch vor der Generierung eines einzigen Tokens. Mit API Blibs entfallen alle diese Ebenen des Stapelaufbaus. Unsere vollumfänglich verwalteten LLMs bieten Zugriff auf moderne Open-Source-Modelle wie Google Gemma 4, Mistral Mistral 7B/8x7B (im Folgenden: Mistral) und NVIDIA Nemotron 3 Nano – ganz ohne eigene GPU-Ausstattung. Die Abarbeitung erfolgt über optimierte vLLM-Backend-Systeme mit automatischem Load Balancing und garantiert stabile Low-Latency-Antworten auch unter hoher Auslastung. Es fallen weder Kosten für ungenutzte GPUs an, wenn die API nicht genutzt wird, noch entstehen Betriebskosten oder überraschende Gebühren – rein bedarfsorientierte Inferenz.
Für Teams, die selbst gehostete LLM-Einsätze mit verwalteter KI-Inferenz vergleichen, ist die Rechnung einfach: Mit API Blibs entfällt der gesamte Prozess von GPU-Beschaffung und MLOps – bei gleicher Modellqualität, denselben Leistungen und schnellerem Go-Live.
Jeder API Blib basiert auf unternehmensrelevanter, wiederaufbereiteter Hardware, die von unserem eigenen Team gewartet wird. Aktuell installieren Markus und Jaimie hier einen NVIDIA-A100-Cluster in einem unserer deutschen Rechenzentren – dieselbe GPU-Serverinfrastruktur, die Ihre Inferenzanfragen abwickelt. Dabei setzen wir hochperformante Komponenten zu optimierten Inference-Rigs zusammen, verlängern so die Nutzungsdauer der Hardware und minimieren Elektronikschrott. Fremdkapazitäten werden nicht weiterverkauft; stattdessen errichten, besitzen und betreiben wir unsere gesamte Infrastruktur eigenständig – von Grund auf –, um Ihnen stets Performance, Sicherheit und Datenhoheit auf allen Ebenen der Architektur zu gewährleisten.
Die Trooper.AI-API-Blobs sind zu 100 % kompatibel mit dem OpenAI-Chat-Completions-Format. Falls Ihre Anwendung bereits das OpenAI-SDK – ob für Python, Node.js oder jeden anderen HTTP-Client – nutzt, ist der Wechsel zu Trooper.AI eine Zeilenänderung: aktualisieren Sie einfach die Basis-URL und den API-Schlüssel. Sie erhalten dieselbe /v1/chat/completions Endpunkt mit derselben Anfrage- und Antwortstruktur sowie voller Unterstützung für Streaming, JSON-Modus, Function Calling (Funktionsaufrufe) und multimodale Eingaben. Keine Code-Anpassung nötig, keine neuen Abstraktionen oder Anbieterbindung – Ihre Integration bleibt portabel und Sie behalten die Kontrolle.
Suche nach einer OpenAI-API-Alternative mit europäischer Hosting-Lösung? API Blibs bieten Ihnen äquivalente Funktionen mit EU-Datenhoheit, transparenter Preistransparenz pro Token sowie ohne unerwartete Rate Limits.
Jede API-Blib-Route läuft exklusiv auf ISO/IEC 27001-zertifizierten Rechenzentren in Deutschland und der Europäischen Union. Ihre Prompts und Completions werden ausschließlich im RAM verarbeitet – vollkommen zustandslos, ohne Protokollierung, Speicherung oder Modelltraining mit Ihren Daten. Dank dieser Zero-Retention-Architektur ist API Blib besonders geeignet für stark regulierte Bereiche wie Healthcare, Legal Tech, FinTech und den öffentlichen Sektor sowie für alle Unternehmen, bei denen Datensouveränität und DSGVO-Einhaltung zwingend erforderlich sind.
Benötigen Sie eine länderspezifische Routing-Lösung? Wählen Sie eine bestimmte Jurisdiktion – Deutschland, die Niederlande oder den weiteren EU-Raum –, dann verlassen Ihre Anfragen diese Region nie. Durch unsere gesicherte API-Oberfläche sowie SSRF-sicheres Bildabrufen erhalten Sie eine KI-Inferenzschicht, die von Haus aus höchsten Unternehmens-Sicherheitsanforderungen entspricht.
Mit API Blibs zahlen Sie ausschließlich für die Tokens, die Sie nutzen – sowohl Eingabe als auch Ausgabe, abgerechnet pro Million Tokens. Es fallen keine Einrichtungskosten, keine monatlichen Mindestgebühren oder Gebühren für Leerlaufzeiten an. Laden Sie Guthaben im eigenen Tempo vorab auf, und Ihr Budget wird erst belastet, wenn Sie tatsächliche API-Anfragen tätigen. Zudem erhalten Sie bei jeder monatlichen Aktion Bonus-Guthaben auf Ihre Auffüllung – der genaue Prozentsatz hängt von der aktuellen Promotion ab. So lässt sich die Kostenplanung einfach gestalten, egal ob Sie einen kundenorientierten Chatbot betreiben, eine Dokumentenextraktions-Pipeline nutzen oder großangelegte Batch-Klassifizierungen durchführen.
Dagegen zahlen Sie bei der GPU-Anmietung stets pro Stunde – unabhängig von der Auslastung –, oder Sie arbeiten mit proprietären API-Anbietern, deren Rate Limits intransparent sind und unvorhersehbare Gebühren für Überschreitungen verursachen können. Mit API Blibs erhalten Sie hingegen volle Kostentransparenz – vom ersten bis zum letzten Token.
Die Auswahl eines verwalteten Anbieters für Large-Language-Modell-Inferenz (LLM) in Europa erfordert eine Abwägung zwischen Preis, Datenhoheit und betrieblicher Einfachheit. Hier ein Vergleich von API Blibs mit den drei wichtigsten Alternativen.
| API Blibs von Trooper.AI | OpenAI-API | Microsoft Azure OpenAI | AWS Bedrock | |
|---|---|---|---|---|
| Europäische Datenhoheit | ✅ Standardmäßig – jede Anfrage wird in der 🇪🇺 EU / 🇩🇪 DE verarbeitet | ⚠️ EU-Endpunkte verfügbar, jedoch ausschließlich für „berechtigte“ Geschäftskunden; Preiserhöhung von 10 % bei Nutzung der EU-Standorte | ⚠️ EU-Datenzonen verfügbar; regionale Bereitstellung auf ausgewählte Modelle beschränkt; Azure-Abonnement erforderlich | ⚠️ Verfügbar in EU-Regionen (z. B. Frankfurt, Irland); Anfragen zwischen Regionen können außerhalb der EU verarbeitet werden. |
| Datenverarbeitungsspeicherung | ✅ Null – zustandsloser, nur-RAM-Inference-Betrieb, in → out → vergessen | ⚠️ Keine Datenretention bei in der EU ansässigen Projekten; Standard-API speichert Daten bis zu 30 Tage | ⚠️ Konfigurierbar; Standardvorgabe für Speicherung von Missbrauchsüberwachungsdaten: 30 Tage | ⚠️ Konfigurierbar; Standardprotokollierung bei CloudWatch |
| Länderspezifische Weiterleitung | ✅ Ja – Auswahl aus DE, NL oder breiterem EU-Raum | ❌ Keine länderspezifische Steuerung bei Standardplänen | ⚠️ Regionale Bereitstellung (z. B. Deutschland) verfügbar, aber mit eingeschränktem Modellangebot | ⚠️ Regionale Bereitstellung möglich, aber nicht alle Modelle in jeder Region verfügbar |
| Preismodell | ✅ Pro-Token in €, keine Mindestmenge, vorab bezahlte Guthaben (+ Promotionsgutschriften) | ⚠️ Pro-Token in $, Vorab-Guthaben, 50 %-Rabatt bei Batch-Verarbeitung | ⚠️ Pro-Token oder bereitgestellte Durchsatz-Einheiten (Provisioned Throughput Units / PTU); komplexe Preistufen | ⚠️ Pro-Token; Prioritätsstufe mit 75 %-Aufschlag; bereitgestellte Durchsatzkapazität verfügbar |
| Versteckte Kosten | ✅ Keine – keine Infrastrukturkosten oder Einrichtungskosten | ⚠️ Aufrufe des Web-Suchtools werden zusätzlich berechnet; Hosting eines feinabgestimmten Modells ab ca. ~$1.800/Monat | ⚠️ Kosten für Key Vault und Cognitive Services-Overhead; Hosting-Kosten für feinabgestimmte Modelle | ⚠️ Wissensdatenbanken, Sicherheitsvorkehrungen (Guardrails), Agenten verursachen jeweils zusätzliche Kosten |
| API-Kompatibilität | ✅ 100 % kompatibel mit OpenAI, Migration in einer Zeile | ✅ Nativ | ⚠️ Über Azure-Endpunkte OpenAI-kompatibel | ❌ Eigenständige Converse-API; nicht OpenAI-kompatibel |
| Einrichtungsaufwand | ✅ API-Schlüssel + Basis-URL, erledigt | ⚠️ API-Schlüssel + Projektkonfiguration; EU-Standort erfordert „geeignete“ Genehmigung | ❌ Azure-Abonnement + Ressourcengruppe + Bereitstellung + IAM | ❌ AWS-Konto + IAM + Modellzugriffsanfragen über das Bedrock-Konsole |
| Anbieterbindung | ✅ Keine – kompatibel mit OpenAI, jederzeit wechselbar | ⚠️ Niedrig (Standard-API) | ⚠️ Mittel (Azure-Ökosystem) | ❌ Hoch (spezifische Bedrock-APIs, IAM, CloudTrail-Integration) |
| Integrierte Funktionen | Automatische Kontextkomprimierung, PDF-Erkennung („Vision“), Denkhilfe („Thinking Rescue“), garantierte JSON-Ausgabe, SSRF-sicheres Bildabrufen | Batch-API, Prompt-Caching | Prompt-Caching, Guardrails, Wissensdatenbanken für Retrieval-Augmented Generation (RAG) | ⚠️ Agenten, Sicherheitsrichtlinien (Guardrails), Wissensdatenbanken, Retrieval-Augmented Generation (RAG), Bewertungen |
| Zertifizierungen | ISO/IEC 27001-zertifizierte 🇩🇪 Rechenzentren | SOC 2 Typ II, CSA STAR, ISO/IEC 27001 | ⚠️ Azure-Compliance-Portfolio (z. B. SOC, ISO, C5) | AWS-Compliance-Portfolio (z. B. SOC, ISO, C5) |
| Empfohlen für | Europa-fokussierte Teams, die Inferenz mit Null-Konfiguration, DSGVO-konformer Einhaltung und transparenten Preisen wünschen | Globale Teams, die bereits bei OpenAI sind und eine EU-Niederlassung (Unternehmensstufe) wünschen | Unternehmen mit tiefgreifender Bindung zum Microsoft-/Azure-Ökosystem | AWS-native Organisationen mit Bedarf an IAM, CloudTrail sowie Multi-Modell-Zugriff |
Kernaussage: OpenAI, Azure und Bedrock bieten zwar alle EU-Datenresidenz – allerdings mit Zugangsvoraussetzungen, Preiserhöhungen oder Anbieterbindung. Mit API Blibs erhalten Sie hingegen direkt eine EU-beherbergte, DS-GVO-konforme Inferenz ohne Aufwand und versteckte Kosten.
API-Blobs bieten Ihnen Zugang zu sorgfältig ausgewählten Open-Source-Modellen, die für Produktionsworkloads auf unseren vLLM-Inferenz-Backends optimiert sind. Jedes Modell wird nach Preis-Leistungs-Verhältnis, Abdeckung der EU-Sprachen sowie Lizenzklarheit ausgewählt.
Die kostengünstigste Lösung – ein kompaktes Multimodell, das Text, Bilder, Audio sowie logisches Schlussfolgern in einem einzigen Aufruf verarbeitet. Perfekt für hochvolumige Anwendungsfälle, bei denen der Preis pro Token entscheidend ist – von Klassifizierung und Zusammenfassung bis hin zu Bildbeschreibung und Audiotranskription.
Ein schnelles, bildbasiertes Modell für hohe Durchsatzleistung. Starke Sprachperformance für den europäischen Markt, Multi-Bildanalyse sowie strukturierte Extraktion zu einem mittelhohen Preispunkt – ideal für Dokumentenverarbeitung, OCR-Pipelines und kundenorientierte Chatbots mit visuellen Anforderungen.
Die Denkleistungsexpertin. Eine Mixture-of-Experts-Architektur, die tiefgehendes logisches Schlussfolgern sowie starke Programmierfähigkeiten zu effizienten Inference-Kosten bietet. Ideal für Codegenerierung, komplexe Argumentationsketten, Function Calling und agile Workflows.
Alle Modelle werden über mit OpenAI kompatible Endpunkte bereitgestellt. Wechseln Sie zwischen Routen, indem Sie den model Parameter – es sind keine Codeänderungen erforderlich.
Füttern Sie PDFs, Bilder und gescannte Dokumente in visionsfähige Routen wie clara oder liv. Die API-Blobs wandeln PDFs automatisch in Seitenbilder um und normalisieren Bildinputs – Ihre RAG-Pipeline erhält so saubere, strukturierte Daten ohne Vorverarbeitungsschritte. Dank garantiertem JSON-Modus erhalten Sie zuverlässig strukturierte Ausgaben für die nachgelagerte Indexierung.
Setzen Sie einen KI-basierten Chat mit Subsekunden-Latenz und vollständiger DSGVO-Compliance bereit. Legen Sie über das Verwaltungsdashboard einen freien System-Prompt fest, nutzen Sie Funktionaufrufe zur Backend-Integration und ermöglichen Sie durch automatische Kontextkomprimierung längere Gespräche – ganz ohne Begrenzungen zu erreichen. Dank null Datenretention bleiben Ihre Kundengespräche stets ungespeichert.
Nikola für komplexe Aufgaben der Programmierung mit tiefgehender Logik und präziser Funktionsaufrufung einsetzen. Die kompatiblen APIs zu OpenAI lassen sich direkt in Entwicklerumgebungen integrieren – etwa über VS Code-Erweiterungen, CI/CD-Pipelines oder Code-Reviews-Bots –, wobei lediglich eine einzige Basis-URL angepasst werden muss.
liv verarbeitet Bilder, Audiodateien und PDFs in einem einzigen API-Aufruf. clara spezialisiert sich auf hochauflösende Bildaufgaben. Bilder werden automatisch optimiert (Metadaten entfernt, Größe angepasst, SSRF-überprüft) und PDFs werden serverseitig in Seitenbilder umgewandelt. Eine Vorverarbeitung auf Client-Seite ist nicht erforderlich.
Führen Sie klassifikationsbasierte Aufgaben wie Kategorisierung, Tagging, Sentimentanalyse oder Entitätenerkennung im Großmaßstab aus. Dank tokenbasierter Abrechnung ohne Grundgebühren zahlen Sie ausschließlich bei tatsächlicher Nutzung. Nutzen Sie die garantierte JSON-Ausgabe für maschinenlesbare Ergebnisse, die sich nahtlos in Ihre Datenverarbeitungsprozesse einbinden lassen.
Nein. API Blibs setzen auf eine vollständig zustandslose Architektur mit reinem Arbeitsspeicher (RAM). Ihre Anfragen und Antworten werden im Speicher verarbeitet und unmittelbar nach der Rückgabe gelöscht. Es erfolgt keine Protokollierung, keine Speicherung und auch kein Training des Modells mit Ihren Daten – niemals.
Ja. Alle API-Blob-Routen unterstützen OpenAI-kompatibles Function Calling. Definieren Sie Ihre Tools im Standard- tools Der Parameter wird vom Modell als strukturierte Tool-Aufrufe in der Antwort zurückgegeben. Funktioniert mit allen Routen.
Statt Ihre Anfrage abzulehnen, komprimiert API Blib automatisch den mittleren Teil des Gesprächs, um innerhalb des Kontextfensters des Modells zu bleiben. Sie erhalten eine vollständige Antwort ohne Verlust von Anfang oder Ende Ihres Gesprächsfadens.
Ja. Standard-SSE-Streaming über den Parameter stream: true Parameter, vollständig kompatibel mit der OpenAI-SDK-Streaming-Schnittstelle.
Eine Zeilenänderung. Aktualisieren Sie Ihre base_url to https://router.trooper.ai/v1 und ersetzen Sie Ihren API-Schlüssel. Das Anfrageformat, das Antwortschema sowie das Streaming-Verhalten bleiben identisch.
Sie können Anfragen nach Deutschland (DE), in die Niederlande (NL) oder zu weiteren EU-Standorten weiterleiten. Wählen Sie Ihre bevorzugte Region im Management-Dashboard oder über die API aus.
Die API bietet eine Denkschleifen-Rettung – wir erkennen, wenn ein Modell in einer Begründungs Schleife feststeckt, und erholen es automatisch wieder, sodass Sie stets eine nutzbare Antwort erhalten statt eines Timeouts oder einer leeren Rückmeldung.
Ja. Wenn Sie eine Ausgabe im JSON-Format anfordern, prüfen wir die Struktur der Antwort. Falls das Modell kein gültiges JSON erzeugt, wird Ihnen für diese Anfrage keine Gebühr berechnet.
Nein. Bilder werden automatisch normalisiert (Metadaten entfernt, auf die maximale Modellauflösung skaliert sowie auf Sicherheit überprüft). PDFs werden serverseitig in Seitenbilder umgewandelt. Sie senden Rohdateien; wir kümmern uns um den Rest.
Die gesamte Infrastruktur wird in nach ISO/IEC 27001 zertifizierten Rechenzentren in Deutschland und der EU betrieben. Dank DSGVO-Konformität, Null-Datenretention und einer abgesicherten API-Schnittstelle entsprechen API Blibs aus dem Haus heraus den Sicherheitsstandards von Unternehmen.
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
response = client.chat.completions.create(
model="clara",
messages=[{"role": "user", "content": "Summarize this document."}],
max_tokens=1024
)
print(response.choices[0].message.content)
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://router.trooper.ai/v1",
apiKey: "YOUR_TROOPER_KEY",
});
const response = await client.chat.completions.create({
model: "nikola",
messages: [{ role: "user", content: "Write a unit test for this function." }],
max_tokens: 2048,
});
console.log(response.choices[0].message.content);
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY",
model="clara",
max_tokens=1024
)
response = llm.invoke("Extract all dates from the following text: ...")
print(response.content)
from llama_index.llms.openai_like import OpenAILike
llm = OpenAILike(
api_base="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY",
model="nikola",
max_tokens=2048
)
response = llm.complete("Explain the EU AI Act in simple terms.")
print(response.text)
curl https://router.trooper.ai/v1/chat/completions \
-H "Authorization: Bearer YOUR_TROOPER_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "clara",
"messages": [{
"role": "user",
"content": [
{"type": "image_url", "image_url": {"url": "https://example.com/invoice.png"}},
{"type": "text", "text": "Extract all line items from this invoice as JSON."}
]
}],
"max_tokens": 2048,
"response_format": {"type": "json_object"}
}'
Die EU-KI-Verordnung (Verordnung (EU) 2024/1689) tritt am 2. August 2026 in voller Geltung in Kraft und führt damit den weltweit ersten umfassenden rechtlichen Rahmen für künstliche Intelligenz ein. Für Unternehmen mit Tätigkeitssitz in Deutschland oder der EU bedeutet dies neue Verpflichtungen hinsichtlich Transparenz, Dokumentation sowie Risikomanagement – bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.
Da das Gesetz vorrangig Anbieter und Nutzer von hochriskanten KI-Systemen (wie etwa KI für Personalauswahl, Bonitätsbewertung oder kritische Infrastruktur) adressiert, sollte jedes Unternehmen, das KI einsetzt, prüfen, wo seine Systeme im Risikostufenmodell angesiedelt sind – und sicherstellen, dass dessen Inferenzinfrastruktur die Einhaltung der Vorgaben gewährleistet.
Selbst bei minimalen und begrenzten Risiken von KI-Anwendungsfällen betont die EU-KI-Verordnung Transparenz und Datengovernance. Die Auswahl eines Inferenzanbieters, der innerhalb der EU operiert, keine Daten speichert und klare Dokumentation bereitstellt, vereinfacht Ihre Compliance-Struktur:
Deutsche Unternehmen stehen vor einer doppelten Compliance-Herausforderung: dem DSGVO (seit 2018 wirksam) und dem KI-Gesetz (gestaffelt ab 2026/2027). Beide Rechtsrahmen verpflichten Sie dazu, nachzuweisen, dass persönliche Daten rechtmäßig, transparent und mit geeigneten Sicherheitsvorkehrungen verarbeitet werden. Ein auf den USA basierender Inferencing-Anbieter ohne EU-Standort erhöht unnötig die regulatorische Risikofläche – Sie sind gezwungen, sich auf Standarddatenschutzklauseln, Angemessenheitsentscheidungen zu verlassen und grenzüberschreitende Datenflüsse zu dokumentieren.
API Blibs beseitigen diese Komplexität: Alle Verarbeitungen erfolgen innerhalb der EU mit null Retention und nach ISO zertifizierter Infrastruktur. Ihr Datenschutzbeauftragter kann einen sauberen, rein auf die EU beschränkten Datenfluss ohne Übermittlungen in Drittländer dokumentieren.
Für Unternehmen in regulierten Branchen – Fintech (unter der Aufsicht der BaFin), Healthtech, Legal Tech sowie dem öffentlichen Sektor – sind die Anforderungen noch höher. Prüfer erwarten:
Die API-Blobs decken alle vier Anforderungen ab: länderspezifische Routing-Lösungen (DE, NL), Architektur mit Null-Retention-Prinzip, veröffentlichte Modell-Spezifikationen sowie automatisches Failover mit selbstheilenden Endpunkten.
Sie benötigen keinen langen Beschaffungsprozess für den Einsatz von datenschutzkonformer KI-Inferenz gemäß DSGVO und KI-Verordnung. Erstellen Sie einfach ein Konto bei Trooper.AI, laden Sie Guthaben auf und starten Sie mit API-Anfragen – die gesamte Infrastruktur ist bereits zertifiziert, alle Daten verbleiben in der EU, und es gibt keine Einstellungen im Compliance-Bereich.
Für Anfragen zum Aufragsverarbeitungsvertrag (AVV/DPA) oder zu Ihren spezifischen Compliance-Anforderungen wenden Sie sich bitte an sales@trooper.ai oder rufen Sie unter +49 6126 9289991 an.
ZAHLUNGSABWICKLUNG – WICHTIGE INFORMATIONEN:
Die Abrechnung erfolgt pro verwendetem Token und wird von Ihrem vorgezahlten Budget abgebucht.
Es fallen keine Standby-Kosten an – Sie zahlen ausschließlich bei API-Anfragen.
Offizielle Rechnung erscheint am Folgetag. Mehrwertsteuer ist bereits enthalten, sofern zutreffend.
KEINE RÜCKERSTATTUNGEN! Vollständige Zahlungsbedingungen einsehen
Melden Sie sich bitte an oder registrieren Sie sich, um eine API-Route zu aktivieren.