AI-inferens uden GPU. Ingen hovedpine med konfigurationer eller sikkerhedssorg. Bare ren hastighed med 🇪🇺 EU-regionskontrol.
Vælg din AI-inferens-rute – betal kun for det du bruger (pr. token):
Indlæser tilgængelige API-ruter
Infrastruktur og overholdelse af regler – fuldt administreret, sikret og klar til regulering fra dag én.
Intelligent inferens og mediebehandling – indbygget intelligens, der håndterer undtagelsestilfælde, så du slipper for det.
Sikkerhed og robusthed – hårdnet, selvhelende, altid tilgængelig.
Brug ethvert OpenAI-kompatibelt SDK. Pejl blot mod din Trooper.AI-rute-endepunkt:
curl https://router.trooper.ai/v1/chat/completions \
-H "Authorization: Bearer YOUR_TROOPER_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "clara",
"messages": [{"role": "user", "content": "Hello!"}],
"max_tokens": 512
}'
At køre store sprogmodeller på egen infrastruktur betyder det at du skal håndtere GPU'er, drivere opdateringer, CUDA-versioner, modelvægte, skalerbarhed og sikkerhedspatches – alt før der genereres et enkelt token. Med API Blibs springer du over hele dette lag i stakken. Vores fuldt administrerede LLM-inferens-endpoints giver dig adgang til verdensklasse åbne kildekode-modeller som Google Gemma 4, Mistral Ministral 3 og NVIDIA Nemotron 3 Nano – uden at skulle konfigurere en eneste GPU. Anfragninger behandles via optimerede vLLM-backend-systemer med automatisk lastfordeling, hvilket leverer konsistente lavlatensresponser selv ved høj trafikbelastning. Ingen omkostninger til ubenyttede GPU’er når du ikke bruger API’et, ingen driftstungt arbejde eller overraskelsesregninger – blot ren inferens efter behov.
For hold der overvejer selvhøstede LLM-deployeringer i forhold til styret AI-inference, er regnestykket enkelt: API Blibs fjerner hele processen med GPU-indkøb og MLOps-laget, samtidig med at du får de samme modeller, samme kvalitet og hurtigere tid til produktion.
Bag hver API Blib ligger der enterprise-niveau genbrugshårdware vedligeholdt af vores eget team. Her ser du Markus og Jaimie monterer et NVIDIA A100-cluster i ét af vores tyske datacentre – de samme GPU-servere, der driver dine inferensanmodninger. Vi omdanner højdeydelseskomponenter til optimerede inferens-rigs, hvilket forlænger hårdvarens levetid samtidig med at vi reducerer elektronisk affald. Vi sælger ikke tredjeparts-kapacitet; vi designer, ejes og kører hele infrastrukturen selvstændigt for at kunne garantere ydeevne, sikkerhed og dataresidens på alle lag i stakken.
API Blibs er 100 % kompatible med OpenAIs chat-completion-format. Hvis din applikation allerede bruger OpenAI SDK – enten i Python, Node.js eller ethvert HTTP-klient – kræver skiftet til Trooper.AI kun en ændring på én linje: opdater den grundlæggende URL og API-nøgle. Du får samme /v1/chat/completions endpunkt med samme anmodnings- og responsskema samt fuld støtte til strømmende svar (streaming), JSON-mode, funktioner (function calling) og multimodale indgange. Ingen omskrivning af kode, ingen nye abstraktioner eller leverandørbinding – din integration bliver portabel, og du beholder kontrol.
Leder du efter et alternativ til OpenAI API med europæisk hosting? API Blibs giver dig tilsvarende funktioner med EU-dataresidens, gennemsigtig prissætning pr. token og ingen overraskelser ved ratelimits.
Hver enkelt API Blib-rute kører udelukkende på ISO/IEC 27001-certificerede datacentre i Tyskland og Den Europæiske Union. Dine prompts og genererede svar behandles kun i RAM – helt tilstandsløst, uden logføring, lagring eller modelltraining baseret på dine data. Denne arkitektur med nulbeholdning gør API Blibs til et stærkt valg for regulerede brancher som sundhedsvæsenet, juratech, fintech samt den offentlige sektor, ligesom det er ideelt for virksomheder, hvor dataresidens og overholdelse af GDPR ikke kan kompromitteres.
Har du brug for landbaseret rutering? Vælg en specifik jurisdiktion – Tyskland, Nederlandene eller bredere EU – og dine anmodninger vil aldrig forlade det område. Kombineret med vores hårdnette API-overflade og SSRF-sikker billethentning får du et AI-inference-lag, der opfylder virksomheders sikkerhedskrav direkte ud af boksen.
Med API Blibs betaler du kun for de tokens, du bruger – både indgang og udgang, faktureret pr. million tokens. Ingen etableringsgebyrer, ingen månedlige minimumskrav eller gebyrer for ledig tid. Forudbetal kreditter i dit eget tempo, og din budget trækkes først ned, når du udfører reelle API-opkald. Derudover tilføjes der hver måned rabatkreditter til din opdatering af saldoen – den nøjagtige procentdel afhænger af den aktuelle kampagnepromotion. Det gør det nemt at forudsige omkostningerne, uanset om du driver en kundestøttende chatbot, en dokumentekstraktionspipeline eller storstilet batchklassificering.
Sammenlign det med GPU-leje, hvor du betaler pr. time uanset udnyttelse, eller proprietære API-leverandører med uklarer ratelimits og uforudsigelige ekstraomkostninger. API Blibs giver dig kostnadsgennemskuelighed fra første til sidste token.
At vælge en leverandør af managet LLM-inference i Europa handler om at finde balance mellem pris, dataresidens og operationel enkelhed. Her er et sammenligning af API Blibs med de tre største alternativer.
| Trooper.AI API Blibs | OpenAI API | Microsoft Azure OpenAI | AWS Bedrock | |
|---|---|---|---|---|
| EU-dataresidens | ✅ Standard – alle anmodninger behandles i 🇪🇺 EU / 🇩🇪 DE | ⚠️ EU-endpoints tilgængelige, men kun for "berettigede" virksomhedskunder; 10 % prisforskel på EU-baserede endpoints | ⚠️ Tilgængelig i EU Datazoner; regional udplacering begrænset til valgte modeller; kræver abonnement på Azure | ⚠️ EU-regioner (Frankfurt, Irland mv.) tilgængelige; tværsregional inferens kan ledes uden for EU |
| Databevaring | ✅ Nul – tilstandsløs RAM-baseret inferens, ind → ud → glem | ⚠️ Ingen databevaring på projekter med EU-beboere; standard-API gemmer data i op til 30 dage | ⚠️ Indstillingsbar; standard indhold er 30 dages bevaring af overvågning af misbrug | ⚠️ Konfigurerbart; standardlogning til CloudWatch |
| Landbaseret rutevalg | ✅ Ja – vælg DE, NL eller bredere EU | ❌ Ingen landbaseret kontrol på standardplaner | ⚠️ Regionale udplacering (f.eks. Tyskland) tilgængelig, men med begrænset modeludvalg | ⚠️ Regionalt udplaceret muligt, men ikke alle modeller tilgængelige i hver region |
| Prismodel | ✅ Pr token i €, ingen minimumskrav, forhåndsbetalte kreditter + bonuskreditter ekstra | ⚠️ Pris pr. token i $, forudbetalte kreditter, 50 % rabat ved batch-behandling | ⚠️ Pr token eller Provisioned Throughput Units (PTU'er); komplekse prissatser | ⚠️ Pr token; prioriteret niveau med 75 % påslag; tilgængelig provisioneret gennemstrømning |
| Skjulte omkostninger | ✅ Ingen – ingen infrastruktur eller opsætningsgebyrer | ⚠️ Websøgingsværktøjsanmodninger debiteres ekstra; finjusteret models hostning fra ca. $1.800/md | ⚠️ Omkostninger til Key Vault, Cognitive Services; værktøjsmodel-hosting omkostninger | ⚠️ Kendte databaser, sikkerhedsregler og agenter tilføjer alle separate gebyrer |
| API-kompatibilitet | ✅ 100 % kompatibel med OpenAI, migrering på én linje | ✅ Indbygget | ⚠️ Kompatibel med OpenAI via Azure-endepunkter | ❌ Egen proprietær Converse API; ikke kompatibel med OpenAI |
| Opsætningens kompleksitet | ✅ API-nøgle + grundlæggende URL, færdig | ⚠️ API-nøgle + projektopsætning; EU-bopæl kræver godkendelse som "berettiget" | ❌ Azure-abonnement + ressourcegruppe + udpløjning + IAM | ❌ AWS-konto + IAM + adgangskrav til modeller i Bedrock-konsollen |
| Leverandørbinding | ✅ Ingen – kompatibel med OpenAI, kan skiftes når som helst | ⚠️ Lav (standard API) | ⚠️ Mellem (Azure-økosystem) | ❌ Høj (Bedrock-specifikke APIs, IAM og CloudTrail-integration) |
| Indbyggede funktioner | Automatisk kontekstkomprimering, PDF-visualisering, tænke-redningsfunktioner, garanteret JSON-output og sikker hentning af billeder (SSRF-beskyttet) | Batch-API, prompt-caching | Prompt-caching, sikkerhedsregler og videnbaser med Retrieval-Augmented Generation (RAG) | ⚠️ Agenter, sikkerhedsregler (guardrails), videnbaser, RAG (Retrieval-Augmented Generation), evalueringer |
| Certificeringer | ISO/IEC 27001-certificerede 🇩🇪 datacentre | SOC 2 Type 2, CSA STAR, ISO/IEC 27001 | ⚠️ Azure-complianceportefølje (SOC, ISO, C5 osv.) | AWS-nøgleområder inden for compliance (SOC, ISO, C5 osv.) |
| Bedst til | EU-fokuserede hold, der ønsker nul-konfigurations-, GDPR-overensstemmende inferens til gennemsigtige priser | Globale hold allerede på OpenAI, der ønsker EU-bosiddelighed (forretningsniveau) | Virksomheder dybt integrerede i det Microsoft/Azure-økosystem | AWS-baserede organisationer med behov for IAM, CloudTrail og adgang til multimodeller |
Kernespunktet: OpenAI, Azure og Bedrock tilbyder alle EU-dataresidens – men det kommer med krav om berettigelse, prisforskel eller afhængighed af økosystemet. API Blibs giver dig EU-hospiterede, GDPR-sikrede inferencer klar til brug uden opsætning eller skjulte omkostninger.
API Blibs giver dig adgang til omhyggeligt udvalgte åbne kilder-modeller, optimeret til produktionsbelastninger på vores vLLM-inference-backend. Hver model er valgt efter pris-præstation-forhold, dækning af europæiske sprog og klare licensvilkår.
Den mest økonomiske løsning – en kompakt multimodellmodel, der håndterer tekst, billeder, lyd og resonnement i et enkelt kald. Ideel til højt volumen arbejdsbelastninger, hvor omkostningen pr. token er afgørende – fra klassificering og opsummering til billedbeskrivelse og lydafskrift.
En hurtig visionsfokuseret model bygget til høj gennemstrømning. Stærk præstation på EU-sprog, analyse af flere billeder og struktureret ekstraktion til en midterste prisniveau – perfekt til dokumentbehandling, OCR-pipelines samt kundeforståelige chatbots, der skal se.
Den logiske kraftmaskine. En mixture-of-experts-arkitektur, der leverer dybtgående resonnement og stærk kodningskompetence til en effektiv inferenskostnad. Bedst egnet til kodegenerering, komplekse resonnements-kæder, funktion-opkald samt agenter-baserede arbejdsgange.
Alle modeller leveres via OpenAI-kompatible endpoints. Skift mellem ruter ved at ændre på model parameter – kræver ingen ændringer i koden.
Indlæs PDF'er, billeder og scannede dokumenter i visionsbaserede ruter som clara eller liv. API Blibs konverterer automatisk PDF’er til sidebilleder og normaliserer billedindgange – din RAG-pipeline modtager ren, struktureret data uden forbehandlingstrin. Kombineret med garanteret JSON-tilstand får du pålidelig struktureret udgang for efterfølgende indeksering.
Indfør AI-drevet chat med under-sekunders respons og fuld overholdelse af GDPR. Angiv en gratis systemsprog via administrationsgrænsefladen, brug funktioner til bagendebinding og lad automatisk kontekstkomprimering håndtere lange samtaler uden at overskride begrænsninger. Nul datalagring betyder, at dine kundes samtaler aldrig gemmes.
Nikola håndterer komplekse kodningsopgaver med dybdegående resonnement og præcis funktionstildeling. Den OpenAI-kompatible API integrerer direkte med udviklerværktøjskæder – herunder VS Code-forlængelser, CI/CD-pipelines og kodegennemgangsbots – ved blot at ændre én base-URL.
liv behandler alle tre modaliteter; clara specialiserer sig i højopløselige visuelle opgaver. Billeder optimeres automatisk (metadata fjernes, størrelse justeres og SSRF-valideres), mens PDF'er omdannes til sidebilleder på serversiden. Der kræves ingen forbehandling på klientsiden.
Kør klassificering, tagging, sentimentanalyse eller entitetsextraktion i stor skala. Pris pr. token med ingen omkostninger ved inaktivitet betyder, at du kun betaler under behandling. Kombiner det med garanteret JSON-format til maskinlæselig udgang som direkte kan føres ind i din datapipeline.
Nej. API Blibs bruger en helt tilstandsløs arkitektur baseret på RAM alene. Dine prompts og svar behandles i hukommelsen og slettes øjeblikkeligt efter responsen er returneret. Ingen logføring, ingen lagring – aldrig nogen træning af modeller med dine data.
Ja. Alle API Blib-ruter understøtter OpenAI-kompatibel funktionstilkaldelse. Definer dine værktøjer i den standardiserede tools-parameter. tools parametret og modellen vil returnere strukturerede værktøjsopkald i responsen. Virker på alle ruter.
I stedet for at afvise din henvendelse komprimerer API Blib automatisk midten af samtalen for at passe inden for modellens kontekstvindue. Du får et fuldstændigt svar uden at miste begyndelsen eller slutningen af din samtale.
Ja. Standard Server-Sent Events (SSE)-streaming via stream: true parameter, fuldt kompatibel med OpenAIs SDK-strømmingsgrænseflade.
Ændring på én linje. Opdater din base_url to https://router.trooper.ai/v1 og erstat din API-nøgle. Formatet på anmodningen, responsskemaet og adfærd ved strømning er identiske.
Du kan lede anmodninger til Tyskland (DE), Nederlandene (NL) eller bredere EU-endepunkter. Vælg din foretrukne region i administrationsdashboardet eller via API.
API Blibs inkluderer 'tænke-redning' – vi opdager, når en model sidder fast i en resonneringsløkke og genoptager automatisk, så du altid får et brugbart svar i stedet for afbrydelse eller tom besvarelse.
Ja. Når du beder om JSON-output, validerer vi svarstrukturen. Hvis modellen ikke leverer gyldig JSON, bliver du ikke debiteret for den pågældende anmodning.
Nej. Billeder normaliseres automatisk (metadata fjernes, størrelsen justeres til modellen maksimal opløsning og sikkerheden valideres). PDF'er omdannes til sidebilleder på serversiden. Du sender rå filer – vi håndterer resten.
Alt infrastruktur kører i ISO/IEC 27001-certificerede datacentre i Tyskland og EU. Sammen med overholdelse af GDPR, nul lagring af data og en hårdnet API-overflade opfylder API Blibs virksomheders sikkerhedskrav direkte ud af boksen.
from openai import OpenAI
client = OpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY"
)
response = client.chat.completions.create(
model="clara",
messages=[{"role": "user", "content": "Summarize this document."}],
max_tokens=1024
)
print(response.choices[0].message.content)
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://router.trooper.ai/v1",
apiKey: "YOUR_TROOPER_KEY",
});
const response = await client.chat.completions.create({
model: "nikola",
messages: [{ role: "user", content: "Write a unit test for this function." }],
max_tokens: 2048,
});
console.log(response.choices[0].message.content);
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY",
model="clara",
max_tokens=1024
)
response = llm.invoke("Extract all dates from the following text: ...")
print(response.content)
from llama_index.llms.openai_like import OpenAILike
llm = OpenAILike(
api_base="https://router.trooper.ai/v1",
api_key="YOUR_TROOPER_KEY",
model="nikola",
max_tokens=2048
)
response = llm.complete("Explain the EU AI Act in simple terms.")
print(response.text)
curl https://router.trooper.ai/v1/chat/completions \
-H "Authorization: Bearer YOUR_TROOPER_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "clara",
"messages": [{
"role": "user",
"content": [
{"type": "image_url", "image_url": {"url": "https://example.com/invoice.png"}},
{"type": "text", "text": "Extract all line items from this invoice as JSON."}
]
}],
"max_tokens": 2048,
"response_format": {"type": "json_object"}
}'
EU’s lov om kunstig intelligens (forordning 2024/1689) træder i kraft den 2. august 2026 og indfører verdens første omfattende juridiske rammeværk for kunstig intelligens. For virksomheder, der opererer i Tyskland og EU, betyder det nye krav til gennemsigtighed, dokumentation og risikostyring – med bøder på op til 35 millioner euro eller 7 % af den globale årlige omsætning.
Selvom lovgivningen primært målretter leverandører og brugere af højrisiko-KI-systemer (som KI anvendt i rekruttering, kreditscoring eller kritisk infrastruktur), bør alle virksomheder, der bruger KI, forstå, hvor deres systemer placeres på risikopyramiden – og sikre sig, at deres inferensinfrastruktur understøtter overholdelse.
Selv i tilfælde af lavrisiko- og begrænset risikobaserede AI-anvendelser understreger EU’s AI-forslag transparens og datastyring. At vælge en inferencetjenesteudbyder, der opererer inden for EU, ikke gemmer nogen data og leverer tydelig dokumentation, gør overholdelsen nemmere:
Tyske virksomheder står overfor en dobbelt kompliancetung: GDPR (gyldig siden 2018) og AI-loven (faset indførelse frem til 2027). Begge rammeværker kræver, at du dokumenterer, at personoplysninger behandles lovligt, gennemsigtigt og med passende sikkerhedsforanstaltninger. Brug af en amerikansk inferenceservice uden EU-dataresidens skaber unødvendige reguleringsudfordringer – her skal du stole på Standard Contractual Clauses, vurdere adekvathedsbeslutninger samt dokumentere tværgående datatransfers.
API Blibs eliminerer denne kompleksitet: hele behandlingen foregår inden for EU med nul bevaring og ISO-certificeret infrastruktur. Din databeskyttelsesansvarlige kan dokumentere en ren, udelukkende EU-baseret databehandling uden overførsler til tredjelande.
For virksomheder inden for regulerede sektorer – fintech (underlagt BaFin-regulering), helseteknologi, juridisk teknologi og offentlig sektor – er kravene endnu højere. Revisorer kræver:
API Blibs dækker alle fire krav: landbaseret rutevalg (DE, NL), arkitektur med nulbevaring af data, offentliggjorte modelspecifikationer og automatisk genopretning med selvhelende endpoints.
Du behøver ikke en langvarig indkøbsproces for at implementere LLM-inference, der er klar til GDPR og AI-lovgivningen. Opret et konto på Trooper.AI, oplad forudbetalte kreditter og begynd med API-anmodninger – hele infrastrukturen er allerede certificeret, alle data forbliver i EU, og du skal ikke konfigurere noget på compliance-siden.
For spørgsmål om Auftragsverarbeitungsvertrag (AVV / DPA) eller specifikke compliance-krav, kontakter du os på sales@trooper.ai eller ringer til +49 6126 9289991.
BETALING – GODT AT VIDE:
Du bliver debiteret pr. anvendt token, trukket fra din forudbetalte budget.
Ingen kostbar ventetid – du betaler kun når du foretager API-anmodninger.
Offentlig regnskabsseddel næste dag. Moms er allerede medregnet hvor gældende.
INGEN PENGENE TILbage! Læs hele betalingsdokumentationen
Log ind eller registrer dig for at aktivere en API-rute.