Schnellstart
Entdecken Sie LLMrouter.eu Schnellstart in weniger als 5 Minuten.
LLMrouter.eu ist ein sicheres Gateway zur Verwaltung von Large Language Models (LLMs) aus der EU, entwickelt für Organisationen, die Datenschutz, Kostenoptimierung und EU‑Compliance benötigen. Es verhindert Vendor‑Lock‑In, gewährleistet den Schutz Ihrer Daten und ermöglicht die Integration der neuesten KI‑Technologien in Ihre Geschäftsprozesse. LLMrouter eignet sich ideal für skalierbare, konforme AI‑Lösungen in regulierten Umgebungen.
Starten Sie mit nur wenigen Codezeilen oder nutzen Sie Ihr bevorzugtes SDK.
Direkte Nutzung der LLMrouter.eu API
Sie können die LLMrouter.eu API direkt mit jedem HTTP‑Client verwenden, da die Endpunkte vollständig OpenAI‑API-kompatibel sind. Richten Sie Ihre Anfragen einfach an https://proxy.llmrouter.eu/v1 und nutzen Sie Ihren API‑Schlüssel zur Authentifizierung.
Ersetzen Sie YOUR_API_KEY durch Ihren tatsächlichen LLMrouter.eu API key.
- Python
- Javascript
- TypeScript (fetch)
- Curl
import requests
url = "https://proxy.llmrouter.eu/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "Hello, LLMrouter!"
}
]
}
response = requests.post(url, headers=headers, json=data)
print(response.json())
const response =
await fetch('https://proxy.llmrouter.eu/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'gpt-3.5-turbo',
messages: [
{
role: 'user',
content: 'Hello, LLMrouter!'
}
]
})
});
const result = await response.json();
console.log(result);
fetch('https://proxy.llmrouter.eu/v1/chat/completions', {
method: 'POST',
headers: {
Authorization: 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'gpt-3.5-turbo',
messages: [
{
role: 'user',
content: 'Hello, LLMrouter!'
}
]
})
})
.then(response => response.json())
.then(obj => console.log(obj.choices[0].message.content));
curl --location 'https://proxy.llmrouter.eu/v1/chat/completions' \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "Hello, LLMrouter!"
}
]
}'
Verwendung des OpenAI‑SDKs
- Python
- TypeScript
from openai import OpenAI
client = OpenAI(
base_url="https://proxy.llmrouter.eu/v1",
api_key="YOUR_API_KEY",
)
completion = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": "Hello, LLMrouter!"
}
]
)
print(completion.choices[0].message.content)
import OpenAI from 'openai';
const openai = new OpenAI({
baseURL: 'https://proxy.llmrouter.eu/v1',
apiKey: 'YOUR_API_KEY'
});
async function main() {
const completion = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [
{
role: 'user',
content: 'Hello, LLMrouter!'
}
]
});
console.log(completion.choices[0].message);
}
main();
Verfügbare Modelle auflisten
Sie können alle für Ihren API-Schlüssel verfügbaren Modelle mit dem /models Endpunkt abrufen.
- Python
- Javascript
- TypeScript (fetch)
- Curl
import requests
url = "https://proxy.llmrouter.eu/v1/models"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
response = requests.get(url, headers=headers)
print(response.json())
const response =
await fetch('https://proxy.llmrouter.eu/v1/models', {
method: 'GET',
headers: {
'Authorization': 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
}
});
const result = await response.json();
console.log(result);
fetch('https://proxy.llmrouter.eu/v1/models', {
method: 'GET',
headers: {
Authorization: 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
}
})
.then(response => response.json())
.then(data => {
console.log('Verfügbare Modelle:');
data.data.forEach((model: any) => {
console.log(`- ${model.id}: ${model.object}`);
});
});
curl --location 'https://proxy.llmrouter.eu/v1/models' \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json"
Verwendung des OpenAI‑SDKs für Modelle
- Python
- TypeScript
from openai import OpenAI
client = OpenAI(
base_url="https://proxy.llmrouter.eu/v1",
api_key="YOUR_API_KEY"
)
# Alle verfügbaren Modelle auflisten
models = client.models.list()
print("Verfügbare Modelle:")
for model in models.data:
print(f"- {model.id}")
import OpenAI from 'openai';
const openai = new OpenAI({
baseURL: 'https://proxy.llmrouter.eu/v1',
apiKey: 'YOUR_API_KEY'
});
async function main() {
// Alle verfügbaren Modelle auflisten
const models = await openai.models.list();
console.log('Verfügbare Modelle:');
for (const model of models.data) {
console.log(`- ${model.id}`);
}
}
main();
Nutzung von Drittanbieter‑SDKs
- VSCode Copilot - VS Code Copilot Integration