Amvera LLM Inference

Общая доступность LLM планируется 15 июля 2025 г.

Мы предоставляем доступ к нескольким большим языковым моделям через единый публичный API.

Аутентификация

Чтобы использовать Amvera LLM Inference API, необходимо пройти аутентификацию:

Для этого в ЛК, нужно зайти в любую модель в разделе LLM, и скопировать токен доступа. Затем, при обращении к моделе, укажите токен доступа в заголовке X-Auth-Token в следующем формате: [X-Auth-Token: Bearer <access_token>]

API

Доступные варианты инференса

/llama

  1. llama8b — модель с 8 миллиардами параметров, оптимизированная для эффективной обработки текста.

  2. llama70b — модель с 70 миллиардами параметров, обеспечивающая более высокое качество генерации и обработки текста.

/gpt

  1. gpt-4.1 — модель gpt-4.1 от OpenAI.

  2. gpt-5 — модель gpt-5 от OpenAI.

Конечная точка модели

Для отправки запросов к моделям используйте следующий формат запроса к конечной точке: POST /models/<inference_name>. Например: POST /models/llama

Эта конечная точка позволяет отправлять запросы к выбранной модели. В зависимости от ваших нужд, в теле запроса нужно выбрать одну из доступных моделей (llama8b или llama70b).

Пример запроса/ответа:

Request:

{
  "model": "llama8b", 
  "messages": [
    {
      "role": "user",
      "text": "Hi, how are you?"
    }
  ]
}

Интеграция с LangChain/LangGraph

Установите библиотеку для интеграции.

pip install langchain langchain-amvera

Код интеграции


from langchain_amvera import AmveraLLM
from dotenv import load_dotenv
import os

load_dotenv()

# Поддерживаемые модели: llama8b, llama70b, gpt-4.1, gpt-5
llm = AmveraLLM(model="llama70b", api_token=os.getenv("AMVERA_API_TOKEN"))

response = llm.invoke("Объясни принципы работы нейросетей простым языком")
print(response.content)

Файл .env:

AMVERA_API_TOKEN=your_amvera_token_here

Подробная информация про адаптер для LangChain/LangGraph по ссылке https://pypi.org/project/langchain-amvera/