v0.1.0 · доступен в контуре / SOC2-ready · on-prem · k8s

Throne Gate —
корпоративный шлюз для LLM

Один контур, прозрачные расходы, контроль над данными. Подключайте любые модели — облачные и self-hosted — через единую точку входа. Распределяйте бюджеты по командам, фиксируйте каждый токен и держите чувствительные данные под собственным замком.

Как это работает
API · OpenAI-compat
моделей · cloud + local
100%
on-prem · ваш контур
topology / live
clients
be
backend
an
analytics
ux
product
rd
research
gateway · v1
Throne Gate
routes OpenAI-compatible
policies PII · stop-list · quota
billing per key · team · proj
models
gpt
openai/gpt-4o
cl
anthropic
yg
yandexgpt
ll
llama-70b ●
qw
qwen2.5 ●
ситуация

ИИ перестал быть экспериментом — и превратился в инфраструктурную статью расходов

Когда внутри компании появляется десяток ИИ-инициатив, начинается зоопарк: разные провайдеры, россыпь ключей у разработчиков, локальные модели на отдельных серверах, счёт от OpenAI без понимания, кто и зачем его нагенерил. Параллельно служба ИБ задаёт неудобные вопросы: куда уходят промпты с клиентскими данными и есть ли журнал.

⚠ счёт месяца
$42 180 от OpenAI без аттрибуции
finance/ai-budget · unallocated
провайдеры
7 разных API, 3 runtime, 0 единых политик
openai · anthropic · ya-gpt · giga · vllm · ollama · …
ключи
134 в корп. контуре
из них «утекших» — 11
журнал ИБ
— нет —
prompt leak: not observable
ответственный
«не договорились»
team: ¯\_(ツ)_/¯
что мы предлагаем

Throne Gate собирает все обращения к LLM в одну управляемую точку

Биллинг, политики доступа и контроль содержимого запросов — в одном слое, под вашим управлением и в вашем периметре.

01 / готов к корп. среде

Свой контур, свой SSO, свой журнал

Развёртывание в собственном периметре, интеграция с корпоративным SSO, журналирование обращений, соответствие внутренним требованиям ИБ. Никаких облачных зависимостей там, где они нежелательны.

on-prem k8s bare-metal SSO SIEM audit
02 / один API — десятки моделей

OpenAI-совместимый формат, без переписывания клиентов

Подключение нового провайдера или локальной модели не требует переписывания клиентского кода. Перевод сервиса с GPT на свою Llama — смена строки в конфиге, а не спринт разработки.

POST /v1/chat/completions
model: "llama-70b-internal"
↳ было: "gpt-4o-2024-08"
03 / фильтрация на лету

Guardrails вычищает PII и секреты до модели

Встроенный модуль Guardrails удаляет персональные данные, секреты и нежелательный контент из запросов до их отправки. Правила настраиваются отдельно для команды, проекта или ключа.

input
«клиент Иван Петров, +7… жалуется на…»
→ sanitized → llm
как это меняет работу с ИИ

Переводим LLM из полигона разработки в предсказуемый рабочий инструмент

Три сценария, которые разворачиваются параллельно на одной инсталляции. Переключайтесь между ними, чтобы посмотреть, что именно появится у вас.

Все модели за общим фасадом

Вся работа с моделями идёт через один шлюз — внешние провайдеры и локальные веса оказываются за общим фасадом. Новый сервис включается в инфраструктуру за вечер, а не за две недели согласований.

  • Стандартный API-контракт для всех моделей
  • Выпуск, ротация и отзыв ключей из единого интерфейса
  • Гранулярные права: кто, какую модель, в каком объёме
live preview
backend-api → llama-70b
search-svc → gpt-4o-mini
analytics → yandex-gpt
chatbot → claude-haiku
4 сервиса · 4 модели · 1 контракт
возможности

Пять рабочих историй, которые становятся возможны в день один

Конкретные ситуации, в которых платформа разруливает то, что иначе превращается в многомесячный платформенный проект.

01

Микс локальных и облачных моделей

Backend-команда работает с локальной моделью, аналитики — с облачной. API один, ключи общие, головная боль с интеграциями — отсутствует.

02

Балансировка и фоллбэки между провайдерами

Если один провайдер деградирует — запросы автоматически уходят на резерв. Локальный и облачный трафик балансируется по правилам.

03

Каталог моделей по ролям

Разработке — весь каталог для экспериментов. Продакшен-сервисам — только согласованный список с фиксированным потолком расходов.

04

Дашборд расходов в реальном времени

Видно, какой сервис «съел» больше всего токенов, чьи ключи упёрлись в квоту и куда уходит основная часть бюджета.

05

PII-фильтры и стоп-листы

Перед попаданием в модель запрос прогоняется через фильтры. Политики настраиваются точечно — вплоть до отдельного ключа.

 задачи

Что закрывает платформа

Четыре направления, в которых ИИ-инициативы перестают быть источником сюрпризов для финансов и ИБ.

01

Управляемость

Чёткие правила для ключей, ролей, команд и сценариев. Один способ управлять — независимо от того, что под капотом.

02

Прозрачность

Видно распределение токенов, моделей и нагрузки в любом разрезе. Финансы, ИБ и инженерия смотрят на одну картину.

03

Безопасность

Гибкие фильтры для запросов с чувствительной информацией. Журнал доступа экспортируется во внешние SIEM.

04

Масштабируемость

Платформа держит рост нагрузки без переделки архитектуры. Горизонтальное масштабирование, ретраи и фоллбэки.

faq

Шесть вопросов, которые обычно задают первыми

Нет ответа на ваш вопрос? Напишите нам — пришлём whitepaper и соберём демо под ваш сценарий.

01
Можно ли поставить решение полностью on-premise?
Да. Это основной сценарий внедрения — платформа разворачивается в вашем контуре, без обязательных внешних зависимостей. Поддерживаются как bare-metal-инсталляции, так и Kubernetes.
02
Сколько моделей можно подключить одновременно?
Технического лимита нет. В одной инсталляции можно держать любое сочетание облачных провайдеров (OpenAI, Anthropic, Yandex GPT, GigaChat и др.) и локальных моделей через vLLM/Ollama/совместимые runtime'ы.
03
Что с безопасностью промптов?
Запросы проходят через модуль фильтрации до отправки в модель: маскирование персональных данных, удаление секретов, проверка по стоп-листам. Всё логируется, журнал доступа экспортируется во внешние SIEM.
04
Подходит ли для high-load в продакшене?
Да. Архитектура рассчитана на горизонтальное масштабирование, есть балансировка между моделями, ретраи и фоллбэки. В нагрузочных сценариях платформа сама перенаправляет запросы при деградации отдельных провайдеров.
05
Можно ли через платформу ходить во внешние LLM?
Можно. Помимо локальных моделей платформа выступает прокси к внешним провайдерам — это удобно, когда нужен централизованный учёт расходов и единые политики доступа независимо от того, где физически живёт модель.
06
Разные правила для разных команд — реально?
Да. Гранулярность настройки доходит до отдельного ключа: для каждой команды/проекта/пользователя можно задать свой список доступных моделей, лимиты, политики фильтрации и квоты.
внедрение · в вашем контуре

Готовы поставить Throne Gate в ваш контур и пройти с вами весь путь до промышленной эксплуатации

Оставьте заявку — соберём встречу с архитектором, разберём текущие ИИ-инициативы и предложим план развёртывания: от пилота на нескольких командах до полной интеграции с SSO, SIEM и корпоративным биллингом.

01
первый шаг
звонок с архитектором, 45 минут
02
пилот в контуре
от 2 недель — на ваших моделях и команде
03
формат поставки
k8s · bare-metal · air-gapped