ServicesModèlesTarifsCas d’utilisationRégionsAperçu
Fonctionnalités

IA souveraine, clé en main

De l’API simple aux modèles fine-tunés, tout reste au Canada.

💡

Escalade intelligente

Routage automatique vers le modèle optimal (Lite → Standard → Pro) selon la complexité.

🔌

API compatible OpenAI

Changez une ligne de code, pas votre stack. SDK Python, Node.js, curl — tout fonctionne.

📚

RAG intégré

Base vectorielle native pour enrichir les réponses avec vos données. 1 Go gratuit.

⚙️

Fine-tuning

Entraînez un modèle personnalisé sur vos données. Déploiement automatique.

🍁

Souveraineté

Données 100% au Canada, conforme Loi 25 et LPRPDE. Zéro transfert international.

Catalogue de modèles

Modèles open-source pré-optimisés

Disponibles sur l’Inference API et en téléchargement pour vos instances GPU dédiées.

Llama 3.1

8B · 70B — Meta

Mistral

7B · Mixtral 8x7B

Qwen 2.5

7B · 32B · 72B

CodeLlama

7B · 34B — Code

Gemma 2

9B · 27B — Google

Embeddings

BGE · E5 · Nomic

Catalogue en constante expansion. Vous pouvez également déployer n’importe quel modèle compatible Hugging Face sur vos instances GPU dédiées.

Tarifs

Facturation par token

Tous les prix en CAD, avant taxes (TPS/TVQ).

Modèles JRAF

ModèleInput (/1M tokens)Output (/1M tokens)Cas d’usage
JRAF Lite0,35 $1,40 $Chatbot, classification, triage
JRAF Standard Populaire1,50 $6,00 $Rédaction, analyse, code, RAG
JRAF Pro8,00 $32,00 $Raisonnement complexe, agents

Services complémentaires

ComposantPrix (CAD)
Accès API JRAFGratuit
Embeddings0,05 $ par 1M tokens
Base vectorielle (RAG) — 1 GoGratuit
Stockage vectoriel additionnel0,10 $/Go/mois
Fine-tuning (entraînement)15,00 $ par 1M tokens
Hébergement modèle fine-tuné2,00 $/h (actif) · 0 $ (inactif)
Crédit de démarrage5,00 $ offerts

Exemple : agent JRAF, 100 conversations/jour (80 % Lite, 20 % Standard) ≈ 13 $/mois. Conforme Loi 25 et LPRPDE.

Cas d’utilisation

L’IA souveraine pour votre entreprise

Des cas concrets où l’hébergement canadien fait toute la différence.

🏥 Santé & données sensibles

Analysez des dossiers patients, résumez des rapports médicaux, assistez le diagnostic — avec la garantie que les données restent au Canada et respectent les lois provinciales.

⚖️ Services juridiques

Recherche jurisprudentielle, analyse de contrats, rédaction assistée. Données confidentielles de vos clients protégées par la souveraineté canadienne.

🏦 Services financiers

Analyse de risques, détection de fraude, service client intelligent. Conformité réglementaire canadienne assurée par la localisation des données.

🏛️ Secteur public

Automatisation des services aux citoyens, traitement de documents, analyse de politiques. Infrastructure 100% canadienne pour les exigences gouvernementales.

💬 Chatbots & assistants

Déployez des assistants IA sur l’Inference API avec l’API compatible OpenAI. Migrez depuis OpenAI/Azure en changeant un seul URL.

🔍 RAG & recherche sémantique

Combinez les embeddings UBQT avec vos bases de données vectorielles pour une recherche intelligente sur vos documents internes.

Régions

Calcul IA au Canada

Vos modèles s’exécutent exclusivement sur de l’infrastructure canadienne.

Québec Prévu au lancement

CAN-QC01

Québec Prévu au lancement

CAN-QC02

Ontario Planifié

CAN-ON01
Aperçu

De zéro à l’inférence en 2 minutes

Voici l’expérience avec l’Inference API.

1

Obtenez votre clé API

Une seule clé pour tous les modèles de l’Inference API.

$ ubqt ullm apikey create --name mon-app
Clé créée — ubqt-sk-xxxxxxxxxxxx
2

Envoyez votre première requête

API compatible OpenAI — utilisez le SDK que vous connaissez déjà.

# Compatible avec le SDK OpenAI
$ curl https://api.can-qc01.ubqt.cloud/v1/chat/completions \
  -H "Authorization: Bearer ubqt-sk-xxxx" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "jraf-standard",
    "messages": [{
      "role": "user",
      "content": "Bonjour depuis le Cloud d'ici!"
    }]
  }'
3

Ou avec le SDK Python

Changez le base_url — le reste de votre code reste identique.

# pip install openai
from openai import OpenAI

client = OpenAI(
  base_url="https://api.can-qc01.ubqt.cloud/v1",
  api_key="ubqt-sk-xxxx"
)

response = client.chat.completions.create(
  model="jraf-standard",
  messages=[{"role": "user", "content": "Bonjour!"}]
)

print(response.choices[0].message.content)
# Bonjour! Comment puis-je vous aider aujourd'hui?

L’IA souveraine arrive

Inscrivez-vous pour être averti dès que les services LLM / IA seront disponibles.

Nous vous contacterons uniquement pour le lancement. Aucun spam.