Infrastructure GPU pour vos modèles d’intelligence artificielle. Déployez, inférez et expérimentez — vos données restent au Canada.
De l’API simple aux modèles fine-tunés, tout reste au Canada.
Routage automatique vers le modèle optimal (Lite → Standard → Pro) selon la complexité.
Changez une ligne de code, pas votre stack. SDK Python, Node.js, curl — tout fonctionne.
Base vectorielle native pour enrichir les réponses avec vos données. 1 Go gratuit.
Entraînez un modèle personnalisé sur vos données. Déploiement automatique.
Données 100% au Canada, conforme Loi 25 et LPRPDE. Zéro transfert international.
Disponibles sur l’Inference API et en téléchargement pour vos instances GPU dédiées.
8B · 70B — Meta
7B · Mixtral 8x7B
7B · 32B · 72B
7B · 34B — Code
9B · 27B — Google
BGE · E5 · Nomic
Catalogue en constante expansion. Vous pouvez également déployer n’importe quel modèle compatible Hugging Face sur vos instances GPU dédiées.
Tous les prix en CAD, avant taxes (TPS/TVQ).
| Modèle | Input (/1M tokens) | Output (/1M tokens) | Cas d’usage |
|---|---|---|---|
| JRAF Lite | 0,35 $ | 1,40 $ | Chatbot, classification, triage |
| JRAF Standard Populaire | 1,50 $ | 6,00 $ | Rédaction, analyse, code, RAG |
| JRAF Pro | 8,00 $ | 32,00 $ | Raisonnement complexe, agents |
| Composant | Prix (CAD) |
|---|---|
| Accès API JRAF | Gratuit |
| Embeddings | 0,05 $ par 1M tokens |
| Base vectorielle (RAG) — 1 Go | Gratuit |
| Stockage vectoriel additionnel | 0,10 $/Go/mois |
| Fine-tuning (entraînement) | 15,00 $ par 1M tokens |
| Hébergement modèle fine-tuné | 2,00 $/h (actif) · 0 $ (inactif) |
| Crédit de démarrage | 5,00 $ offerts |
Exemple : agent JRAF, 100 conversations/jour (80 % Lite, 20 % Standard) ≈ 13 $/mois. Conforme Loi 25 et LPRPDE.
Des cas concrets où l’hébergement canadien fait toute la différence.
Analysez des dossiers patients, résumez des rapports médicaux, assistez le diagnostic — avec la garantie que les données restent au Canada et respectent les lois provinciales.
Recherche jurisprudentielle, analyse de contrats, rédaction assistée. Données confidentielles de vos clients protégées par la souveraineté canadienne.
Analyse de risques, détection de fraude, service client intelligent. Conformité réglementaire canadienne assurée par la localisation des données.
Automatisation des services aux citoyens, traitement de documents, analyse de politiques. Infrastructure 100% canadienne pour les exigences gouvernementales.
Déployez des assistants IA sur l’Inference API avec l’API compatible OpenAI. Migrez depuis OpenAI/Azure en changeant un seul URL.
Combinez les embeddings UBQT avec vos bases de données vectorielles pour une recherche intelligente sur vos documents internes.
Vos modèles s’exécutent exclusivement sur de l’infrastructure canadienne.
Voici l’expérience avec l’Inference API.
Une seule clé pour tous les modèles de l’Inference API.
API compatible OpenAI — utilisez le SDK que vous connaissez déjà.
Changez le base_url — le reste de votre code reste identique.
Inscrivez-vous pour être averti dès que les services LLM / IA seront disponibles.
Nous vous contacterons uniquement pour le lancement. Aucun spam.