Infrastructure GPU pour vos modèles d’intelligence artificielle. Déployez, inférez et expérimentez — vos données restent au Canada.
Louez des GPUs pour un contrôle total, ou utilisez notre API d’inférence pour des modèles prêts à l’emploi.
Louez des instances GPU à l’heure. Installez ce que vous voulez — vos frameworks, vos modèles, vos pipelines. Accès SSH complet.
Envoyez une requête, recevez une réponse. API compatible OpenAI avec des modèles open-source pré-déployés et optimisés.
GPUs dédiés, pas de partage. Vos données en mémoire ne sont jamais accessibles par d’autres.
Utilisation GPU/VRAM, température, throughput en tokens/sec — tout dans la console UBQT.
Stockez vos modèles sur le Stockage Objet UBQT. Chargement rapide via réseau interne.
Images avec CUDA, PyTorch, vLLM, et Ollama pré-installés. Prêt à inférer en minutes.
Disponibles sur l’Inference API et en téléchargement pour vos instances GPU dédiées.
8B · 70B — Meta
7B · Mixtral 8x7B
7B · 32B · 72B
7B · 34B — Code
9B · 27B — Google
BGE · E5 · Nomic
Catalogue en constante expansion. Vous pouvez également déployer n’importe quel modèle compatible Hugging Face sur vos instances GPU dédiées.
Deux modèles de facturation selon votre usage.
| Tier | VRAM | vCPU | RAM | Stockage | Modèles supportés | Prix /heure | |
|---|---|---|---|---|---|---|---|
| gpu.starter | 16 Go | 8 | 32 Go | 200 Go SSD | ≤ 7B paramètres | 1.25$ | Réserver |
| gpu.pro Populaire | 24 Go | 12 | 64 Go | 500 Go SSD | ≤ 13B paramètres | 2.50$ | Réserver |
| gpu.performance | 48 Go | 16 | 128 Go | 1 To SSD | ≤ 70B paramètres | 5.00$ | Réserver |
| gpu.multi | Multi-GPU sur mesure | Sur mesure | Sur mesure | Sur mesure | 70B+ paramètres | Contactez-nous | Contacter |
* Facturation à l’heure (minimum 1h). Réservation mensuelle disponible avec rabais de 30%. Images CUDA/PyTorch/vLLM incluses. Tarifs en CAD.
* Pas de minimum. Pas de frais d’engagement. Tarifs en CAD. Taxes en sus.
Des cas concrets où l’hébergement canadien fait toute la différence.
Analysez des dossiers patients, résumez des rapports médicaux, assistez le diagnostic — avec la garantie que les données restent au Canada et respectent les lois provinciales.
Recherche jurisprudentielle, analyse de contrats, rédaction assistée. Données confidentielles de vos clients protégées par la souveraineté canadienne.
Analyse de risques, détection de fraude, service client intelligent. Conformité réglementaire canadienne assurée par la localisation des données.
Automatisation des services aux citoyens, traitement de documents, analyse de politiques. Infrastructure 100% canadienne pour les exigences gouvernementales.
Déployez des assistants IA sur l’Inference API avec l’API compatible OpenAI. Migrez depuis OpenAI/Azure en changeant un seul URL.
Combinez les embeddings UBQT avec vos bases de données vectorielles pour une recherche intelligente sur vos documents internes.
Vos modèles s’exécutent exclusivement sur de l’infrastructure canadienne.
Voici l’expérience avec l’Inference API.
Une seule clé pour tous les modèles de l’Inference API.
API compatible OpenAI — utilisez le SDK que vous connaissez déjà.
Changez le base_url — le reste de votre code reste identique.
Inscrivez-vous pour être averti dès que les services LLM / IA seront disponibles.
M’avertir au lancement →