Passer au contenu principal

La gamme

Trois modèles. Un principe : le vôtre.

Nos modèles sont à poids ouverts. Vous téléchargez les fichiers. Ils s'exécutent sur votre matériel. Aucun appel API, aucune dépendance au nuage.

flash-1-mini

IA personnelle, mobile, périphérie, première IA privée

Gratuit — pour toujours

Niveau 1 (portable)

Spécifications

Paramètres
4 milliards
Longueur de contexte
8K jetons
Quantification recommandée
Q4_K_M (~2,7 Go)
Matériel minimum
Tout portable avec 4+ Go de RAM
Licence
Poids ouverts, aucune limite sur le nombre d'employés

Capacités

  • Bilingue anglais / français
  • Réponses avec citations sourcées
  • Appel de fonctions
  • Optimisé RAG
  • Plusieurs niveaux de quantification GGUF
  • Optimisé pour les appareils à faible mémoire
  • Réponse sub-seconde sur Apple Silicon
  • Quantifications de Q2_K à fp16

Compatibilité

  • Ollama
  • LM Studio
  • llama.cpp
  • Tout runtime conforme GGUF
Liens de téléchargement disponibles au lancement

flash-1

Usage métier quotidien, RAG, appel de fonctions

99 $ une seule fois

Niveaux 1–2 (portable à station de travail)

Spécifications

Paramètres
9 milliards
Longueur de contexte
16K jetons
Quantification recommandée
Q4_K_M (~5,5 Go)
Matériel minimum
8 Go de RAM ou GPU d'entrée
Licence
Gratuit pour les organisations de moins de 50 employés

Capacités

  • Bilingue anglais / français
  • Réponses avec citations sourcées
  • Appel de fonctions
  • Optimisé RAG
  • Plusieurs niveaux de quantification GGUF
  • Équilibre raisonnement et vitesse
  • Optimisé pour la Q&R sur documents et l'usage d'outils
  • Quantifications de Q3_K_M à fp16

Compatibilité

  • Ollama
  • LM Studio
  • llama.cpp
  • Tout runtime conforme GGUF
Liens de téléchargement disponibles au lancement

flash-1-pro

Entreprise, défense, raisonnement complexe, multi-utilisateurs

499 $ une seule fois

Niveaux 2–4 (station de travail à colocation)

Spécifications

Paramètres
27 milliards
Longueur de contexte
32K jetons
Quantification recommandée
Q4_K_M (~16 Go)
Matériel minimum
24+ Go de VRAM ou 32+ Go de RAM
Licence
Licence commerciale requise pour les organisations de plus de 50 employés

Capacités

  • Bilingue anglais / français
  • Réponses avec citations sourcées
  • Appel de fonctions
  • Optimisé RAG
  • Plusieurs niveaux de quantification GGUF
  • Meilleur raisonnement et suivi des instructions
  • Optimisé pour le déploiement vLLM multi-utilisateurs
  • Quantifications de Q3_K_M à fp16

Compatibilité

  • Ollama
  • LM Studio
  • llama.cpp
  • Tout runtime conforme GGUF
  • vLLM pour inférence multi-utilisateurs
Liens de téléchargement disponibles au lancement

Quel modèle utiliser ?

Trois questions. Deux minutes. Nous n'avons pas besoin de votre courriel.

Utilisateur seul ou équipe ?

Seul→ flash-1-mini ou flash-1
Équipe→ flash-1 ou flash-1-pro

Gérez-vous des données réglementées (juridique, santé, finance) ?

Oui→ flash-1 au minimum, flash-1-pro recommandé
Non→ flash-1-mini suffit pour la plupart des cas

Déploiement isolé du réseau ou multi-utilisateurs ?

Oui→ flash-1-pro
Non→ flash-1-mini ou flash-1 suffit

Licences

Niveau gratuit

flash-1-mini est gratuit pour toujours — usage personnel, professionnel, commercial, peu importe. Téléchargez-le et utilisez-le.

Petites organisations (moins de 50 employés)

flash-1 et flash-1-pro sont des achats uniques. Aucuns frais par siège. Aucun abonnement.

Entreprise (50+ employés, secteurs réglementés, défense)

Licence commerciale disponible avec soutien au déploiement. Consultez la page Entreprise ou contactez-nous.

Questions que vous pourriez avoir

Si vous en avez une qui manque, écrivez-nous.

Que signifie réellement « à poids ouverts » ?

Vous obtenez les fichiers du modèle. Vous pouvez les inspecter, les exécuter, les ajuster. Il n'y a pas de version hébergée de nos modèles par laquelle vous devez passer. Les poids vivent sur votre machine.

C'est quoi GGUF ? Faut-il quelque chose de spécial pour le faire tourner ?

GGUF est un format de fichier pour modèles d'IA. Il fonctionne avec Ollama, LM Studio, llama.cpp et tout runtime conforme. Si vous avez un Mac, Windows ou Linux moderne avec la RAM recommandée, vous avez déjà ce qu'il faut. Téléchargez le fichier, pointez votre runtime dessus, terminé.

Est-ce que ce sont des modèles Llama ajustés ?

Non. Nous les avons entraînés à partir de zéro sur du calcul canadien. Nous l'avons fait pour posséder toute la pile, et pour que vous la possédiez aussi — aucune licence en amont à gérer, aucun propriétaire en amont qui peut changer les règles.

Puis-je commercialiser les sorties ?

Oui. Les sorties sont les vôtres. Utilisez-les dans vos livrables, vos livrables clients, vos outils internes, les produits que vous vendez. La licence du modèle couvre l'exécution du modèle. Elle ne réclame pas la propriété de ce que vous générez.

Et les bancs d'essai ?

Les bancs d'essai sont publiés à chaque lancement de modèle. Ceux de flash-1-mini arrivent avec le modèle à la fin mai 2026. Nous ne pré-annoncerons pas de chiffres — la manipulation de bancs d'essai fait partie de ce qui ne va pas dans l'industrie. Vrais chiffres, sur le modèle réel que vous pouvez télécharger.

Comment fonctionnent les mises à jour des modèles ?

Vous recevez une notification quand une nouvelle version est disponible. Vous décidez de la télécharger ou non. La version que vous avez déjà continue de fonctionner pour toujours — nous ne pouvons pas briser ou révoquer un modèle déjà téléchargé.

Que se passe-t-il si SimpleDirect fait faillite ?

Vos modèles continuent de fonctionner. Ce sont des fichiers sur votre matériel. Nous ne pouvons pas les révoquer, même en cessant d'exister. C'est tout le point des poids ouverts.

Est-ce que ça fonctionne sans Internet ?

Oui. Une fois téléchargé, le modèle s'exécute entièrement sur votre matériel. Le mode avion fonctionne. Un réseau isolé aussi.

Quels systèmes d'exploitation sont pris en charge ?

Les runtimes GGUF fonctionnent sur macOS, Windows et Linux. L'application de bureau de septembre 2026 sortira sur macOS et Windows au lancement, Linux suivra.

Mes données vous sont-elles envoyées ?

Non. Nous n'exploitons pas de serveurs d'inférence. Nous ne pourrions pas collecter vos requêtes même si nous le voulions. L'application de bureau, à sa sortie, n'envoie aucune télémétrie. Consultez la politique de confidentialité pour plus de détails.

Soyez averti quand les modèles sortent

flash-1-mini arrive fin mai 2026. flash-1 en juillet. flash-1-pro en septembre. Un courriel par lancement.

Rejoindre la liste d'attente