Quand un client me demande comment déployer l'IA, ma première question n'est jamais "quel modèle ?"
C'est "où vivent vos données ?"
La réponse, presque toujours : des dossiers partagés, un serveur local, parfois encore du papier. Et la contrainte, toujours la même : ces données ne peuvent pas sortir du bureau. Secret professionnel. Obligations réglementaires. Confiance du client.
Le cloud n'est pas une option pour eux. Ce n'est pas un caprice. C'est la loi.
Le problème n'est pas technologique
On parle beaucoup des modèles. On parle peu de l'architecture.
La quasi-totalité des outils IA grand public -- ChatGPT, Claude, Gemini, Copilot -- sont construits sur le même modèle : vos données partent vers des serveurs externes, sont traitées là-bas, et une réponse vous revient. C'est rapide, pratique, et totalement incompatible avec les contraintes de millions d'entreprises.
Un cabinet d'avocats qui soumet des dossiers clients à ChatGPT ne commet pas une maladresse. Il commet une divulgation. Le Barreau du Québec l'a dit explicitement. La Loi sur le barreau est claire : le secret professionnel n'a pas d'exception pour "l'IA qu'on utilise discrètement au bureau."
Même chose pour une clinique médicale, un cabinet comptable, un bureau d'ingénieurs. La réglementation -- PIPEDA, Loi 25, PHIPA -- n'autorise pas l'envoi de données personnelles vers un fournisseur américain parce que c'est "pratique."
Et pour ceux qui pensent que stocker leurs données sur les serveurs canadiens de Microsoft règle le problème : le CLOUD Act américain permet aux autorités américaines de contraindre Microsoft à livrer vos données, peu importe où elles sont hébergées. Microsoft est une entreprise américaine. Ses serveurs canadiens n'y changent rien.
Le matériel existe. Ce n'est plus de la science-fiction.
C'est là où la conversation change depuis 2024.
Un Mac Mini M4 Pro -- dans les 2 000 $ -- fait tourner Qwen 2.5-32B à une vitesse tout à fait utilisable au quotidien. Réponses en quelques secondes. Aucune connexion internet requise. Vos documents restent sur votre réseau local.
Pour une charge plus lourde -- des milliers de documents, plusieurs utilisateurs en simultané, des tâches de génération longue -- une workstation équipée d'une NVIDIA RTX 5090 (32 Go de VRAM) gère des modèles de 30 milliards de paramètres sans effort. C'est le même GPU que celui qu'on retrouve dans des configurations de recherche qui coûtaient 200 000 $ il y a cinq ans.
Le prix du matériel a chuté. Les modèles sont devenus suffisamment bons pour un usage professionnel. Ce qui manquait, c'était l'intégration -- un système pensé pour des entreprises qui n'ont pas d'équipe technique, qui n'ont pas de temps pour configurer Linux, et qui ne veulent pas devenir expertes en infrastructure IA.
Ce que ça donne concrètement
Imaginez un cabinet de 15 avocats. Dix ans de dossiers, de contrats, de correspondances. Une montagne de savoir institutionnel que seuls les associés seniors peuvent naviguer -- parce qu'eux seuls savent où chercher.
Avec un système d'IA hébergé en interne :
- Un associé junior tape "quelles étaient les clauses de résiliation dans le dossier Tremblay 2022 ?" et obtient la réponse en trois secondes, avec la source citée.
- Une secrétaire demande au système de générer une première version d'une lettre de mise en demeure à partir des précédentes. Elle ajuste, elle signe. Vingt minutes de travail au lieu de deux heures.
- Un nouveau collaborateur s'intègre en deux semaines au lieu de deux mois, parce qu'il peut interroger dix ans de pratique du cabinet sans déranger personne.
Pas d'abonnement par utilisateur. Pas de données qui quittent le bureau. Pas de risque disciplinaire.
Le vrai calcul
On me demande souvent si l'IA locale est "rentable."
La question est mal posée.
Les outils cloud coûtent entre 20 et 30 $ USD par utilisateur par mois. Pour dix utilisateurs dans un cabinet : environ 4 000 à 5 000 $ CAD par an. Pour vingt-cinq utilisateurs : 10 000 à 12 000 $ CAD par an. En croissance.
Un système physique hébergé dans vos locaux coûte une fois. Le retour sur investissement pur se mesure en deux à quatre ans selon la taille de l'équipe.
Mais le calcul qui compte vraiment n'est pas le coût. C'est le risque.
Une violation de données en lien avec l'IA -- un employé qui a soumis des dossiers clients à un outil cloud sans le dire -- peut déclencher une plainte à la CAI, une sanction professionnelle, une perte de client, et une atteinte à la réputation qui ne se répare pas en trimestres. Le coût moyen d'une violation de données au Canada en 2025 est de 6,98 millions de dollars.
Un système hébergé en interne n'élimine pas tous les risques. Il élimine celui-là.
Ce que nous construisons
Chez Fardon Corp, nous construisons exactement ce système.
Pas une plateforme. Pas un abonnement cloud de plus. Un appareil physique qui s'installe dans vos locaux, se connecte à votre réseau, et commence à travailler avec vos documents. Sans équipe technique. Sans configuration complexe. Sans données qui franchissent vos murs.
Un seul paiement. Votre IA. Vos données. Votre toit.
La vraie question n'est plus "puis-je me permettre l'IA locale ?"
C'est "puis-je me permettre de continuer sans, tout en espérant que mes employés n'utilisent pas ChatGPT avec des dossiers clients en ce moment ?"
Si vous êtes dans une industrie réglementée et que cette question vous concerne, je suis disponible pour en discuter.