IA Sobre et Souveraine : Comment batir l’IA Wysistat en respectant nos valeurs ?

À l’heure où l’intelligence artificielle redéfinit nos outils numériques, une question s’impose : peut-on concilier puissance de calcul, respect de la vie privée et responsabilité écologique ? Chez Wysistat, nous avons étudié les solutions et fait des choix disruptifs.

#IA#WebAnalytics

IA Sobre et Souveraine : Comment batir l’IA Wysistat en respectant nos valeurs ?
Laurent Naigeon


Web Analyst

Chez Wysistat, la protection des données stratégiques de nos clients est inscrite dans notre ADN. Après avoir permis aux entreprises de reprendre le contrôle sur leur Web Analytics, nous franchissons une nouvelle étape : l’intégration d’une Intelligence Artificielle qui respecte nos valeurs de souveraineté, de frugalité et d’utilité.

Nous avons mené une étude approfondie pour prouver qu’il est possible de concilier performance technologique et responsabilité environnementale. Voici les coulisses de notre démarche.

Une infrastructure locale pour une donnée souveraine

Pour garantir une IA 100 % souveraine, nous avons fait un choix radical : l’auto-hébergement. Contrairement aux solutions basées sur le cloud propriétaire, nos modèles tournent sur nos propres serveurs.

Notre configuration matérielle

Pour faire tourner des modèles de langage (LLM) de manière fluide, nous avons conçu une infrastructure optimisée :

  • Puissance de calcul (GPU) : 2x NVIDIA RTX 5090 (32 Go de VRAM chacune). C’est le cœur du système, car un LLM doit être chargé intégralement en mémoire vidéo pour répondre rapidement.
  • Cerveau (CPU) : Intel® Core™ Ultra 9 285K (24 cœurs), capable de monter jusqu’à 5,7 GHz.
  • Mémoire (RAM) : 64 Go DDR5 Kingston FURY.
  • Stockage : SSD NVMe Crucial 2 To pour un accès ultra-rapide aux données.

Côté logiciel, nous utilisons une stack Open Source robuste : Linux Ubuntu, Ollama pour l’implémentation des modèles, et OpenWebUI pour l’interface.

Le choix du LLM : l’équilibre entre poids et « intelligence »

L’IA frugale, c’est utiliser le modèle le plus petit possible pour une tâche donnée. Nous avons testé une vingtaine de modèles de différentes origines (France, USA, Chine) selon un protocole rigoureux.

Protocole de test automatisé

Nous avons développé une interface spécifique pour soumettre près de 70 questions réparties en 7 catégories : langage, raisonnement, traduction, mathématiques, code, analyse de PDF et recherche web. Ces questions, dont nous connaissions les réponses ont ensuite été posées à une vingtaine de LLM, nous avons estimé la qualité de chaque réponse pour au final calculer un taux de réussite.

Le grand gagnant : gpt-oss 20b

Après analyse, le modèle gpt-oss 20b s’est imposé comme le meilleur compromis :

  • Qualité : Une note de 79 % (montant à 89 % si l’on exclut la recherche web, point faible de tous les modèles locaux).
  • Rapidité : Une vitesse impressionnante de 208 tokens/seconde.
  • Frugalité : Avec 20 milliards de paramètres, il tient parfaitement dans notre VRAM de 32 Go.
ModèleTaux de réussiteVitesseTaille VRAMConso par questionCO2eq par question
gpt-oss (20b)79%208 t/s14 Go1.8Wh0.10gCO2e
Qwen 3 (30b)81%164 t/s19 Go4.5Wh0.25gCO2e
Llama 3.3 (70b)61%34 t/s43 Go2.8Wh0.15gCO2e
Mistral Small 3.273%80t/s15 Go6.5Wh0.36gCO2e
Gemma 367%69t/s17Gb2.1Wh0.12gCO2e

Consommation énergétique : la transparence avant tout

Une IA sobre doit être mesurée. Nous avons installé des outils de monitoring (Grafana, Scaphandre et une prise connectée Bluetooth développée en interne) pour suivre la consommation en temps réel.

Ce qu’il faut retenir de nos mesures :

  • Au repos : Le serveur consomme environ 62 kWh/mois, soit 3.5 kgCO2e.
  • En usage intensif : Avec un usage de 10h par jour du modèle gpt-oss 20b, la consommation monte à 152 kWh/mois, soit 8.5kgCO2e.
  • Impact : Un serveur IA consomme environ 2,5 fois plus qu’un serveur web classique en charge.

Pour nous, la sobriété passe par le principe de proportionnalité : ne pas mobiliser un serveur si une simple fonction de calcul suffit. Aussi, en limitant au maximum l’usage de l’IA sur notre interface et en faisant un usage asynchrone (voir chapitre suivant), l’usage de l’IA n’est pas de 10h par jour mais en moyenne pour nos alertes de 11min/jour pour 1000 comptes, soit une émission moyenne de 152gCO2e par mois.

Rappelons que l’infrastructure complète de Wysistat émet environ 100 kgCO2e/mois pour 8 milliards de PV mesuré, ce qui fait une augmentation inférieure à 1% lié à Wysistat AI.

Un usage « utile » : choix d’un usage asynchrone

Enfin, nous avons fait un choix stratégique en termes d’usage : nous aurions pu donner accès à un chabot en ligne sur le dashboard de consultation des données, pour permettre à chaque utilisateur de « parler » à ses données. Mais après avoir beaucoup discuté avec nos clients, nous avons estimé que cet usage n’était pas « Utile ».

Aussi, nous avons fait un autre choix : celui d’un usage asynchrone de l’IA et de la mobilisation de cette brique technique seulement si c’est utile. Nous avons donc développé des algorithmes complexes de détection d’anomalie de trafic (voir article sur la prévision de trafic), qui sous certaines conditions vont lancer une analyse IA. Nous fournissons alors à notre IA locale les données spécifiques afin qu’elle puisse analyser l’anomalie :

  • Qualification : forte ou légère, le niveau d’alerte n’est pas le même
  • Déterminer l’orrgine principale : pic Google Discover, double marquage, suppression du marqueur ou serveur en rade, campagne SEM…
  • Détailler son impact précis : pages ayant bénéficiées de la hausse/baisse de trafic.

En ayant mené une étude approfondie et méthodique, et en faisant des choix assumés et transparent, nous prouvons qu’il est possible de parler d’IA sobre, frugale et souveraine. Wysistat continue d’innover pour vous offrir des outils d’analyse intelligents, rapides et, surtout, dont vous restez le seul maître.