ServiceNow met à jour son SLM open source Apriel

Le spécialiste de l’ITSM a présenté la version 2.0 de son petit modèle de langage Apriel. Il promet des performances améliorées avec des coûts maitrisés sans pour autant fournir des benchmarcks.

Profitant de la GTC de Nvidia qui s’est déroulée cette semaine à Wahsington, ServiceNow a annoncé une version mise à jour de son SLM open source Apriel basé sur le framework Nemotron. « Ce modèle cible les secteurs des services financiers, de la santé et des télécommunications, où les régulateurs ont incité les responsables IT à faire preuve de prudence vis-à-vis des systèmes d’IA propriétaires », a indiqué l’entreprise dans son communiqué. Selon ServiceNow, Apriel 2.0 offre un raisonnement comparable à celui de modèles beaucoup plus volumineux, tout en fonctionnant avec moins de matériel.

« Il traite des entrées multimodales (captures d’écran, formulaires, diagrammes) dont les entreprises ont besoin pour déployer des agents autonomes », a ajouté le fournisseur. Cependant, celui-ci n’a fourni aucun benchmark, aucune comparaison des coûts d’inférence ni aucune donnée montrant comment le modèle se positionne par rapport aux alternatives déjà en production. Apriel 2.0 sera mis en production d’ici le premier trimestre 2026.

Des modèles plus petits pour un marché déjà saturé

Cette deuxième itération a été développée à partir de la version précédente Apriel Nemotron 15B, présentée en 2025. Le fournisseur a également commercialisé récemment Apriel-1.5-15B-Thinker, un modèle open source, qui, selon lui, fonctionne sur un seul GPU. En termes de stratégie, le timing semble parfait pour ServiceNow : d’après une prévision de Gartner citée par le fournisseur, d’ici à 2027, les modèles plus petits et spécifiques à un contexte seront au moins trois fois plus utilisés que les grands modèles de langage généralistes. Apriel 2.0 fait son entrée sur un marché saturé de petits modèles open source pour les entreprises. Phi-4 de Microsoft, lancé en décembre 2024, exécute 16 milliards de paramètres et offre de bonnes performances dans les tâches de raisonnement malgré sa taille compacte. Llama 3.3-70B de Meta gère les dialogues dans huit langues avec une fenêtre contextuelle de 128 000 tokens. Gemma 2 de Google est disponible dans des configurations allant de 2 à 27 milliards de paramètres, optimisées pour les environnements aux ressources limitées.

Les modèles de Mistral vont de 1,3 milliard à 13 milliards de paramètres, avec un accent mis sur l’efficacité et la vitesse d’intégration. Ces modèles répondent tous aux mêmes préoccupations des entreprises : réduire les coûts du cloud, répondre aux exigences de souveraineté des données et fournir des pistes d’audit pour les secteurs réglementés. Ce qui reste flou, c’est la manière dont Apriel 2.0 se différencie au-delà de son intégration dans le flux de travail ServiceNow. « Les modèles ouverts offrent aux entreprises la transparence et le contrôle dont elles ont besoin pour adapter l’IA à leurs données, leurs workflows et leurs normes de confiance », a ajouté Kari Briski, vice-présidente de l’IA générative pour les entreprises chez Nvidia, dans un communiqué.

chevron_left
chevron_right