Telex: Sansdisk dévoile un SSD à 256 To, SentinelOne acquier Prompt Security, OpenAI lance deux LLM de raisonnements ouverts

Sandisk dévoile un SSD à 256 To. A l’occasion du Flash Memory Summit, le fournisseur a présenté le SSD Nvme SN670 doté d’une capacité maximale de 256 To (existant aussi en 128 To). De format U.2, il repose sur une NAND QLC 3D BiCS de 218 couches et une interface PCIe gen5. Le lecteur est conçu pour les datacenters avec des charges de travail gourmandes en données et pilotées par l’IA, telles que l’ingestion et la préparation de données. Sandisk n’a pas donné de détails sur les performances du SSD, mais a mis en avant la technologie Direct Write QLC où le contrôleur peut écrire des données directement dans la mémoire QLC, et non dans un tampon SLC. La société a précisé que les SN670 seront disponibles au 1er semestre 2026. Cette annonce intervient quelques semaines après celles de Kioxia qui a présenté le SSD LC9 de 245 To ou Micron qui affiche la même capacité avec le  6600 ION.

SentinelOne acquiert Prompt Security. Pour se renforcer dans la protection de l’IA, SentinelOne a annoncé le rachat de Prompt Security, start-up fondée en 2023 par Itamar Golan (CEO) and Lior Drihem (CTO). Si le montant de l’opération n’a pas été communiqué, le journal Calcalistech l’évalue à 250 M$. La société propose une extension pour navigateur capable d’identifier les usages d’IA à risque, de filtrer les requêtes sensibles, d’analyser le code généré par des assistants IA et de protéger les modèles internes contre les attaques (injection de prompts, jailibreak,…). L’intégration de cette technologie à la plateforme Singularity illustre une dynamique de consolidation croissante autour des enjeux de cybersécurité liés à l’IA, comme l’a souligné Tomer Weingarten CEO de SentinelOne dans un billet de blog.

-OpenAI lance deux LLM de raisonnement ouverts. L’éditeur a présenté gpt-oss-120b et gpt-oss-20b, disponibles sous licence Apache 2.0. Le premier plus grand et plus performant peut fonctionner sur un seul GPU Nvidia, et le second plus léger marche sur sur un ordinateur portable grand public doté de 16 Go de mémoire. Comparés aux modèles o, les deux LLM sont capables d’exécuter du code, d’interagir avec des systèmes externes tels que des bases de données et d’ajuster leur temps de traitement en fonction de la complexité des requêtes. Ils reposent sur une architecture mixture of experts et prennent en charge un contexte étendu de 128 000 tokens. Disponibles en téléchargement depuis Hugging Face, ces modèles open weight sont également accessibles pour la première fois sur AWS via Bedrock ou Sagemaker. 

chevron_left
chevron_right