Mistral AI, una startup di intelligenza artificiale con sede a Parigi, si è affermata come uno dei leader nel campo dell’AI in Europa. La loro recente chiusura di un round di finanziamento Serie A di 385 milioni di euro, pari a circa 415 milioni di dollari, ha portato la valutazione dell’azienda a circa 2 miliardi di dollari.
Questo segna un importante passo in avanti per Mistral AI, che aveva precedentemente raccolto 112 milioni di dollari in un round di finanziamento iniziale solo sei mesi prima. La società, fondata da ex membri di Google DeepMind e Meta, si concentra su modelli fondamentali con un approccio tecnologico aperto.
Mistral AI ha recentemente lanciato il suo primo modello, il Mistral 7B, un modello di linguaggio di grandi dimensioni non destinato a competere direttamente con modelli come GPT-4 o Claude 2, in quanto è stato addestrato su un set di dati relativamente “piccolo” di circa 7 miliardi di parametri. Invece di offrire l’accesso al modello Mistral 7B tramite API, l’azienda lo ha reso disponibile gratuitamente per il download, consentendo agli sviluppatori di eseguirlo sui propri dispositivi e server. Il modello è stato rilasciato sotto la licenza open source Apache 2.0, che non impone restrizioni sull’uso o sulla riproduzione oltre alla citazione.
Mistral AI ha anche svolto un ruolo significativo nel plasmare le discussioni attorno al Regolamento sull’IA dell’UE, facendo lobby per un’esenzione totale per i modelli fondamentali e sostenendo che la regolamentazione dovrebbe applicarsi ai casi d’uso e alle aziende che lavorano su prodotti utilizzati direttamente dagli utenti finali. Di recente, i legislatori dell’UE hanno raggiunto un accordo politico che impone alcuni requisiti di trasparenza alle aziende che lavorano su modelli fondamentali, richiedendo loro di condividere documentazione tecnica e riassunti di ciò che è contenuto nei set di dati.
Oltre al modello Mistral 7B (“Mistral-tiny”), gli sviluppatori possono ora accedere al nuovo modello Mixtral 8x7B (“Mistral-small”), che utilizza una “rete di router” per elaborare i token in ingresso e scegliere il gruppo di parametri più adatto per fornire una risposta. Questa tecnica aumenta il numero di parametri di un modello mantenendo sotto controllo i costi e la latenza, poiché il modello utilizza solo una frazione del set totale di parametri per token. Mixtral 8x7B, con 45 miliardi di parametri totali ma solo 12 miliardi per token, è anch’esso disponibile gratuitamente per il download sotto la licenza Apache 2.0.
L’ambizione di Mistral AI è diventare il principale sostenitore della comunità open di intelligenza artificiale generativa e portare i modelli aperti a prestazioni all’avanguardia. Sebbene il modello Mistral 7B possa essere scaricato e utilizzato da chiunque, differisce dall’essere “open source” nel senso tradizionale, poiché è stato sviluppato privatamente e i set di dati e i pesi utilizzati sono anch’essi privati. Il modello gratuito è disponibile per l’uso, ma se si desidera approfondire, sarà necessario optare per il prodotto a pagamento dell’azienda, che sarà distribuito come soluzioni “white-box”, rendendo disponibili sia i pesi che i codici sorgente.