Multiverse Computing presenta CompactifAI API su AWS

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito
Abruzzo
Agevolazioni
Agrigento
Alessandria
Ancona
Aosta
Arezzo
Ascoli-Piceno
Aste L'Aquila
Asti
Avellino
Bari
Barletta-Andria-Trani
Basilicata
Belluno
Benevento
Bergamo
Biella
Bologna
Bolzano
Brescia
Brindisi
Cagliari
Calabria
Caltanissetta
Campania
Campobasso
Caserta
Catania
Catanzaro
Chieti
Como
Cremona
Crotone
Cuneo
Emilia-Romagna
Enna
Ferrara
Firenze
Foggia
Forli-Cesena
Friuli-Venezia Giulia
frosinone
Genova
Gorizia
Grosseto
Imperia
Isernia
Italia
La-Spezia
Latina
Lazio
Lecce
Lecco
Liguria
Livorno
Lodi
Lombardia
Lucca
Macerata
Mantova
Marche
Massa-Carrara
Matera
Medio Campidano
Messina
Milano
Modena
Molise
Monza-Brianza
Napoli
Novara
Nuoro
Olbia Tempio
Oristano
Padova
Palermo
Parma
Pavia
Perugia
Pesaro-Urbino
Pescara
Piacenza
Piemonte
Pisa
Pistoia
Pordenone
Potenza
Prato
Puglia
Ragusa
Ravenna
Reggio-Calabria
Reggio-Emilia
Rieti
Rimini
Roma
Rovigo
Salerno
Sardegna
Sassari
Savona
Sicilia
Siena
Siracusa
Sondrio
Sud sardegna
Taranto
Teramo
Terni
Torino
Toscana
Trapani
Trentino-Alto Adige
Trento
Treviso
Trieste
Udine
Umbria
Valle d'Aosta
Varese
Veneto
Venezia
Verbania
Vercelli
Verona
Vibo-Valentia
Vicenza
Viterbo


Multiverse Computing, leader nelle tecnologie avanzate di intelligenza artificiale e quantistiche, annuncia la disponibilità su AWS della sua CompactifAI Application Programming Interface (API) per la compressione e l’ottimizzazione dei principali modelli di intelligenza artificiale. Questo traguardo è stato raggiunto dopo un anno di intenso sviluppo, test e pianificazione strategica, reso possibile anche grazie alla partecipazione di Multiverse Computing al programma AWS Generative AI Accelerator 2024. L’API CompactifAI rappresenta la prima soluzione lanciata nell’ambito di un accordo di investimento strategico tra Multiverse Computing e AWS per supportare soluzioni LLM scalabili, economicamente vantaggiose e di facile utilizzo su AWS.

L’API CompactifAI, ora disponibile su AWS Marketplace, offre un solido livello di accesso serveless ai modelli LLM, sfruttando AWS Sagemaker Hyperpod per ottimizzare la scalabilità dell’inferenza dei modelli compressi ultra-efficienti su un cluster di centinaia di GPU all’avanguardia. In qualità di membro del programma AWS Generative AI Accelerator 2024, Multiverse ha lavorato a stretto contatto con AWS per:

  • Comprimere e ottimizzare i principali modelli AI per migliorarne le prestazioni e ridurne i costi
  • Progettare un’esperienza di onboarding fluida per gli utenti tramite AWS Marketplace
  • Sviluppare una strategia di go-to-market che garantisca la diffusione, la scalabilità e il successo

L’API CompactifAI offrirà modelli compressi di Meta Llama, DeepSeek e Mistral, fornendo agli utenti l’accesso a un’ampia gamma di Large Language Model ottimizzati e adattati su misura per diverse esigenze in termini di performance e costi. Integrando questi modelli, Multiverse Computing offre ai clienti la possibilità di scalare con facilità soluzioni avanzate di AI generativa, supportando molteplici casi d’uso e, al contempo, massimizzando l’efficienza e riducendo al minimo le richieste dell’infrastruttura.

L’integrazione dei modelli compressi di CompactifAI nel nostro chatbot di assistenza clienti ha rappresentato un punto di svolta – ha dichiarato Rubén Espinosa, CTO dell’assistente AI LuziaAbbiamo ridotto l’impronta del nostro modello di oltre il 50%, mantenendo un’alta qualità delle risposte, con minori tempi di latenza e costi ridotti. L’elevata efficienza dei modelli compressi ci consente di offrire interazioni più rapide e affidabili ai nostri utenti in Paesi diversi, senza compromettere la comprensione del linguaggio naturale”.

Questo non è solo il lancio di un prodotto, è il culmine di un percorso strategico – ha dichiarato Enrique Lizaso, CEO di Multiverse Computing – Abbiamo sviluppato l’API CompactifAI partendo da zero per rivoluzionare l’utilizzo dell’intelligenza artificiale, offrendo soluzioni altamente performanti ed economicamente vantaggiose, e siamo entusiasti di portare questo progetto sul mercato con AWS”.

“L’API CompactifAI di Multiverse Computing aiuterà un numero sempre maggiore di aziende a sfruttare le capacità avanzate di intelligenza artificiale, offrendo opzioni accessibili per ottimizzare i modelli in base alle proprie esigenze”, ha dichiarato Jon Jones, Vice President e Global Head of Startups di AWSQuesto tipo di innovazioni può svolgere un ruolo fondamentale nella democratizzazione dell’accesso all’intelligenza artificiale, permettendo a un’ampia gamma di aziende di utilizzare questa tecnologia”.

Multiverse Computing sfrutta le tecnologie cloud per offrire un’infrastruttura API scalabile, sicura e altamente performante. Grazie al supporto integrato al go-to-market, l’azienda è ora in grado di raggiungere i clienti in modo efficace e incrementare le vendite tramite AWS Marketplace. I modelli offrono un formato user-friendly, comprensivo di documentazione, licenze e onboarding chiari -– accessibili tramite il Marketplace e una landing page dedicata.

La landing page dell’API CompactifAI offre:

  • Model Card con specifiche dettagliate, prezzi e metriche sulle performance
  • Strumenti di confronto per aiutare i clienti a scegliere il modello più adatto
  • Documentazione API completa
  • Condizioni di licenza chiare per ciascun modello
  • Onboarding semplificato tramite AWS Marketplace



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link