Skip to main content
Scarica e leggi gratis su app

GPU cloud computing: la rivoluzione di Seeweb con i chip AMD InstinctTM MI300X

19 Febbraio 2025

– Roma, 19/02/2025. Sta per iniziare una nuova fase nel mondo del cloud computing: Seeweb ha lanciato in anteprima per l’Italia servizi di GPU cloud supportati dai potenti chip AMD InstinctTM MI300X e dalla suite software ROCmTM, aprendo nuove opportunità per l’intelligenza artificiale e i calcoli ad alte prestazioni.

Seeweb si distingue in Europa come uno dei primi provider ad offrire soluzioni cloud basate su questi chip avanzati. Il servizio Cloud Server GPU con GPU AMD Instinct MI300X, inoltre, si avvale della tecnologia Lenovo ThinkSystem SR685a V3.

Il modello cloud si è consolidato come la soluzione ideale anche per l’intelligenza artificiale, così come per i carichi di lavoro più tradizionali, grazie alla sua semplicità, flessibilità e scalabilità, anche a breve termine. Il cloud computing con GPU è efficace per una vasta gamma di applicazioni, tra cui l’inferenza AI, il calcolo ad alte prestazioni (HPC) e il training dell’intelligenza artificiale.

La soluzione basata su chip AMD offre un ottimo rapporto qualità-prezzo, mentre il software open dell’ecosistema ROCm AMD Instinct è proposto da Seeweb su server equipaggiati con 8 GPU, ciascuna con chip MI300X. La configurazione include 265 vCPU, 2048 GB di RAM e 16 TB di spazio su disco.

Il chip AMD Instinct MI300X è stato sviluppato per ottimizzare i carichi di lavoro legati al calcolo ad alte prestazioni (HPC) e all’intelligenza artificiale (AI).

Grazie alla memoria dall’ampia capacità e la sua architettura particolarmente avanzata, si rivela particolarmente adatto in diversi ambiti, tra cui: simulazioni scientifiche, imaging in campo medico, data mining e analisi predittiva, rendering 3D, addestramento ed inferenza di modelli AI.

L’adozione di modelli di intelligenza artificiale basati su chip AMD sta crescendo rapidamente, affiancando i modelli già consolidati. I sistemi che supportano queste soluzioni sono realizzati sia da fornitori tradizionali che da nuovi attori del settore. La lista dei principali operatori continua ad ampliarsi, e tra questi si possono notare sia piccole che grandi società.

Alcuni provider cloud, come RunPod.io (Texas) e TensorWave.com (Nevada), hanno iniziato ad incorporare i chip MI300X nei loro sistemi, con prezzi variabili in base alla configurazione per l’uso del cloud.

Già nel 2024, Oracle ha reso disponibili gli acceleratori AMD MI300X nella propria infrastruttura cloud, mentre IBM ha annunciato l’integrazione dei chip AMD Instinct MI300X nel suo servizio cloud a partire dal 2025. Microsoft, invece, propone il servizio ND MI300X su Azure.

Anche Meta ed OpenAI stanno considerando l’inserimento di questi chip nei loro ecosistemi.

Con l’integrazione delle GPU AMD MI300X nella propria offerta di servizi cloud per l’intelligenza artificiale, Seeweb ha ampliato le opzioni tecnologiche a disposizione delle aziende, mantenendo il suo impegno verso la libertà di scelta e l’assenza di vincoli o limitazioni tecnologiche, garantendo elevati livelli di affidabilità e prestazioni dell’infrastruttura.

Nello specifico, i nuovi Cloud Server GPU si basano sulla piattaforma Lenovo ThinkSystem SR685a V3, progettata per supportare GPU di ultima generazione ad alte prestazioni. A ciò si affianca un modello commerciale flessibile, che consente di usufruire del servizio in modalità on demand, con una tariffazione basata sull’effettivo utilizzo.

Antonio Baldassarra, CEO Seeweb ha affermato che l’integrazione delle GPU AMD MI300X nel cloud Seeweb espanderà l’offerta Cloud GPU, permettendo alle aziende di gestire carichi complessi con un’architettura avanzata e maggiore memoria, ideale per modelli LLM avanzati. ha poi confermato che l’infrastruttura Lenovo ThinkSystem SR685a V3 accelererà applicazioni in ricerca scientifica, modellazione e rendering ad alte prestazioni.

Massimo Chiriatti, CTIO di Lenovo ha affermato che l’azienda contribuisce attivamente allo sviluppo del mercato dell’intelligenza artificiale per le imprese italiane ed europee, collaborando con i professionisti di Seeweb per progettare soluzioni che combinano alte prestazioni ed efficienza operativa.

Grazie a questa partnership, Seeweb può contare su un leader globale del settore IT, beneficiando di strumenti e servizi per accelerare i risultati e migliorare la produttività aziendale.

Queste soluzioni rappresentano una scelta strategica per l’evoluzione del modello di business di Seeweb, rafforzandone la posizione nel mercato AI.

Per maggiori informazioni è possibile visitare: https://www.seeweb.it/prodotti/cloud-server-gpu

La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!

Leggi anche

Scuola. Pro Vita Famiglia: Pd trasforma scuole in sezioni di partito. Al via petizione per Legge su Libertà Educativa

24 Febbraio 2025
(Adnkronos) 24 febbraio 2025. – Le scuole italiane si stanno trasformando in circoli di estrema …

Justin Sun, consulente globale di HTX, sostiene la collaborazione sulla sicurezza crittografica

24 Febbraio 2025
SINGAPORE, 23 febbraio 2025 /PRNewswire/ — In seguito al recente attacco informatico da 1,5 mili…

Coppa Italia – L’Inter vede la semifinale ma la Lazio sogna il tris Biancocelesti in semifinale a 3,25 su Sisal.it

24 Febbraio 2025
– Roma, 24 febbraio 2025 – Un grande classico della Coppa Italia va in scena a San Siro dove l’…

MWC 2025 | Transforming the Mobile AI Era with 5G-Advanced Intelligent Core Network and Three Intelligence Entries

24 Febbraio 2025
BARCELONA, Spain, Feb. 24, 2025 /PRNewswire/ — The fusion of 5G-Advanced (5G-A) and AI technolog…

Iscriviti alla newsletter de
La Ragione

Il meglio della settimana, scelto dalla redazione: articoli, video e podcast per rimanere sempre informato.

    LEGGI GRATIS La Ragione

    GUARDA i nostri video

    ASCOLTA i nostri podcast

    REGISTRATI / ACCEDI