Febbre da ChatGpt ma a guadagnare sarà chi fa "pale e picconi"

Come al tempo della corsa all'oro i veri vincitori saranno i produttori di chip

Mercoledì 5 Aprile 2023 di Roberta Amoruso
Febbre da ChatGpt ma a guadagnare sarà chi fa "pale e picconi"

Durante la corsa all’oro, non furono i cercatori d’oro ad arricchirsi, ma i venditori di pale e picconi.

La famosa citazione riferita alla febbre dell’oro nella California dell’800 è la bussola utilizzata oggi da ODDO BHF AM per individuare i potenziali vincitori di domani nell’enorme mercato in crescita per la generazione di contenuti da parte dell’intelligenza artificiale, “AI generativa”, culla di ChatGPT. In Italia il Garante della privacy ne ha vietato l’utilizzo. Almeno finché non rispetterà il regolamento sulla privacy. Mentre Elon Musk e altri 1.000 fra ricercatori e manager hanno chiesto una «pausa» di sei mesi nello sviluppo, il tempo di ponderarne a fondo i rischi. Ma se è facile immaginare dei paletti in futuro, sarà difficile fermare il treno in corsa. Si tratta di un capitolo che richiede investimenti monstre. È quindi essenziale comprendere per tempo i segmenti infrastrutturali chiave su cui l’AI generativa sarà ancorata, se si vogliono identificare i “fornitori di pale e picconi” della nuova tecnologia. Partiamo dal Cloud Computing 2.0. L’infrastruttura globale di reti e server informatici remoti ha già avuto una forte spinta con la migrazione dei sistemi IT aziendali verso il cloud pubblico e la necessità di infrastrutture per gestire l’esplosione dei dati generati dal traffico Internet. Ma l’emergere di strumenti di AI generativa rappresenta un ulteriore guadagno, su scala ben diversa, per i fornitori di cloud pubblico. Ciò riguarda i tre operatori leader a livello mondiale: Amazon Web Services, Microsoft Azure e Google Cloud.

E l’improvvisa accelerazione delle esigenze sta aprendo la strada alla fase 2.0 del cloud computing.

LA TECNOLOGIA

 Poi c’è il capitolo chip per l’intelligenza artificiale, un fronte sul quale Nvidia è l’attore ultra-dominante. Il produttore Usa di processori grafici ad alte prestazioni appare il grande vincitore dell’AI generativa. L’impennata delle azioni lo dimostra (da 131 a 252 dollari in soli tre mesi). Non pesa solo l’impareggiabile potenza di calcolo dei chip di Nvidia, ma anche l’esclusivo ecosistema hardware e software fornito ai suoi clienti.

Questi chip e questo ecosistema sono di fatto uno standard per l’AI. Di conseguenza, Nvidia, i cui chip forniscono l’80% della potenza richiesta dall’AI generativa, è attualmente l’unico produttore in grado di soddisfare le richieste. Tra gli altri produttori di semiconduttori interessati dalla forte crescita della capacità di calcolo ci sono poi Marvell e AMD. Per la presenza nel segmento dei chip per data center è da segnalare di nuovo Marvell insieme a Broadcom, con la leadership negli ASIC (circuiti integrati dedicati ad applicazioni specifiche). Nella catena del valore dei chip di calcolo, vale poi la pena di citare a valle la taiwanese Tsmc (per le capacità produttive di alto livello) e a monte i produttori di memorie Samsung Electronics, SK Hynix o Micron (le cui memorie Dram ad alta larghezza di banda sono sottocomponenti dei chip più elaborati di Nvidia). Va infine ricordato che un server di intelligenza artificiale richiede una memoria Dram da due a tre volte superiore a quella di un server tradizionale. Apparecchiature di rete ad alte prestazioni necessarie per la diffusione dell’intelligenza artificiale generativa sono infine i router o i componenti ottici. Arista, Cisco o Juniper (per le apparecchiature di rete), ma anche Coherent o Lumentum (per la parte ottica) sono in prima linea. La partita è aperta.

© RIPRODUZIONE RISERVAT

Ultimo aggiornamento: 6 Aprile, 09:31 © RIPRODUZIONE RISERVATA