L’intelligenza artificiale sta divorando il mercato della memoria
Chi ha comprato RAM o SSD in questi mesi lo sa: i prezzi stanno esplodendo.
E no, non è solo inflazione. L’intelligenza artificiale sta divorando memoria. Ogni nuovo data center AI richiede quantità enormi di DRAM e storage ad altissime prestazioni. Questa situazione modifica radicalmente il costo dell’hardware IT, e non solo nel cloud.
La pressione sulla catena di fornitura di memoria ad alta capacità
La richiesta di memoria per i server che supportano i servizi di intelligenza artificiale ha generato forti pressioni sulla filiera di approvvigionamento, rendendo complesso assicurare una disponibilità costante di configurazioni per il mercato consumer e professionale. In questo contesto, i produttori di chip stanno riallocando la produzione verso componenti più redditizi e performanti per l’AI, convertendo in massa le linee di produzione standard per fabbricare HBM (High Bandwidth Memory) destinata alle GPU per l’intelligenza artificiale. Poiché l’HBM è più redditizia ma consuma da 3 a 5 volte la capacità in wafer rispetto alla memoria standard, la produzione globale di RAM per server standard è fisicamente diminuita.
> Cos’è il wafer? Si tratta di una sottile fetta di silicio monocristallino su cui vengono stampati i circuiti integrati (chip). Non si misura la capacità in “numero di chip”, perché la dimensione di un chip varia enormemente: da un singolo wafer possono nascere migliaia di chip per sensori minuscoli o solo poche decine di potenti processori per l’IA.
Questa re-prioritizzazione ha un effetto domino: la disponibilità di RAM e NAND per PC, smartphone, console e altri device è diminuita drasticamente, mentre i prezzi sono saliti alle stelle. In alcuni casi la memoria ha raggiunto il 35% del costo di produzione di un PC, rispetto al 15-18% di un anno fa.
La portata di questo scenario va ben oltre le infrastrutture aziendali. Dispositivi di uso quotidiano come smartphone, console, router e apparecchi di fascia entry-level dipendono tutti da memoria e flash in qualche misura.
Nemmeno i colossi sono immuni. Persino Apple sta iniziando a sentire la pressione, basti pensare che a distanza di un anno dal lancio è stata rimossa configurazione da 512GB di memoria unificata per il Mac Studio M3 Ultra.
Perché l’AI è così affamata
Ogni volta che un modello di intelligenza artificiale elabora una risposta, non sta semplicemente “pensando”: sta gestendo enormi quantità di dati in tempo reale. I modelli linguistici di ultima generazione lavorano con miliardi di parametri che devono essere caricati e consultati istantaneamente, richiedendo una memoria ad alta velocità capace di alimentare calcoli continui senza colli di bottiglia.
A differenza di un’applicazione tradizionale, l’AI non esegue istruzioni semplici e lineari: ogni inferenza è un processo massiccio che mette sotto pressione sia la RAM che la memoria dei chip grafici. Più il modello è grande, più è capace ma anche più vorace.
La conseguenza diretta è che gli hyperscaler stanno pre-acquistando capacità hardware per addestrare i grandi modelli linguistici, lasciando pochissimo inventario disponibile per il resto del mercato enterprise e consumer.
Cosa cambia per il consumatore finale
Concretamente, chi acquista elettronica oggi e nei prossimi mesi dovrà fare i conti con tre realtà:
- Prezzi più alti. I rincari della memoria si riverseranno sui prodotti finiti. Laptop, smartphone, schede di espansione: tutto costerà di più.
- Meno novità. Il CES 2026 è stato inequivocabile: pochi lanci di prodotto consumer, molti annunci legati all’AI enterprise.
- Scorte limitate. Alcuni prodotti, dallo Steam Deck a SSD di marca, sono già difficili da reperire. La situazione potrebbe aggravarsi.
L’intelligenza artificiale non sta solo cambiando ciò che possiamo fare con la tecnologia. Sta cambiando cosa possiamo comprare, a che prezzo e quando. L’elettronica di consumo come la conoscevamo (accessibile, in costante miglioramento, abbondante) è entrata in una fase di transizione profonda.
Chi sopravviverà sarà chi saprà adattarsi: le aziende più grandi, con i muscoli finanziari per garantirsi forniture a lungo termine, e i consumatori più informati, capaci di anticipare i cicli di mercato piuttosto che subirli.
Per tutti gli altri, è il momento di fare il punto su ciò che si possiede e di non dare per scontato che domani sarà disponibile quello che non si è comprato oggi.
La prossima volta che senti dire che “l’AI cambierà tutto”, ricordati che il cambiamento è già iniziato. E lo stai già pagando, anche se non te ne sei ancora accorto.
L’articolo L’intelligenza artificiale sta divorando il mercato della memoria proviene da Hosting, domini e cloud: guide e novità – Il Blog di Shellrent.
PakarPBN
A Private Blog Network (PBN) is a collection of websites that are controlled by a single individual or organization and used primarily to build backlinks to a “money site” in order to influence its ranking in search engines such as Google. The core idea behind a PBN is based on the importance of backlinks in Google’s ranking algorithm. Since Google views backlinks as signals of authority and trust, some website owners attempt to artificially create these signals through a controlled network of sites.
In a typical PBN setup, the owner acquires expired or aged domains that already have existing authority, backlinks, and history. These domains are rebuilt with new content and hosted separately, often using different IP addresses, hosting providers, themes, and ownership details to make them appear unrelated. Within the content published on these sites, links are strategically placed that point to the main website the owner wants to rank higher. By doing this, the owner attempts to pass link equity (also known as “link juice”) from the PBN sites to the target website.
The purpose of a PBN is to give the impression that the target website is naturally earning links from multiple independent sources. If done effectively, this can temporarily improve keyword rankings, increase organic visibility, and drive more traffic from search results.