...

Single-thread vs. multi-core: un confronto tra le migliori CPU per un web hosting di successo nel 2025

Nel 2025, la giusta strategia per la CPU determinerà se il vostro hosting brilla sotto carico o inceppa le richieste: il confronto delle cpu degli hosting web mostra quando i clock elevati a thread singolo sono più veloci e quando molti core assorbono i picchi di carico senza tempi di attesa. Vi spiego come le prestazioni single-thread e multi-core influenzano WordPress, i negozi e le API, includendo benchmark tangibili, criteri di acquisto chiari e raccomandazioni pratiche.

Punti centrali

I punti seguenti vi forniranno una guida rapida alla scelta della giusta configurazione della CPU.

  • A filo singoloTempo massimo di risposta per richiesta, forte della logica PHP e del TTFB.
  • Multi-CoreElevato throughput con carico parallelo, ideale per negozi, forum, API.
  • Banche datiBeneficiate di più core e di una cache veloce.
  • Carico del vServerL'overcommitment può rallentare le CPU di buona qualità.
  • Mix di riferimentoValutare insieme valori singoli e multi-core.

La CPU nel web hosting: ciò che conta davvero

Misuro il successo nell'ospitare Tempo di rispostaIl throughput e la stabilità sotto carico, non i picchi della scheda tecnica. Il clock del single-thread spesso determina il time-to-first-byte, mentre il conteggio dei core determina il flusso di richieste simultanee. Le cache, i worker PHP e il database esacerbano l'effetto: pochi core limitano le richieste parallele, i valori deboli del single-thread allungano i tempi di caricamento delle pagine dinamiche. Una CPU veloce a thread singolo è spesso sufficiente per i siti web di piccole dimensioni, ma la crescita, i cron job e l'indicizzazione delle ricerche richiedono più core. Per questo motivo, do la priorità a una combinazione equilibrata di un forte boost a singolo core e di più core.

Prestazioni a thread singolo: dove fa la differenza

Le elevate prestazioni a thread singolo migliorano la TTFBriduce le latenze di PHP e dei template e velocizza le azioni di amministrazione. Il backend di WordPress, WooCommerce, i plugin SEO e molte operazioni del CMS sono spesso sequenziali, per questo un core veloce ha un effetto notevole. Gli endpoint API con logica complessa e le pagine non memorizzate nella cache beneficiano di un clock boost elevato. In caso di picchi di carico, tuttavia, il quadro cambia rapidamente se si permette a un numero troppo limitato di core di lavorare simultaneamente. Uso deliberatamente il single-thread come turbo per i picchi dinamici, non come unica strategia.

Scalabilità multi-core: consegna parallela più veloce

Un maggior numero di core aumenta la CapacitàLa capacità di gestire molte richieste in parallelo - ideale per i picchi di traffico, i checkout dei negozi, i forum e i backend headless. I database, i worker PHP FPM, i servizi di caching e i server di posta utilizzano i thread simultaneamente e mantengono le code corte. Anche i processi di costruzione, l'ottimizzazione delle immagini e gli indici di ricerca vengono eseguiti molto più velocemente su multi-core. L'equilibrio rimane importante: troppi worker per poca RAM peggiorano le prestazioni. Pianifico sempre core, RAM e I/O come un pacchetto completo.

Architettura della CPU 2025: clock, IPC, cache e SMT

Valuto le CPU in base a IPC (istruzioni per clock), frequenza di boost stabile sotto carico continuo e topologia della cache. L'ampia cache L3 riduce le mancanze della cache del database e di PHP, mentre la larghezza di banda DDR5 aiuta a gestire valori di concurrency elevati e grandi set in-memory. SMT/ Hyper-Threading spesso aumenta il throughput del 20-30%, ma non migliora la latenza del singolo thread. Pertanto, vale quanto segue: per i picchi di latenza, mi affido a pochi core molto veloci; per il throughput di massa, scalerò i core e beneficerò anche dell'SMT. Con i progetti di core eterogenei (core per le prestazioni e core per l'efficienza), faccio attenzione a uno scheduling pulito: core misti senza pinning possono portare a valori TTFB fluttuanti.

vCPU, SMT e core reali: dimensionare i lavoratori in modo appropriato

Una vCPU è solitamente una filo logico. Due vCPU possono quindi corrispondere a un solo core fisico con SMT. Per evitare di annegare nei context switch e nelle code di ready, mantengo il Lavoratore PHP-FPM di solito a 1,0-1,5× vCPU, più la riserva per i thread di sistema e DB. Separo i lavori in background (code, ottimizzazione delle immagini) in pool separati e li limito deliberatamente in modo che le richieste del frontend non muoiano di fame. L'affinità/pinning della CPU funziona bene sui server dedicati: server web e PHP sui core veloci, lavori batch sui core rimanenti. Sui vServer, verifico se è consentito il bursting o se si applicano quote rigide - questo influenza direttamente la scelta del worker.

Confronto tra le CPU dei webhosting: Tabella 2025

Il seguente confronto riassume le Differenze tra l'attenzione al singolo thread e quella al multi-core in base ai criteri più importanti. Leggete la tabella da sinistra a destra e valutatela nel contesto dei vostri carichi di lavoro.

Criterio Focalizzazione a thread singolo Focus multi-core
Tempo di risposta per richiesta Molto breve per le pagine dinamiche Buono, varia con la qualità del nucleo
Throughput per il traffico di picco Limitato, le code aumentano Alto, distribuisce meglio il carico
Database (ad es. MySQL) Attività individuali veloci Forte con le query parallele
Cache e spunti Operazioni individuali veloci Prestazioni complessive più elevate
Scala Limitato verticalmente Migliore orizzontale/verticale
Prezzo per vCPU Spesso più economico Più alto, ma più efficiente

Pratica: WordPress, WooCommerce, Laravel

Con WordPress, le prestazioni elevate in single-thread aumentano la TTFBma diversi PHP worker hanno bisogno di core per superare gli assalti in modo pulito. WooCommerce genera molte richieste in parallelo: carrello della spesa, AJAX, checkout - il multi-core dà i suoi frutti. Anche le code di Laravel, i lavoratori Horizon e l'ottimizzazione delle immagini traggono vantaggio dal parallelismo. Se volete davvero scalare WordPress, combinate un clock boost veloce con 4-8 vCPU, a seconda del traffico e della frequenza di accesso alla cache. Per suggerimenti più approfonditi, date un'occhiata alla sezione Hosting WordPress con CPU ad alta frequenza.

Esempi di benchmark: cosa paragonare realisticamente

Sto eseguendo dei test con un mix di pagine cache e dinamiche, misurando p50/p95/p99 latenze e guardare al throughput. Esempio WordPress: con 2 vCPU e un singolo thread forte, le pagine dinamiche spesso raggiungono un TTFB di 80-150 ms con una bassa concurrency; sotto le 20 richieste simultanee, le latenze di p95 rimangono solitamente sotto i 300 ms. Se la concurrency sale a 50-100, la configurazione a 2 vCPU viene notevolmente stravolta: i tempi di attesa e le code determinano il TTFB. Con 4-8 vCPU, il punto di svolta si sposta significativamente a destra: il p95 rimane più a lungo al di sotto dei 300-400 ms, i flussi di checkout in WooCommerce mantengono il tempo di risposta più stabile e gli endpoint API con logica complessa forniscono un numero di richieste dinamiche al secondo 2-3× superiore prima che la latenza p95 aumenti. Questi valori sono specifici del carico di lavoro, ma illustrano il nucleo: il single-thread accelera, i core si stabilizzano.

Messa a punto in pratica: server web, PHP, database, cache

  • Server webKeep-Alive è utile, ma limitato; HTTP/2/3 alleggerisce le connessioni. L'offload di TLS con le istruzioni moderne è efficiente - i problemi di latenza di solito risiedono in PHP/DB, non in TLS.
  • PHP-FPMpm=dynamic/ondemand per adattarsi al carico; collegare start server e max_children a vCPU+RAM. Opcache sufficientemente grande (evitare frammenti di memoria), aumentare realpath_cache. Impostare i timeout in modo che le sospensioni non blocchino i core.
  • Banca datiInnoDB Buffer Pool 50-70% RAM, max_connections appropriato invece di "infinito". Mantenere gli indici, log delle query lento e attivo, controllare il piano delle query, usare i pool di connessioni. Thread pool/query parallele solo se il carico di lavoro lo consente.
  • Cache: prima la cache delle pagine e dell'intera pagina, poi la cache degli oggetti. Redis è in gran parte a thread singolo - beneficia direttamente di un clock elevato a thread singolo; istanze shard o pin CPU in caso di elevato parallelismo.
  • Code e lavoriLimitare i lavori batch e impostarli al di fuori del periodo di punta. Spostare l'ottimizzazione delle immagini, l'indice di ricerca e le esportazioni in code di lavoro separate con quote di CPU/RAM.

Trovare la CPU giusta: L'analisi dei bisogni invece dell'istinto

Inizio con il duro Valori misuratiutenti contemporanei, cache, CMS, cron job, condivisioni API, carichi di lavoro in coda. Definisco quindi i requisiti minimi e di picco e pianifico una riserva del 20-30%. I piccoli blog si comportano bene con 1-2 vCPU e un single core forte. I progetti in crescita vanno meglio con 4-8 vCPU e un clock boost veloce. Indecisi tra virtualizzato e fisico? Il confronto VPS vs. server dedicato chiarisce le demarcazioni e gli scenari applicativi tipici.

Leggere correttamente i benchmark: Singolo e multiplo in una confezione doppia

Valuto i benchmark come Bussolanon come un dogma. I punteggi single-core mi mostrano la velocità di avvio delle pagine dinamiche, quelli multi-core il throughput sotto carico. Sysbench e UnixBench coprono CPU, memoria e I/O, Geekbench fornisce valori singoli/multi comparabili. L'host è importante: i vServer condividono le risorse, l'overcommitment può falsare i risultati. Per le configurazioni PHP, faccio attenzione al numero di worker attivi e utilizzo suggerimenti come quelli contenuti nella guida di Lavoratori PHP e colli di bottiglia.

Isolamento delle risorse: vServer, dimensionamento e limiti

Controllo Tempo di furto e i valori di disponibilità della CPU per esporre il carico esterno sull'host. Spesso non sono i core a rallentare le cose, ma la RAM, l'I/O o i limiti di rete. Le unità SSD NVMe, le generazioni attuali di CPU e una quantità sufficiente di RAM hanno un effetto complessivo maggiore rispetto a un solo aspetto. Per ottenere prestazioni costanti, limito i lavoratori in base alla RAM e al buffer del database. L'isolamento pulito batte il puro numero di core.

I/O, larghezza di banda della memoria e gerarchie della cache

Le prestazioni della CPU vengono sprecate se Freni I/O. Valori elevati di iowait estendono il TTFB anche con core forti. Mi affido a NVMe con una profondità di coda sufficiente e pianifico i modelli di lettura/scrittura: log e file temporanei su volumi separati, DB e cache su classi di storage veloci. Presto attenzione ai progetti multi-socket o chiplet. Consapevolezza di NUMALe istanze del DB sono vicine alla memoria a loro assegnata, non lasciare che i processi PHP saltino sui nodi, se possibile. Le cache L3 di grandi dimensioni riducono il traffico cross-core, come si può notare in caso di elevata concorrenza e di molti oggetti "caldi" nella cache degli oggetti.

Latenza, hit della cache e database

Riduco i tempi di reazione prima con CacheLa cache delle pagine, la cache degli oggetti e la CDN tolgono pressione alla CPU e al database. Se rimangono molti hit dinamici, il clock del single-thread torna a contare. I database come MySQL/MariaDB amano la RAM per i pool di buffer e beneficiano di più core per le query parallele. Gli indici, l'ottimizzazione delle query e i limiti di connessione appropriati impediscono le cascate di lock. Questo mi permette di utilizzare la potenza della CPU in modo efficace, invece di sprecarla con query lente.

Energia, costi ed efficienza

Credo che Euro per richiesta, non euro per core. Una CPU con un IPC elevato e un consumo moderato può essere più produttiva di un processore multi-core economico con prestazioni deboli in single-thread. Per quanto riguarda i vServer, vale la pena di adottare una visione sobria: i buoni host limitano l'overcommitment e offrono prestazioni riproducibili. In un ambiente dedicato, l'efficienza paga in termini di costi di elettricità. Su base mensile, spesso vince la CPU bilanciata con prestazioni affidabili.

Schemi di dimensionamento: tre profili provati e testati

  • Contenuto/blog con cache2 vCPU, 4-8 GB di RAM, NVMe. Focus su un singolo thread, p95 dinamico sotto i 300-400 ms con un massimo di 20 richieste simultanee. PHP worker ≈ vCPU, Redis per la cache degli oggetti, cronjob a manetta.
  • Negozio/Forum Classe media4-8 vCPU, 8-16 GB di RAM. Solido single-thread più core sufficienti per le tempeste di checkout/AJAX. p95 stabile sotto i 400-600 ms con 50+ concurrency, code per mail/ordini, lavori di immagine disaccoppiati.
  • API/Senza testa8+ vCPU, 16-32 GB di RAM. Privilegiare il parallelismo, attenuare i picchi di latenza con core veloci. DB separato o come servizio gestito, pool di lavoratori strettamente limitati, scalabilità orizzontale prevista.

Virtuale o dedicato: cosa cerco nelle CPU

All'indirizzo vServer Verifico la generazione (core moderni, DDR5), la politica di overcommitment, il tempo di furto e la coerenza nel corso della giornata. Le vCPU riservate e gli scheduler equi fanno la differenza più dei semplici core di marketing. Con server dedicati Oltre al clock/IPC, valuto soprattutto la dimensione della cache L3, i canali di memoria e il raffreddamento: un boost vale qualcosa solo se dura sotto carico continuo. Le piattaforme con molti core e un'elevata larghezza di banda della memoria trasportano database e cache parallele con maggiore sicurezza; le piattaforme con un boost molto elevato brillano per le latenze CMS/REST. Scelgo in base al carico dominante, non in base al valore massimo della scheda tecnica.

Sicurezza, isolamento e disponibilità

I servizi critici separati Istanzeper limitare le interruzioni ed eseguire gli aggiornamenti senza rischi. Un maggior numero di core facilita l'esecuzione degli aggiornamenti, perché c'è spazio sufficiente per il funzionamento in parallelo. Le prestazioni a thread singolo aiutano a gestire le finestre di manutenzione brevi, consentendo ai lavori di migrazione di terminare rapidamente. Per l'alta disponibilità, la CPU ha bisogno di riserve in modo che il failover non sia immediatamente sovraccaricato. Il monitoraggio e gli avvisi assicurano il vantaggio nella pratica.

Piano di misurazione e implementazione: come garantire le prestazioni

  • Linea di baseMetriche per TTFB, p95/p99, CPU (utente/sistema/rubatoio), RAM, iowait, blocchi DB.
  • Prove di caricoMix di percorsi cache/dinamici, aumentando la concorrenza fino al punto di rottura. Variare i limiti di worker e DB, osservare p95.
  • Fasi di messa a puntoUna modifica per iterazione (worker, opcache, pool di buffer), quindi eseguire nuovamente il test.
  • Introduzione di CanaryTraffico parziale su una nuova CPU/istanza, confronto in tempo reale con la linea di base.
  • Monitoraggio continuoAvvisi per latenza, tassi di errore, tempo di furto e code pronte.

Contabilità dei costi: euro per richiesta in termini pratici

Calcolo con le latenze target. Esempio: un progetto richiede un p95 inferiore a 400 ms con 30 utenti simultanei. Una piccola configurazione a 2 vCPU con un singolo thread forte riesce quasi a gestire questo requisito, ma con poche riserve - i picchi di tanto in tanto lo fanno salire. Una configurazione con 4-6 vCPU costa di più, mantiene p95 stabile e previene le cancellazioni del carrello; il Euro per ogni richiesta andata a buon fine spesso diminuisce perché vengono eliminati gli outlier e i tentativi. Pertanto, non pianifico il core più economico, ma la soluzione più stabile per lo SLO target.

Guida alle decisioni in 60 secondi

Immagino cinque DomandeQuanto è alta la quota dinamica? Quante richieste sono in esecuzione contemporaneamente? Quanto funzionano le cache? Quali lavori sono in esecuzione in background? Di quale riserva ho bisogno per i picchi? Se predomina la dinamica, scelgo un clock single-thread elevato con 2-4 vCPU. Se predomina il parallelismo, opto per 4-8 vCPU e solidi valori single-core. Se il progetto cresce, scalerò prima i core, poi la RAM e infine l'I/O.

Prospettive e sintesi

Oggi decido a favore di un Equilibriopotente single-thread boost per un TTFB veloce, core sufficienti per i picchi di carico e processi in background. Questo mantiene WordPress, WooCommerce, i forum e le API stabili e veloci. Supporto i benchmark con metriche in tempo reale dal monitoraggio e dalle analisi dei log. Le cache, le query pulite e un numero ragionevole di worker consentono di ottenere il meglio da ogni CPU. Se tenete d'occhio questo mix, alla fine avrete una scelta di CPU nel 2025 che combina perfettamente prestazioni e costi.

Articoli attuali

Sala server con sovraccarico di traffico e limiti di hosting
web hosting

Perché molti piani di hosting calcolano il traffico in modo errato

Perché molti piani di hosting calcolano il traffico in modo errato: spiegazione dei miti relativi al limite di traffico di hosting, alla larghezza di banda di hosting e alle prestazioni. Consigli e vincitori dei test su webhoster.de.