I server cloud di hetzner offrono molte prestazioni per euro, opzioni di vCPU dedicate e condivise, veloci SSD NVMe e fatturazione al minuto per un controllo totale [1][2][5]. Vi mostrerò quali tariffe sono adatte a siti web, database e container e come potete iniziare senza alcuna deviazione - incluso Prezzi e Consigli pratici.
Punti centrali
I punti che seguono vi daranno un breve orientamento, poi entrerò nei dettagli e vi mostrerò in modo chiaro Processi decisionali e Esempi:
- Rapporto prezzo-prestazioniA partire da 3,79 euro con NVMe e 20 TB di traffico [5].
- ScalavCPU, RAM, storage al volo tramite API/CLI [3][4]
- SicurezzaFirewall, protezione DDoS, backup, snapshot [1][2]
- ReteReti private, IP fluttuanti, bilanciatori di carico [1][4][5]
- LuoghiDE, FI, US, SG - Rispettoso del GDPR nell'UE [1][3]
Il Cloud Server Hetzner spiegato brevemente
Hetzner offre macchine virtuali basate sulle più recenti CPU AMD EPYC, Intel Xeon e Ampere Altra, abbinate a unità SSD NVMe in RAID10 e a una connessione da 10 Gbit/s, che garantiscono una velocità Latenze e IOPS [1][2][4]. Scelgo tra Shared vCPU per i progetti web tipici e Dedicated vCPU per i carichi di lavoro più impegnativi per la CPU, come l'inferenza, le pipeline di compilazione o i database [3][4]. L'installazione richiede pochi minuti, dopodiché controllo tutto tramite il pannello web, l'API REST o la CLI, compresi firewall, reti e volumi [4][5]. Le sedi in Germania e Finlandia aiutano a proteggere i dati, mentre altre regioni (USA, Singapore) estendono la portata per gli utenti globali [1][3]. La fatturazione al minuto è adatta a test, campagne a breve termine e lavori CI/CD, che si avviano e si interrompono automaticamente, senza una scadenza fissa. Termini [5].
Prezzi e tariffe in sintesi
Per iniziare, il prezzo è di circa 3,79 euro al mese (CX11, 1 vCPU, 2 GB di RAM, 20 GB NVMe, 20 TB di traffico) - ideale per lo staging, i bot o i siti web più semplici [5]. I progetti di medie dimensioni, come WordPress con cache o un negozio, funzionano comodamente con 4-8 vCPU e 8-16 GB di RAM; i costi mensili tipici sono compresi tra 12,90 e 31,90 euro (ad esempio CX31/CX41/CPX41) [5]. Se si desiderano core dedicati, si può optare per le tariffe CCX: Questa offre tempo di CPU costante per database o backend API e costa da 25,90 a 103,90 euro al mese, a seconda del pacchetto [2][5]. Tutte le tariffe includono un traffico generoso di almeno 20 TB, i pacchetti più grandi arrivano fino a 60 TB, più che sufficienti per molti progetti [2]. Grazie alla fatturazione al minuto, pago solo l'utilizzo effettivo. Utilizzare e mantenere i bilanci puliti pianificabile [5].
| Tariffa | vCPU | RAM | SSD NVMe | Traffico | Prezzo/mese |
|---|---|---|---|---|---|
| CX11 | 1 (Condiviso) | 2 GB | 20 GB | 20 TB | circa 3,79 € |
| CPX41 | 8 (Condiviso) | 16 GB | 160 GB | 20 TB | circa 31,90 € |
| CCX33 | 8 (Dedicato) | 32 GB | 240 GB | 20-60 TB | circa 103,90 € |
I costi aggiuntivi sono limitati: gli IP pubblici sono disponibili a un costo aggiuntivo a seconda del pacchetto e sono incluse funzioni quali firewall, reti private e utilizzo di API [1][2][4]. Se si desidera espandere lo storage in modo flessibile, è possibile prenotare volumi fino a 10 TB per volume e utilizzare uno storage a oggetti compatibile con S3 per backup o supporti, se necessario [1][5]. Questo mi permette di iniziare in piccolo, crescere rapidamente e fornire più capacità con breve preavviso durante i picchi di carico, per poi ridimensionare il tutto in un secondo momento. Questa elasticità riduce il rischio di overprovisioning ed evita un overprovisioning costoso. Tempi di inattività. Per i picchi ad alta intensità di calcolo, l'opzione di una vCPU dedicata rimane un'opzione Ancoraggio delle prestazioni [2][5].
Funzioni che contano nella vita quotidiana
La combinazione di NVMe, CPU di moderna generazione e uplink da 10 Gbit/s offre implementazioni veloci, consegna rapida dei pacchetti e un buon throughput per i backup [1][2][4]. Ho impostato firewall stateful direttamente nel pannello o tramite API e separato i servizi interni tramite reti private: in questo modo le interfacce rimangono snelle e i servizi chiaramente isolati [1][4]. Gli IP fluttuanti facilitano la manutenzione, perché in caso di incidente passo l'IP a un'istanza sana e inoltro il traffico senza latenza DNS TTL [4][5]. Salvo backup e istantanee su base temporale per consentire il rollback dopo aggiornamenti o release difettose [1][5]. Per la scalabilità orizzontale, posiziono un bilanciatore di carico davanti a diverse istanze, ideale per le istanze stateless. Microservizi e API [4][5].
Automazione e API
Automatizzo il provisioning, la rete, le regole del firewall e i volumi nelle pipeline CI/CD tramite l'API REST e la CLI [4][5]. Le configurazioni di Terraform o Ansible mappano distribuzioni ripetibili e riducono a zero i clic manuali. Questo mi permette di mantenere coerenti gli ambienti di sviluppo, staging e produzione, in modo da rendere prevedibili i processi di rilascio. Questo accorcia il time-to-value delle nuove funzionalità e riduce al minimo il rischio di fallimento dovuto alla deriva. Per i team, questo comporta una chiara Standard e meno Errore nel lavoro quotidiano.
Come iniziare: dalla prenotazione alla messa in onda
Seleziono la sede (ad esempio Norimberga o Helsinki) in base al gruppo target e ai requisiti di protezione dei dati, creo l'istanza e memorizzo le chiavi SSH. Quindi installo la configurazione di base: Aggiornamenti di sistema, firewall, Fail2ban e sincronizzazione temporale, quindi Docker/Podman o lo stack del server web. Per WordPress o i negozi, prevedo una cache (ad esempio FastCGI cache) e un volume di database separato per facilitare la migrazione. Configuro backup e snapshot fin dall'inizio, in modo da avere una via d'uscita chiara in caso di problemi. Utilizzo un bilanciatore di carico e una seconda istanza per aumentare la disponibilità e ridurre il numero di utenti. Il rischio all'indirizzo Manutenzione.
Per chi vale la pena iniziare?
I siti web e i blog beneficiano di punti di ingresso favorevoli, mentre i negozi e i portali con diverse vCPU e 8-16 GB di RAM ottengono più aria [5]. Gli sviluppatori utilizzano il clock al minuto per i test che vengono eseguiti solo quando necessario, risparmiando così sui costi fissi [5]. I cluster di database, gli stack di container o i sistemi di messaggistica funzionano bene con le vCPU dedicate perché forniscono un tempo di CPU costante [2][4]. Le aziende che si concentrano sull'UE apprezzano le sedi tedesche e finlandesi per una chiara base di conformità [1][3]. Se volete dare un'occhiata più da vicino all'ecosistema di hosting di Hetzner, potete trovare una panoramica compatta qui. Panoramica di Hetzner Webhosting con utili riferimenti agli scenari di progetto.
Hetzner Cloud rispetto ad altri fornitori
Il prezzo e le prestazioni si distinguono favorevolmente in un confronto di mercato, soprattutto grazie a un hardware robusto, molto traffico e una struttura dei costi semplice [2][5][6]. Per quanto riguarda le configurazioni di server dedicati, molti confronti citano webhoster.de come una chiara raccomandazione in termini di prestazioni e supporto - questo è adatto se il massimo controllo e i core costanti sono importanti [6]. Hetzner ottiene un punteggio elevato per le istanze cloud con funzionamento semplice, automazione e ubicazione nell'UE, utili per i requisiti di protezione dei dati [1][3][4]. DigitalOcean e AWS Lightsail rimangono alternative, soprattutto se sono necessari altri servizi dello stesso ecosistema [6]. Per molti progetti web e app, Hetzner fornisce una forte Base con moderata Costi [2][5].
| Fornitore | dal prezzo | Tipo di CPU | Margine RAM | Traffico | Luoghi | Valutazione |
|---|---|---|---|---|---|---|
| webhoster.de | 3,89 € | EPYC/Xeon | 2-192 GB | 20-60 TB | DE, UE | ⭐⭐⭐⭐⭐ |
| Hetzner | 3,79 € | EPYC/Xeon/Altra | 2-192 GB | 20-60 TB | DE, UE, USA, SG | ⭐⭐⭐⭐⭐ |
| DigitalOcean | 4,00 € | Condiviso/Dedicato | 2-128 GB | 4-10 TB | UE, USA | ⭐⭐⭐⭐ |
| AWS Lightsail | 3,50 € | Condiviso/Dedicato | 2-64 GB | 2-8 TB | In tutto il mondo | ⭐⭐⭐⭐ |
Configurazione ottimizzata per WordPress & Co.
Per WordPress, utilizzo da 2 vCPU e 4-8 GB di RAM, attivo OPcache, uso la cache FastCGI o un plugin per la cache snella e separo i caricamenti multimediali in un volume separato. Una configurazione NGINX/Apache con HTTP/2, Gzip/Brotli e l'ultima versione di PHP garantisce tempi di risposta rapidi. Un bilanciatore di carico con due istanze aiuta a gestire i picchi, mentre un servizio di database esterno o un volume dedicato riduce i colli di bottiglia I/O. Per i negozi, prevedo 8-16 GB di RAM, ricolloco le sessioni e la cache e assicuro regolari dump del database. In questo modo, le installazioni possono sopportare i picchi di carico e rimanere aggiornate. reattivo e sicuro.
Sicurezza e protezione dei dati
I firewall stateful e la protezione DDoS sono presenti nel pannello, consentendomi di definire e riutilizzare insiemi di regole per ogni progetto [1][2]. Chiavi SSH, login con password disattivata e aggiornamenti regolari sono obbligatori, oltre a Fail2ban e alla rotazione dei log. Creo backup a tempo e versioni; utilizzo snapshot prima di modifiche rischiose per rollback rapidi [1][5]. Per le questioni di conformità, scelgo sedi nell'UE, separo i dati dei clienti in sottoreti e imposto ruoli di minimo privilegio nell'API. In questo modo si riducono le superfici di attacco e si crea un sistema affidabile Processi per Audit.
Amministrazione, monitoraggio e supporto
Monitoro CPU, RAM, I/O e rete con grafici integrati o collego Prometheus/Grafana per raccogliere le metriche a livello centrale. Gli avvisi mi aiutano a definire i valori soglia in modo da poter scalare o ottimizzare in tempo utile. Per le configurazioni di server dedicati, vale la pena di dare un'occhiata a Interfaccia del robotse i progetti combinano entrambe le cose. L'assistenza è disponibile 24 ore su 24, 7 giorni su 7, e le chiare funzioni di self-service mi permettono di risolvere molti problemi direttamente nel pannello [6]. Questo significa che i processi operativi possono essere pianificati e che posso reagire più rapidamente a Incidenti e Picchi.
Controllo dei costi e scalabilità nella pratica
Inizio in piccolo, etichettando le risorse per progetto/team e utilizzando report mensili sui costi per gestire correttamente i budget. Il ramp-up e il ramp-down controllati nel tempo riducono i costi fissi negli ambienti di staging; l'autoscaling con i bilanciatori di carico copre le campagne o la stagionalità. Se i carichi di lavoro richiedono costantemente un tempo di CPU elevato, passo a una vCPU dedicata o considero la possibilità di passare a un server fisico. Per questa decisione, un breve Guida per i server rootche facilita la pesatura di nubi e lamiere. Questo mi permette di tenere sotto controllo i costi e di mantenere le prestazioni al momento giusto. Tempo a destra Posto.
VCPU condivise o dedicate: la scelta nella pratica
Le vCPU condivise trasportano i picchi di carico di molti clienti contemporaneamente. Questa soluzione è efficiente e favorevole finché i carichi di lavoro sono prevalentemente legati all'I/O (server web, cache, API con tempi di CPU brevi). I primi segnali che indicano la necessità di passare a una vCPU dedicata sono un utilizzo costante della CPU per fasi prolungate, code di build che vengono elaborate solo lentamente o database con latenze notevoli per le query complesse. Le vCPU dedicate offrono un tempo di CPU prevedibile, evitano di rubare tempo e di solito sono la scelta migliore per i carichi OLTP/OLAP, le pipeline di inferenza o i runner di build CI. Pratica: posso scalare le istanze verso l'alto o verso il basso tramite il ridimensionamento, testare i picchi su CCX e poi tornare a CPX quando il carico diminuisce. Per il controllo dei costi, taggo questi ridimensionamenti e ne documento il motivo, in modo che i budget rimangano tracciabili.
Strategie di archiviazione e prestazioni
Lo storage NVMe locale dell'istanza è molto veloce ed è adatto per il sistema operativo, le cache e gli artefatti transitori. Uso volumi a blocchi per i dati che devono vivere più a lungo e spostarsi tra le istanze. Migliori pratiche: Separo i log e i file del database nei propri mount, attivo noatimeA seconda del carico di lavoro, utilizzo ext4 (solido tuttofare) o XFS (ottimo per i file di grandi dimensioni) e prevedo una capacità libera sufficiente per le finestre di manutenzione (ad esempio VACUUM/ALTER TABLE). Le istantanee dei volumi vengono create rapidamente, ma sono coerenti solo in caso di crash: per i sistemi più esigenti congelo brevemente il file system o uso i dump logici. Eseguo backup in versione, testando regolarmente i ripristini in un'istanza di staging ed esternalizzando i grandi inventari di media sullo storage a oggetti per mantenere basso l'I/O sui server dell'applicazione.
Progettazione di rete, IPv6 e DNS
Le reti private separano i percorsi dei dati tra app, database e servizi interni. Definisco le mie sottoreti per ogni ambiente (dev/stage/prod) e imposto politiche di firewall restrittive (deny per impostazione predefinita). IP fluttuanti Lo uso per le distribuzioni blu-verdi: Avvio della nuova versione, attendo i controlli sullo stato di salute, quindi riassegno l'IP, senza TTL DNS o riscaldamento del proxy. Il dual stack con IPv4/IPv6 è lo standard; mantengo il reverse DNS per abbinare i servizi di posta e API in modo da mantenere stabili i tempi di reputazione e di handshake TLS. Per il traffico L7, il bilanciatore di carico gestisce i controlli di salute, le sessioni sticky e l'offloading TLS; internamente, indirizzo i servizi tramite IP privati per massimizzare la larghezza di banda e la sicurezza.
Contenitori e Kubernetes sul Cloud Hetzner
Per i carichi di lavoro dei container, inizio con Docker Compose o Podman Quadlets su un'istanza CPX: veloce, economica e tracciabile. Man mano che la configurazione cresce, metto a disposizione un piccolo Kubernetes (kubeadm o k3s) con 3 nodi control plane/worker. Il bilanciatore di carico del cloud è gestito da Ingress, mentre lo storage è fornito come volumi dinamici tramite un plugin CSI. Separo i pool di nodi in base al tipo di carico di lavoro (ad esempio, I/O-heavy vs. CPU-heavy) e mescolo CPX (efficiente dal punto di vista dei costi) e CCX (ad alta intensità di calcolo). La scalatura è guidata dagli eventi: gli HPA/autoscalatori assicurano l'elasticità a livello di pod e nodi; io scalo specificamente per le campagne tramite API e ricapitalizzo in seguito. È importante una chiara finestra di aggiornamento, in cui svuoto i nodi, sposto i carichi di lavoro e mantengo coerenti immagini e kernel.
Alta disponibilità e recupero
L'alta disponibilità inizia con il disaccoppiamento: stato in database/queues dedicati, istanze di app stateless dietro di essi. Distribuisco le istanze su diversi host (posizionamento/spread), uso almeno due server di applicazioni dietro il bilanciatore di carico e replico le istanze del database in modo asincrono. Regolare Ripristino dei test sono indispensabili: un backup è considerato buono solo se posso ripristinarlo in modo pulito. Per la manutenzione e gli incidenti, definisco gli obiettivi RTO/RPO, tengo pronti i runbook (ad esempio, "DB failover", "rolling restart", "TLS rotation") e li metto in pratica nello staging. Le strategie multiregionali riducono i rischi legati alla localizzazione; le strategie DNS o anycast integrano gli IP flottanti quando è necessario un routing globale.
Governance, conformità e gestione degli accessi
Lavoro con progetti ed etichette per separare chiaramente le risorse e ripartire i costi. Assegno i token API secondo il principio di privilegio minimo e li ruoto regolarmente. Uso ruoli di gruppo per l'accesso del team e blocco i login SSH con password a livello globale. I segreti sono archiviati in un gestore (ad esempio tramite ENV/Files only in RAM), non in Git. Archivio i log di provisioning per scopi di audit e mantengo la gestione delle modifiche concisa ma vincolante. Le sedi dell'Unione Europea aiutano a soddisfare i requisiti del GDPR; inoltre isolo i dati sensibili in sottoreti e cripto i volumi a livello di sistema operativo.
Evitare le trappole dei costi: Suggerimenti dal campo
Le istanze spente continuano a costare finché esistono: solo l'eliminazione pone fine alla fatturazione. Le istantanee e i backup comportano costi di archiviazione separati; le vecchie generazioni vengono ripulite automaticamente. I bilanciatori di carico, gli IP fluttuanti e i volumi sono poco costosi, ma si sommano in grandi flotte: le etichette e i rapporti mensili evitano i punti oscuri. I budget per il traffico sono generosi, ma pianifico comunque le riserve e metto in cache le risorse statiche in modo aggressivo. Per i carichi di lavoro a raffica, avvio istanze temporanee per un periodo di tempo limitato e ho pronta una lista di controllo che porta con sé tutte le risorse dipendenti durante lo smantellamento.
Migrazione e percorso di crescita
Il passaggio da una vCPU condivisa a una dedicata è un passaggio comune: clono l'istanza tramite snapshot, avvio la nuova dimensione, sincronizzo i delta e sposto l'IP flottante. L'azzeramento dei tempi di inattività si ottiene con Blue-Green o con un bilanciatore di carico: si aggiunge una nuova versione, si sposta il traffico passo dopo passo, si monitorano le fonti di errore, quindi si rimuove il vecchio cluster. Pianifico le migrazioni dei database con la replica, passo brevemente alla sola lettura ed eseguo il failover. Nel percorso verso l'hardware dedicato, mantengo gli stessi schemi: chiara separazione della rete, percorsi di automazione, backup testati e build riproducibili, in modo che il passo rimanga calcolabile.
Il mio breve giudizio
I cloud server di hetzner offrono un ottimo rapporto qualità-prezzo, molto traffico e un'automazione semplice, ideale per progetti web, API e container [2][4][5]. Se avete bisogno di una fatturazione flessibile, di sedi UE e di funzionalità prevedibili, potete iniziare rapidamente e continuare a crescere senza attriti [1][3][4]. I server dedicati, per i quali webhoster.de viene spesso citato come raccomandazione nei confronti [6], sono ideali per carichi continui e pesanti o per un hardware speciale. In pratica, combino entrambe le cose: cloud per le dinamiche, dedicato per gli scenari centrali costanti. In questo modo l'infrastruttura rimane snella, la bolletta trasparente e la Prestazioni Affidabile recuperabile.


