Les serveurs cloud de hetzner fournissent beaucoup de puissance par euro, offrent des options vCPU dédiées et partagées, des disques SSD NVMe rapides et une facturation à la minute pour un contrôle total [1][2][5]. Je montre quels tarifs sont adaptés aux sites web, aux bases de données et aux conteneurs et comment tu peux démarrer sans détour - y compris Prix et Conseils pratiques.
Points centraux
Les points suivants te donnent brièvement une orientation - ensuite, j'entrerai dans les détails et montrerai des exemples clairs. Voies de décision et Exemples:
- Rapport qualité-prix: Démarrage à partir de 3,79 € avec NVMe et 20 To de trafic [5]
- Mise à l'échelle: vCPU, RAM, mémoire à la volée par API/CLI [3][4]
- Sécurité: pare-feu, protection contre les DDoS, sauvegardes, snapshots [1][2].
- Réseau: Réseaux privés, IP flottantes, Load Balancer [1][4][5]
- SitesDE, FI, US, SG - RGPD-friendly in the EU [1][3]
Hetzner Cloud Server en bref
Hetzner propose des machines virtuelles basées sur les CPU AMD EPYC, Intel Xeon et Ampere Altra actuels, combinés à des disques SSD NVMe en RAID10 et à une connexion de 10 Gbit/s - ce qui garantit des performances rapides. Latence et IOPS [1][2][4]. Je choisis entre le vCPU partagé pour les projets web typiques et le vCPU dédié pour les charges de travail gourmandes en CPU comme l'inférence, les pipelines de construction ou les bases de données [3][4]. Le déploiement ne prend que quelques minutes, ensuite je contrôle tout via le panneau web, l'API REST ou la CLI - y compris les pare-feux, les réseaux et les volumes [4][5]. Des sites en Allemagne et en Finlande aident à protéger les données, d'autres régions (États-Unis, Singapour) élargissent la portée pour les utilisateurs mondiaux [1][3]. La facturation à la minute est adaptée aux tests, aux campagnes à court terme et aux travaux CI/CD que je démarre et arrête automatiquement - sans frais fixes. Durées [5].
Aperçu des prix et des tarifs
Pour les débutants, le prix est d'environ 3,79 € par mois (CX11, 1 vCPU, 2 Go de RAM, 20 Go NVMe, 20 To de trafic) - idéal pour le staging, les bots ou les sites web légers [5]. Les projets de taille moyenne, comme WordPress avec mise en cache ou une boutique, fonctionnent agréablement sur 4 à 8 vCPU et 8 à 16 Go de RAM ; les coûts mensuels typiques se situent entre 12,90 € et 31,90 € (par ex. CX31/CX41/CPX41) [5]. Ceux qui veulent des cœurs dédiés se tournent vers les tarifs CCX : Cela fournit un temps CPU constant pour les bases de données ou les backends API et coûte, selon le pack, de 25,90 € à 103,90 € par mois [2][5]. Tous les tarifs comprennent un trafic généreux d'au moins 20 TB, les grands paquets vont jusqu'à 60 TB - plus que suffisant pour de nombreux projets [2]. Grâce à la facturation à la minute, je ne paie que le temps réel. Utilisez et garde les budgets propres planifiable [5].
| Tarif | vCPU | RAM | SSD NVMe | Trafic | Prix/mois |
|---|---|---|---|---|---|
| CX11 | 1 (partagé) | 2 GO | 20 GO | 20 TB | environ 3,79 € |
| CPX41 | 8 (Partagé) | 16 GO | 160 GO | 20 TB | environ 31,90 € |
| CCX33 | 8 (Dédié) | 32 GO | 240 GO | 20-60 TB | environ 103,90 € |
Les coûts supplémentaires sont limités : les IP publiques sont disponibles moyennant un supplément selon le pack, les fonctions telles que les pare-feux, les réseaux privés et l'utilisation de l'API sont incluses [1][2][4]. Si l'on souhaite étendre la mémoire de manière flexible, il suffit de réserver des volumes jusqu'à 10 To par volume et d'utiliser au besoin un stockage objet compatible S3 pour les sauvegardes ou les médias [1][5]. Cela me permet de commencer petit, de croître rapidement et de mettre à disposition plus de capacité à court terme en cas de charge de pointe - plus tard, je reviens à l'échelle. Cette élasticité réduit le risque de surprovisionnement et évite les coûts élevés. Temps d'inactivité. Pour les pics de calcul intensif, il reste l'option du vCPU dédié comme Ancre de performance [2][5].
Des fonctions qui comptent au quotidien
La combinaison de NVMe, d'un processeur de nouvelle génération et d'une liaison montante de 10 Gbit/s permet des déploiements rapides, une livraison rapide des paquets et un bon débit lors des sauvegardes [1][2][4]. J'installe des pare-feux statiques directement dans le tableau de bord ou via l'API et je sépare les services internes via des réseaux privés - cela permet de garder des interfaces légères et des services clairement isolés [1][4]. Les IP flottantes facilitent la maintenance, car en cas d'incident, je commute l'IP sur une instance saine et je transfère le trafic sans attente DNS-TTL [4][5]. Je sécurise les sauvegardes et les snapshots de manière programmée afin de permettre des retours en arrière après des mises à jour ou des versions erronées [1][5]. Pour une mise à l'échelle horizontale, je place un load balancer devant plusieurs instances - idéal pour les applications sans état. Microservices et APIs [4][5].
Automation & API
J'utilise l'API REST et la CLI pour automatiser le provisionnement, le réseau, les règles de pare-feu et les volumes dans les pipelines CI/CD [4][5]. Les configurations Terraform ou Ansible reproduisent des déploiements répétables et réduisent les clics manuels à zéro. Ainsi, je maintiens la cohérence des environnements de développement, de staging et de production, ce qui permet de planifier les processus de release. Cela réduit le temps de mise en œuvre des nouvelles fonctionnalités et diminue les risques d'échec dus à la dérive. Pour les équipes, cela apporte des avantages clairs Normes et moins Erreur dans les activités quotidiennes.
Entrée en matière : de la réservation à la marche en direct
Je choisis le site (par exemple Nuremberg ou Helsinki) en fonction du groupe cible et des besoins en matière de protection des données, je crée l'instance et j'enregistre les clés SSH. Ensuite, j'installe le setup de base : Mises à jour du système, pare-feu, Fail2ban et synchronisation du temps, puis Docker/Podman ou pile de serveurs web. Pour WordPress ou les boutiques, je prévois une mise en cache (par ex. FastCGI-Cache) et un volume de base de données séparé pour faciliter la migration. Je mets en place des sauvegardes et des snapshots dès le début afin d'avoir un retour clair en cas de problème. Avec un load balancer et une deuxième instance, j'augmente la disponibilité et je réduis les coûts. Risque à l'adresse suivante : Entretien.
Qui a intérêt à se lancer ?
Les sites web et les blogs bénéficient d'entrées avantageuses, tandis que les boutiques et les portails ont plus d'air avec plusieurs vCPU et 8 à 16 Go de RAM [5]. Les développeurs utilisent la cadence à la minute pour les tests qui ne sont exécutés qu'en cas de besoin et économisent ainsi des coûts fixes [5]. Les clusters de bases de données, les piles de conteneurs ou les systèmes de messagerie fonctionnent bien avec les vCPU dédiés, car ils fournissent un temps CPU constant [2][4]. Les entreprises axées sur l'UE apprécient les sites allemands et finlandais pour une base de conformité claire [1][3]. Pour ceux qui souhaitent approfondir leur connaissance de l'écosystème d'hébergement de Hetzner, voici une présentation compacte de l'entreprise. Aperçu de l'hébergement web Hetzner avec des références utiles aux scénarios de projet.
Hetzner Cloud vs. autres fournisseurs
Le prix et les performances se distinguent positivement dans la comparaison du marché, surtout en raison du matériel puissant, du trafic important et de la structure simple des coûts [2][5][6]. Pour les configurations de serveurs dédiés, de nombreux comparatifs mentionnent webhoster.de comme recommandation claire en termes de performance et de support - cela convient si un contrôle maximal et des cœurs constants sont importants [6]. Pour les instances cloud, Hetzner marque des points avec la simplicité d'utilisation, l'automatisation et les sites de l'UE, utiles pour les exigences de protection des données [1][3][4]. DigitalOcean et AWS Lightsail restent des alternatives, surtout si d'autres services du même écosystème sont souhaités [6]. Pour de nombreux projets web et d'applications, Hetzner fournit une forte Base à des niveaux modérés Coûts [2][5].
| Fournisseur | à partir du prix | Type de CPU | Marge de RAM | Trafic | Sites | Évaluation |
|---|---|---|---|---|---|---|
| webhoster.de | 3,89 € | EPYC/Xeon | 2-192 GB | 20-60 TB | DE, EU | ⭐⭐⭐⭐⭐ |
| Hetzner | 3,79 € | EPYC/Xeon/Altra | 2-192 GB | 20-60 TB | DE, EU, US, SG | ⭐⭐⭐⭐⭐ |
| DigitalOcean | 4,00 € | Partagé/Dédié | 2-128 GB | 4-10 TB | UE, US | ⭐⭐⭐⭐ |
| AWS Lightsail | 3,50 € | Partagé/Dédié | 2-64 GB | 2-8 TB | Worldwide | ⭐⭐⭐⭐ |
Configuration optimale pour WordPress & Co.
Pour WordPress, je prends à partir de 2 vCPU et 4-8 Go de RAM, j'active OPcache, je mise sur le cache FastCGI ou un plugin de mise en cache léger et je sépare les téléchargements de médias dans un volume séparé. Une configuration NGINX/Apache avec HTTP/2, Gzip/Brotli et la version actuelle de PHP garantit des temps de réponse rapides. En cas de pics, un load balancer avec deux instances aide, tandis qu'un service de base de données externe ou un volume dédié diminue les goulots d'étranglement I/O. Pour les boutiques, je prévois 8 à 16 Go de RAM, je déplace les sessions et le cache et j'assure des dumps réguliers de la base de données. Ainsi, les installations supportent les pics de charge et restent à jour. réactif et en toute sécurité.
Sécurité et protection des données
Les pare-feu stateful et la protection DDoS se trouvent dans le tableau de bord, ce qui me permet de définir et de réutiliser des ensembles de règles par projet [1][2]. Les clés SSH, la désactivation de la connexion par mot de passe et les mises à jour régulières sont obligatoires - ainsi que Fail2ban et Logrotation. Je crée des sauvegardes programmées et je les versionne ; j'utilise des snapshots avant des modifications risquées pour des rollbacks rapides [1][5]. Pour les questions de conformité, je choisis des sites de l'UE, je sépare les données des clients en sous-réseaux et je définis des rôles least-privilege dans l'API. Cela permet de réduire les surfaces d'attaque et de créer des Processus pour Audits.
Gestion, suivi et assistance
J'observe le CPU, la RAM, les E/S et le réseau avec des graphiques intégrés ou je me connecte à Prometheus/Grafana pour centraliser les métriques. Les alertes m'aident à définir des valeurs limites afin de pouvoir évoluer ou optimiser à temps. Pour les configurations de serveurs dédiés, il vaut la peine de jeter un coup d'œil sur les Surface du robotsi les projets combinent les deux. L'assistance est disponible 24 heures sur 24 et 7 jours sur 7, et grâce à des fonctions claires de libre-service, je résous beaucoup de choses directement dans le tableau de bord [6]. Ainsi, les processus d'exploitation restent planifiables et je réagis plus rapidement aux Incidents et Peaks.
Contrôle des coûts & mise à l'échelle dans la pratique
Je commence petit, j'identifie les ressources par projet/équipe et j'utilise les rapports de coûts mensuels pour gérer proprement les budgets. Le démarrage et l'arrêt programmés réduisent les coûts fixes dans les environnements de staging ; l'auto-scaling avec load balancer couvre les campagnes ou la saisonnalité. Si les charges de travail nécessitent durablement un temps de CPU élevé, je passe à un vCPU dédié ou j'envisage de passer à un serveur physique. Pour prendre cette décision, un bref Guide du serveur racineJ'ai donc décidé d'utiliser un outil qui facilite l'arbitrage entre le cloud et la tôle. Cela me permet de maîtriser les coûts et de maintenir la performance au bon moment. Temps au bon moment Lieu.
vCPU partagé vs vCPU dédié : choix dans la pratique
Les vCPU partagés supportent les pics de charge de nombreux clients en même temps. C'est efficace et avantageux tant que les charges de travail sont principalement liées aux E/S (serveurs web, caches, API avec un temps de CPU court). Les premiers signes indiquant que tu devrais passer à un vCPU dédié sont une utilisation constante du CPU pendant de longues périodes, des queues de construction qui ne s'exécutent que lentement ou des bases de données présentant des latences sensibles lors de requêtes complexes. Les vCPU dédiés fournissent un temps CPU planifiable, évitent le steal time et sont généralement le meilleur choix pour les charges OLTP/OLAP, les pipelines d'inférence ou les build runners CI. Pratique : je peux redimensionner les instances, tester les pics sur CCX et revenir ensuite sur CPX lorsque la charge diminue. Pour le contrôle des coûts, j'identifie ces mises à jour et je documente l'événement - ainsi, les budgets restent compréhensibles.
Stratégies de stockage & performances
La mémoire locale NVMe de l'instance est très rapide et convient pour le système d'exploitation, les caches et les artefacts transitoires. Pour les données qui doivent vivre plus longtemps et se déplacer entre les instances, j'utilise des volumes de blocs. Les meilleures pratiques : Je sépare les logs et les fichiers de base de données dans leurs propres montages, j'active les noatimeSelon la charge de travail, je mise sur ext4 (solide et polyvalent) ou XFS (bon pour les gros fichiers) et je prévois suffisamment de capacité libre pour les fenêtres de maintenance (par ex. VACUUM/ALTER TABLE). Les snapshots des volumes sont rapides, mais seulement cohérents avec les crashs - pour les systèmes exigeants, je gèle brièvement le système de fichiers ou j'utilise des dumps logiques. Je versionne les sauvegardes, teste régulièrement les restaurations dans une instance de staging et déplace les grands stocks de médias vers le stockage objet afin de maintenir les E/S à un niveau bas sur les serveurs d'applications.
Conception de réseau, IPv6 & DNS
Les réseaux privés séparent les chemins de données entre l'app, la base de données et les services internes. Je définis mes propres sous-réseaux par environnement (dev/stage/prod) et j'établis des politiques de pare-feu restrictives (deny by default). IP flottantes que j'utilise pour les déploiements Blue Green : Démarrer la nouvelle version, attendre les contrôles de santé, puis déplacer l'IP - sans DNS-TTL ni proxy warmup. La double pile avec IPv4/IPv6 est la norme ; je gère le Reverse DNS en fonction des services de messagerie et d'API afin de maintenir la stabilité de la réputation et des temps de poignée de main TLS. Pour le trafic L7, l'équilibreur de charge prend en charge les contrôles de santé, les sessions collantes et le déchargement TLS ; en interne, je m'adresse aux services via des IP privées afin de maximiser la bande passante et la sécurité.
Conteneurs & Kubernetes sur le cloud Hetzner
Pour les charges de travail en conteneurs, je démarre avec Docker Compose ou Podman Quadlets sur une instance CPX - rapide, bon marché, traçable. Au fur et à mesure de la croissance de la configuration, je provisionne un petit Kubernetes (kubeadm ou k3s) avec 3 nœuds Control Plane/Worker. Ingress se charge de l'équilibreur de charge du cloud, tandis que le stockage est mis à disposition sous forme de volumes dynamiques via un plug-in CSI. Je sépare les pools de nœuds en fonction du type de charge de travail (par ex. charge d'E/S par rapport à la charge de CPU) et je mélange le CPX (rentable) avec le CCX (intensif en calcul). La mise à l'échelle se fait en fonction des événements : les HPA/autoscaleurs assurent l'élasticité au niveau des pods et des nœuds ; via l'API, je mets à l'échelle de manière ciblée pour les campagnes et je recapitalise ensuite. Il est important d'avoir une fenêtre de mise à jour claire, dans laquelle je drain'e les nœuds, déplace les charges de travail et maintiens ensuite la cohérence des images et du noyau.
Haute disponibilité & récupération
La haute disponibilité commence par le découplage : l'état dans des bases de données/queues dédiées, les instances d'apps sans état derrière. Je répartis les instances sur différents hôtes (Placement/Spread), j'utilise au moins deux serveurs d'applications derrière l'équilibreur de charge et je réplique les instances de bases de données de manière asynchrone. Régulièrement Tests de restauration sont indispensables : une sauvegarde n'est considérée comme bonne que si je peux la restaurer proprement. Pour la maintenance et les incidents, je définis des objectifs RTO/RPO, je tiens à disposition des runbooks (p. ex. "DB-Failover", "Rolling Restart", "TLS-Rotation") et je les exerce en staging. Les stratégies multirégionales réduisent les risques liés à l'emplacement ; les stratégies DNS ou anycast complètent les IP flottantes lorsqu'un routage global est nécessaire.
Gouvernance, conformité et gestion des accès
Je travaille avec des projets et des labels afin de séparer proprement les ressources et d'attribuer les coûts. J'attribue les jetons API selon le principe suivant least privilege et je les fais tourner régulièrement. Pour l'accès en équipe, j'utilise des rôles de groupe et je bloque globalement les connexions SSH avec mot de passe. Les secrets sont placés dans un gestionnaire (par ex. par ENV/Files uniquement dans la RAM) et non dans Git. À des fins d'audit, j'archive les journaux d'approvisionnement et j'assure une gestion des changements succincte, mais contraignante. Les sites de l'UE aident à répondre aux exigences du RGPD ; j'isole en outre les données sensibles dans des sous-réseaux et je verrouille les volumes au niveau du système d'exploitation.
Éviter les pièges des coûts : Conseils pratiques
Les instances éteintes continuent de coûter tant qu'elles existent - seule la suppression met fin à la facturation. Les snapshots et les sauvegardes entraînent des coûts de stockage séparés ; je nettoie les anciennes générations de manière automatisée. Les load balancers, les IP flottantes et les volumes sont bon marché, mais s'accumulent dans les grandes flottes - les étiquettes et les rapports mensuels évitent les points aveugles. Les budgets de trafic sont généreux, mais je prévois des réserves et je mets en cache les actifs statiques de manière agressive. Pour les charges de travail en rafale, je lance des instances temporaires limitées dans le temps et je tiens à disposition une liste de contrôle qui, lors du teardown, emporte avec elle toutes les ressources dépendantes.
Migration & chemin de croissance
Le passage d'un vCPU partagé à un vCPU dédié est une étape fréquente : je clone l'instance via un snapshot, je démarre la nouvelle taille, je synchronise les deltas et je déplace l'IP flottante. Le temps de descente zéro est possible avec Blue-Green ou par Load Balancer : laisser la nouvelle version rejoindre le cluster, déplacer progressivement le trafic, observer les sources d'erreur, puis vider l'ancien cluster. Je planifie les migrations de bases de données avec la réplication, je commute brièvement en lecture seule et j'effectue le basculement. Sur la voie du matériel dédié, je conserve les mêmes modèles : séparation claire du réseau, chemins d'automatisation, sauvegardes testées et builds reproductibles - le pas reste ainsi calculable.
Mon avis en bref
Les serveurs cloud de hetzner fournissent un rapport qualité-prix solide, un trafic important et une automatisation simple - idéal pour les projets web, les API et les conteneurs [2][4][5]. Ceux qui ont besoin d'une facturation flexible, de sites dans l'UE et de fonctionnalités planifiables y entrent rapidement et continuent à se développer sans friction [1][3][4]. Les serveurs dédiés, où webhoster.de est souvent cité comme recommandation dans les comparatifs [6], sont utiles pour les charges permanentes ou le matériel spécial. Dans la pratique, je combine les deux : le cloud pour le dynamisme, le dédié pour les scénarios de base constants. Ainsi, l'infrastructure reste légère, la facture est transparente et Performance fiable consultable sur.


