DNS TTL décide de la durée pendant laquelle les utilisateurs du monde entier conservent les anciennes adresses IP dans leur cache, ce qui influe considérablement sur la Performance Votre site web. Des valeurs mal définies entraînent une propagation lente, des pics de charge inutiles et une accessibilité incohérente à travers les continents.
Points centraux
- Principes fondamentaux du TTL: La durée de mise en cache contrôle la vitesse de mise à jour et la charge du serveur.
- Propagation: Des caches différents provoquent des incohérences globales.
- Trade-offs: un TTL court apporte de l'agilité, un TTL long permet d'économiser des requêtes.
- Hébergement DNS: Anycast et Autoritatives rapides accélèrent les réponses.
- Meilleures pratiques: Abaisser avant les modifications, puis relever.
Comment fonctionne le DNS TTL – explication succincte
Je considère le TTL comme Levier de mise en cache, qui détermine combien de temps les résolveurs conservent les réponses avant de renvoyer une requête au serveur faisant autorité. Un réglage court accélère les modifications, mais génère davantage de Requêtes et donc une charge sur les serveurs de noms. Un réglage long réduit les requêtes, mais ralentit sensiblement toute conversion des enregistrements A, AAAA ou MX. Si je migre une adresse IP et que le TTL est de 24 heures, l'ancienne adresse reste active dans le cache de nombreux réseaux pendant un jour. C'est précisément ce qui provoque les fameuses différences de propagation, où les utilisateurs d'un pays voient déjà la nouvelle adresse IP, tandis que d'autres régions fournissent encore l'ancienne réponse.
Niveaux de mise en cache et TTL dans la pratique
Je distingue plusieurs niveaux de mise en cache qui, ensemble, façonnent l'expérience utilisateur :
- Cache client/OS: les systèmes d'exploitation et les navigateurs mettent eux-mêmes en cache les réponses DNS. Cette couche respecte généralement le TTL, mais peut avoir un effet localement beaucoup plus court ou plus long si le logiciel a ses propres limites.
- Résolveur récursif (FAI/entreprise): C'est ici que se trouve le cache principal. Il détermine la fréquence à laquelle les serveurs de noms faisant autorité sont effectivement interrogés. Certains résolveurs serrer TTL (définir des valeurs minimales ou maximales) ou utiliser serve-stale, pour fournir temporairement des réponses expirées en cas de problèmes en amont.
- Serveurs de noms faisant autorité: vous fournissez la vérité à la zone. Leurs temps de réponse et leur proximité géographique déterminent le bon fonctionnement des TTL courts pendant les pics de charge.
Il est également important mise en cache négative: Les réponses telles que NXDOMAIN sont mises en cache dans le résolveur conformément au paramètre SOA (TTL négatif). Cela permet d'éviter les requêtes superflues, mais peut également prolonger inutilement l'erreur en cas de configuration incorrecte (par exemple, enregistrements supprimés par inadvertance). J'utilise des TTL négatifs de manière pratique afin que les erreurs puissent être corrigées rapidement.
Le coût réel d'un TTL incorrect
Lorsque les TTL sont trop courts, je calcule toujours avec une augmentation significative. Charge du serveur, ce qui peut provoquer des latences, voire des pannes, lors des pics de trafic. Des TTL trop longs stabilisent certes le flux de requêtes, mais ils retardent les changements importants tels que les basculements, les changements de certificats ou les étapes de migration. Pour évaluer correctement les options, il est utile de Comparaison des performances TTL, qui montre à quel point le volume des requêtes et la latence varient en fonction de la valeur. Du point de vue du référencement, les entrées obsolètes compromettent la rapidité du temps de réponse et entraînent une augmentation du taux de rebond. Chaque seconde de retard supplémentaire coûte des conversions, ce qui se traduit directement par une baisse du chiffre d'affaires en euros pour les boutiques en ligne.
Compromis : TTL court ou long
J'utilise des TTL courts lorsque je veux des Modifications planifiez et augmentez-les lorsque l'infrastructure fonctionne de manière stable et que la latence doit provenir du cache. Cela vaut particulièrement pour les applications Web dynamiques, où les adresses IP ou le routage changent fréquemment. Je réserve les TTL plus longs aux sites statiques ou aux pages d'accueil dont les adresses cibles changent rarement. Un compromis pratique se situe souvent autour de 3 600 secondes, car cela permet de maintenir un équilibre raisonnable entre l'agilité et le volume des requêtes. Ceux qui utilisent la répartition de charge ou le basculement basé sur DNS ont tendance à privilégier des valeurs courtes, mais acceptent en contrepartie des requêtes supplémentaires et font attention à la capacité des serveurs faisant autorité.
| Valeur TTL | Avantages | Inconvénients | Utilisation typique |
|---|---|---|---|
| 300 s (5 min) | Mises à jour rapides, Basculement | Plus de requêtes, charge plus élevée | Applications dynamiques, équilibrage de charge |
| 3 600 s (1 heure) | Bon Compromis, charge modérée | Retard moyen en cas de modifications | Applications Web, API |
| 86 400 s (24 heures) | Peu de requêtes, accès rapide au cache | Propagation lente, basculement lent | Sites statiques, mises à jour rares |
Types d'enregistrements dans le contexte TTL – ce à quoi je fais attention
Je différencie le TTL selon le type d'enregistrement, car des effets en chaîne peuvent se produire :
- CNAME: La durée effective de la mise en cache résulte de la le plus court TTL tout au long de la chaîne (CNAME lui-même plus enregistrement cible). Si vous avez beaucoup de sauts CNAME (par exemple, configurations CDN), évitez les valeurs trop courtes, sinon la charge de requête augmentera de manière disproportionnée.
- ALIAS/ANAME À l'apex : ils sont résolus côté serveur par le fournisseur. Je choisis pour l'enregistrement apex visible un TTL qui correspond au rythme de modification de l'amont et je vérifie la fréquence de rafraîchissement interne du fournisseur.
- NS/Glue: Les TTL de délégation et de colle résident dans la zone parent. Les valeurs longues stabilisent l'accessibilité, mais ralentissent le changement de serveur de noms. Je prévois ici des délais généreux.
- TXT/SRV: Pour SPF, DKIM, DMARC et Service Discovery, je définis des TTL moyens à longs (par exemple 3 600 à 43 200 s), car ces entrées changent rarement, mais ont des effets considérables en cas de mauvaise configuration.
Comprendre les problèmes de propagation
Je tiens compte du fait que les FAI et les résolveurs locaux ont parfois des TTL ignorer ou prolonger, ce qui rend les mises à jour visibles de manière différente selon les régions. Il en résulte des phases pendant lesquelles l'Europe utilise la nouvelle IP, tandis que l'Asie utilise encore les anciens caches. De plus, des TTL élevés au niveau du TLD ou de la racine prolongent l'effet global, ce qui ralentit même les transitions bien planifiées. Exemple de migration : si vous ne réduisez pas le TTL à l'avance, vous risquez des lacunes de couverture pendant plusieurs heures, voire plusieurs jours, et des messages signalant une panne apparente. J'évite cela en réduisant le TTL 24 à 48 heures avant le changement afin de rendre la transition ultérieure contrôlée et fiable.
DNS d'hébergement : influence du fournisseur d'accès
Lors du choix d'un fournisseur d'accès, je veille à ce qu'il dispose de réseaux Anycast., à faible latence Des pipelines de mise à jour fiables et faisant autorité. Les bonnes plateformes DNS d'hébergement fournissent rapidement des services dans le monde entier et réagissent avec aisance aux pics de requêtes. Les plateformes faibles aggravent les problèmes de propagation, car les serveurs de noms surchargés répondent plus lentement et les délais d'attente s'accumulent. Ceux qui prévoient un routage géographique ou un basculement bénéficient en outre d'un réseau mondial avec des nœuds proches du groupe cible. Une comparaison telle que Anycast vs GeoDNS m'aide à définir la bonne stratégie en matière de portée et de résilience.
DNSSEC et sécurité en interaction avec TTL
J'utilise DNSSEC dans la mesure du possible afin de réduire les risques liés au cache poisoning et à l'attaque de l'homme du milieu. Les TTL agissent ici comme barrière de réplay: Des valeurs plus courtes limitent le temps pendant lequel une réponse signée peut rester valide dans le cache. En même temps, RRSIG-Les signatures se trouvent dans leur fenêtre de validité. J'évite les configurations dans lesquelles le TTL est plus long que la validité restante de la signature, sinon les résolveurs renvoient plus tôt en cas de doute ou renvoient des erreurs. Pour les zones soumises à des modifications fréquentes, je maintiens les durées de validité des signatures à un niveau modéré et les harmonise avec les TTL sélectionnés.
Règles pratiques de réglage pour différents scénarios
Je place généralement les enregistrements A et AAAA plutôt en bref entre 300 et 1 800 secondes, lorsque les adresses IP changent occasionnellement ou que je travaille avec un basculement DNS. Je conserve les enregistrements MX beaucoup plus longtemps, entre 43 200 et 86 400 secondes environ, car le routage des e-mails doit rester stable. Pour les sites Web statiques, j'ajuste des valeurs similaires afin que les recherches proviennent plus souvent du cache. Pour les API très dynamiques ou les indicateurs de fonctionnalités, je reste entre 300 et 3 600 secondes afin de pouvoir contrôler de manière flexible. Après des projets de grande envergure, j'augmente à nouveau le TTL dès que les journaux et la surveillance montrent des états stables.
Planification des capacités : requêtes vs TTL – une règle empirique simple
Je planifie la capacité d'autorité en fonction du nombre de résolveurs attendu et du TTL. En gros, plus le TTL est court, plus les requêtes sont fréquentes. tout le monde Résolveur. Un calcul très simplifié aide à se faire une idée des ordres de grandeur :
Supposons que 20 000 résolveurs récursifs différents dans le monde entier interrogent un domaine populaire. Dans le cas de TTL 300 s produit en moyenne environ ≈ 20 000 / 300 ≈ 67 QPS par nom d'enregistrement (par exemple, l'apex). Pour TTL 3 600 s cette même valeur diminue à ≈ 5–6 QPS. Dans les configurations complexes avec des chaînes CNAME, plusieurs enregistrements et un équilibrage de charge basé sur le DNS, la charge évolue en conséquence. Je dimensionne donc les serveurs de noms non seulement en fonction du trafic total, mais aussi explicitement en fonction de critique Noms avec un TTL court.
Plan pour les modifications et migrations prévues
Je prépare les changements avec une vision claire Déroulement Avant : 24 à 48 heures avant la transition, je réduis le TTL à environ 300 secondes. Après le changement, je vérifie la nouvelle réponse avec dig et certifie que les serveurs faisant autorité affichent les entrées souhaitées. Ensuite, je vérifie les résolveurs accessibles au public à plusieurs endroits jusqu'à ce que la nouvelle adresse IP apparaisse partout. Lorsque tout est stable, je remonte le TTL à sa valeur normale et je déclenche un vidage du cache local. Si vous avez des doutes, vous trouverez des conseils pratiques à l'adresse suivante Optimiser la mise en cache DNS, comme ipconfig /flushdns ou killall -HUP mDNSResponder qui vide le cache client.
Images d'erreurs et chemin de dépannage
Si les mises à jour ne sont pas visibles, je travaille de manière structurée :
- Vérifier de manière autoritaire: Le nouvel enregistrement est-il identique sur tous les serveurs de noms faisant autorité ? Le TTL y est-il correct ?
- Comparer les résolveurs: interroger plusieurs résolveurs publics (différentes régions) et observer le TTL restant renvoyé. Des différences importantes indiquent la présence de caches anciens ou un clamping TTL.
- Analyser les chaînes: Pour les CNAME, vérifiez chaque étape. Le TTL le plus court détermine la durée totale jusqu'à ce que tout soit à jour.
- Caches négatifs: Identifier les cas NXDOMAIN/NOERROR NODATA. Un enregistrement précédemment manquant peut encore être mis en cache „ négativement “.
- Délégation/Glue: lors d'un changement de serveur de noms, assurez-vous que les mises à jour de la zone parent sont terminées et que les nouveaux NS répondent également.
En parallèle, je vérifie dans les journaux si la proportion de SERVFAIL/Timeout augmente. Cela indique souvent une surcharge des serveurs autoritaires, qui ne supportent plus les TTL courts.
Optimiser les performances mondiales grâce au géo-routage et au CDN
Je combine des TTL moyens de 1 800 à 3 600 secondes avec Géo-routage et les CDN afin que les utilisateurs se retrouvent près de l'emplacement périphérique. Cette combinaison réduit les allers-retours, répartit la charge et maintient un basculement suffisamment rapide. Pour l'équilibrage de charge basé sur le DNS, je travaille avec des TTL plus courts, mais j'accepte des réponses plus fréquentes du serveur faisant autorité. Dans les configurations CDN, j'évite également les points chauds, car davantage de requêtes sont envoyées aux nœuds régionaux et le DNS est ensuite servi à partir des caches. Cela me permet de réduire la latence globale sans perdre des jours à chaque mise à jour de routage.
Spécificités de l'entreprise : Split-Horizon, VPN, DoH/DoT
Dans les réseaux d'entreprise, je prends en compte DNS à horizon partagé, où les réponses internes et externes diffèrent. Dans ce cas, les TTL et les plans de modification doivent être cohérents des deux côtés, sinon des situations contradictoires peuvent se produire. Les clients VPN ont souvent leurs propres résolveurs, dont les caches suivent parfois d'autres règles. De plus, de nombreux utilisateurs utilisent aujourd'hui DNS sur HTTPS/TLS. Cela transfère la souveraineté du cache vers des résolveurs globaux et peut modifier les modèles de propagation. Je mesure donc délibérément plusieurs types de résolveurs afin de vérifier la portée réelle plutôt que la seule vision spécifique à l'ISP.
Risques liés à un TTL durablement bas ou élevé
J'évite systématiquement les TTL très courts, car ils peuvent augmenter de 50 à 70 % Charge et épuisent les réserves. Cela engendre des coûts et détériore les temps de réponse en période de pointe. D'un autre côté, je considère que des TTL très longs sont risqués lorsque j'ai besoin d'un basculement immédiat. Les influences DDoS peuvent également être atténuées en partie grâce à des TTL suffisamment longs, car davantage de réponses proviennent directement des caches. Tout l'art réside dans l'équilibre entre la vitesse de mise à jour et le volume de requêtes.
Séparer clairement la mise en cache DNS et HTTP
Je fais une distinction claire : DNS-TTL détermine la rapidité avec laquelle les utilisateurs obtiennent la bonne adresse de destination ; Caches HTTP/CDN contrôler la durée de mise en cache des contenus derrière cette adresse. Un TTL DNS court accélère certes les changements de routage, mais ne résout pas le problème des contenus obsolètes à la périphérie. À l'inverse, un TTL DNS long avec des TTL HTTP très courts peut être utile lorsque seuls les contenus changent fréquemment. Je coordonne les deux afin d'éviter toute charge DNS inutile et de ne pas fournir d'anciennes ressources aux clients.
Mesures et surveillance : comment je contrôle le TTL
Je mesure le taux de requêtes, Latence, le taux de réussite du cache et le taux NXDOMAIN afin de comprendre l'effet de mon TTL. Si le taux de requêtes augmente après une réduction, j'ajuste les valeurs et vérifie les limites des serveurs faisant autorité. Si les journaux indiquent un taux d'erreur élevé, je vérifie si les clients utilisent d'anciens caches ou si les FAI appliquent des TTL différents. De plus, j'optimise l'enregistrement SOA, en particulier la valeur de cache négative, afin que les résolveurs ne conservent pas trop longtemps les réponses incorrectes d'absence. Des tests réguliers avec des outils tels que dig et des vérifications de recherche globales garantissent que les modifications sont visibles partout.
En bref
Des TTL mal réglés coûtent cher dans le monde entier Tempo et provoquent des mises à jour qui ne sont visibles que plusieurs heures plus tard. Avant d'effectuer des modifications, je mise sur des valeurs courtes, je vérifie l'effet obtenu, puis je remonte à un niveau raisonnable. Pour les contenus statiques, je choisis des TTL plus longs, pour les services dynamiques, plutôt des TTL courts à moyens. Les bonnes plateformes DNS d'hébergement avec Anycast et des PoP proches rendent chaque paramètre plus fiable et accélèrent les réponses. En suivant ces principes, vous réduisez la latence, renforcez la disponibilité et obtenez une expérience utilisateur nettement améliorée.


