DNS TTL bestämmer hur länge användare världen över behåller gamla IP-adresser i cachen och påverkar därmed märkbart Prestanda Er webbplats. Felaktigt inställda värden orsakar långsam spridning, onödiga belastningstoppar och inkonsekvent tillgänglighet över kontinenterna.
Centrala punkter
- TTL-grunder: Caching-varaktigheten styr uppdateringshastigheten och serverbelastningen.
- Förökning: Olika cacher orsakar globala inkonsekvenser.
- Avvägningar: Kort TTL ger smidighet, lång TTL sparar frågor.
- Hosting DNS: Anycast och snabba auktoriteter påskyndar svaren.
- Bästa praxis: Sänk före ändringar, höj sedan igen.
Hur DNS TTL fungerar – kort förklarat
Jag ser TTL som Caching-spak, som avgör hur länge resolvern behåller svaren innan den frågar den auktoritativa servern igen. En kort inställning påskyndar ändringar, men genererar mer Frågor och därmed belastning på namnservrar. En lång inställning minskar antalet förfrågningar, men saktar märkbart ner varje omställning av A-, AAAA- eller MX-poster. Om jag migrerar en IP och TTL är 24 timmar, förblir den gamla adressen aktiv i cacheminnet hos många nätverk i upp till ett dygn. Det är just detta som orsakar de ökända propagationsskillnaderna, där användare i ett land redan ser den nya IP-adressen medan andra regioner fortfarande levererar det gamla svaret.
Cachingnivåer och TTL i praktiken
Jag skiljer mellan flera cachingnivåer som tillsammans påverkar användarupplevelsen:
- Klient-/OS-cache: Operativsystem och webbläsare cachar DNS-svar automatiskt. Detta lager respekterar vanligtvis TTL, men kan fungera betydligt kortare eller längre lokalt om programvaran har egna begränsningar.
- Rekursiv resolver (ISP/företag): Här finns huvudcachen. Den avgör hur ofta auktoritativa namnservrar faktiskt tillfrågas. Vissa resolver klämma fast TTL:er (ställer in minimivärden eller maximivärden) eller använder serve-stale, för att tillfälligt leverera utgångna svar vid uppströmsproblem.
- Auktoritativ namnservrar: De levererar sanningen till zonen. Deras svarstider och geografiska närhet avgör hur smärtfritt korta TTL:er fungerar under belastningstoppar.
Det är också viktigt att negativ caching: Svar som NXDOMAIN cachelagras i resolver enligt SOA-parametern (Negative TTL). Detta är bra mot onödiga frågor, men kan vid felkonfigurationer (t.ex. oavsiktligt borttagna poster) bevara felet onödigt länge. Jag använder negativa TTL:er i praktiken så att fel snabbt kan korrigeras.
De verkliga kostnaderna för felaktig TTL
Vid för korta TTL-värden räknar jag alltid med en betydligt högre ökning. Serverbelastning, vilket kan orsaka fördröjningar och till och med avbrott vid trafikspikar. För långa TTL:er lugnar visserligen flödet av frågor, men de fördröjer viktiga ändringar som failover, certifikatbyten eller migreringssteg. För en välgrundad bedömning av alternativen är det värt att göra en Jämförelse av TTL-prestanda, som visar hur mycket sökvolymen och latensen varierar beroende på värdet. Ur SEO-synpunkt äventyrar föråldrade poster snabb time-to-first-byte och leder till ökade avhopp. Varje extra sekunds fördröjning kostar konvertering, vilket direkt minskar omsättningen i euro för butiker.
Avvägningar: kort vs. lång TTL
Jag använder korta TTL när jag fotograferar snabba Förändringar planera och öka den när infrastrukturen fungerar stabilt och latensen ska komma från cachen. Detta gäller särskilt för dynamiska webbappar där IP-adresser eller routing ofta ändras. Jag sparar längre TTL:er för statiska webbplatser eller landningssidor vars måladresser sällan roterar. En praktisk kompromiss ligger ofta på 3 600 sekunder, eftersom agilitet och frågevolym förblir rimligt balanserade här. De som använder lastfördelning eller DNS-baserad failover tenderar att satsa på korta värden, men accepterar i gengäld ytterligare frågor och är uppmärksamma på kapaciteten hos de auktoritativa servrarna.
| TTL-värde | Fördelar | Nackdelar | Typisk användning |
|---|---|---|---|
| 300 s (5 min.) | Snabba uppdateringar, Failover | Fler frågor, högre belastning | Dynamiska appar, lastbalansering |
| 3 600 s (1 timme) | Bra Kompromiss, måttlig belastning | Genomsnittlig fördröjning vid ändringar | Webbappar, API:er |
| 86 400 s (24 timmar) | Få frågor, snabb cache-träff | Långsam spridning, trög failover | Statiska webbplatser, sällsynta uppdateringar |
Recordtyper i TTL-sammanhang – vad jag lägger märke till
Jag differentierar TTL efter rekordtyp, eftersom kedjeeffekter kan uppstå:
- CNAME: Den effektiva cache-tiden beräknas utifrån kortaste TTL längs kedjan (CNAME själv plus målpost). Om du har många CNAME-hopp (t.ex. CDN-konfigurationer) bör du undvika alltför korta värden, annars ökar frågebelastningen oproportionerligt.
- ALIAS/ANAME vid Apex: De löses upp av leverantören på serversidan. Jag väljer en TTL för den synliga Apex-posten som passar uppströms förändringsrytm och kontrollerar hur ofta leverantören uppdaterar internt.
- NS/Lim: Delegations- och Glue-TTL:er finns i överordnad zon. Långa värden stabiliserar tillgängligheten, men fördröjer byten av namnservrar. Jag planerar för generösa ledtider här.
- TXT/SRV: För SPF, DKIM, DMARC och Service Discovery använder jag medellånga till långa TTL:er (t.ex. 3 600–43 200 s), eftersom dessa poster ändras mer sällan, men har långtgående effekter vid felkonfiguration.
Förstå propagationsproblem
Jag tar hänsyn till att ISP:er och lokala resolver TTL:er delvis ignorera eller förlänga, vilket gör uppdateringar synliga på olika sätt i olika regioner. Detta leder till perioder då Europa använder den nya IP-adressen medan Asien fortfarande använder gamla cacher. Dessutom förlänger höga TTL:er på TLD- eller rotnivå den totala effekten, vilket bromsar även välplanerade övergångar. Exempel på migrering: Den som inte sänker TTL i förväg riskerar att drabbas av timmar eller dagar långa räckviddsluckor och rapporter om uppenbara avbrott. Jag förhindrar detta genom att sänka TTL 24–48 timmar före ändringen för att göra den senare övergången kontrollerad och tillförlitlig.
Hosting-DNS: leverantörens inflytande
När jag väljer leverantör tittar jag efter Anycast-nätverk, låg latens Auktoritativa och tillförlitliga uppdateringspipelines. Bra DNS-plattformar för webbhotell levererar snabbt över hela världen och reagerar smidigt på toppar i antalet förfrågningar. Svaga plattformar förstärker propagationsproblem, eftersom överbelastade namnservrar svarar långsammare och timeouts blir vanligare. Den som planerar georouting eller failover drar dessutom nytta av ett globalt nätverk med noder nära målgruppen. En jämförelse som Anycast vs. GeoDNS hjälper mig att fastställa rätt strategi för räckvidd och motståndskraft.
DNSSEC och säkerhet i samverkan med TTL
Jag använder DNSSEC där det är möjligt för att minska risken för cache-poisoning och man-in-the-middle-attacker. TTL:er fungerar här som Replaybarriär: Kortare värden begränsar den tid under vilken ett signerat svar får förbli giltigt i cachen. Samtidigt måste RRSIG-Signaturer ligger inom deras giltighetsperiod. Jag undviker situationer där TTL är längre än den återstående signaturens giltighetstid – annars serverar resolver i tveksamma fall tidigare eller levererar fel. För zoner med frekventa ändringar håller jag signaturernas giltighetstid moderat och harmoniserar dem med de valda TTL:erna.
Praktiska inställningsregler för olika scenarier
Jag sätter oftast A- och AAAA-poster kort mellan 300 och 1 800 sekunder om IP-adresser ändras ibland eller om jag arbetar med DNS-failover. MX-poster behåller jag betydligt längre, cirka 43 200 till 86 400 sekunder, eftersom e-postrutningen ska förbli stabil. För statiska webbplatser anpassar jag liknande långa värden så att uppslagningar oftare kommer från cachen. För mycket dynamiska API:er eller funktionsflaggor håller jag mig till 300 till 3 600 sekunder för att kunna styra flexibelt. Efter större projekt ökar jag TTL igen så snart loggar och övervakning visar stabila tillstånd.
Kapacitetsplanering: Queries vs. TTL – en enkel tumregel
Jag planerar den auktoritativa kapaciteten utifrån det förväntade antalet resolver och TTL. Grovt sett gäller: Ju kortare TTL, desto oftare frågar alla Resolver efter. En starkt förenklad beräkning hjälper till att få en känsla för storleksordningarna:
Anta att 20 000 olika rekursiva resolver över hela världen frågar en populär domän. Vid TTL 300 s ger i genomsnitt ungefär ≈ 20 000 / 300 ≈ 67 QPS per postnamn (t.ex. Apex). Vid TTL 3 600 s sjunker samma värde till ≈ 5–6 QPS. I komplexa konfigurationer med CNAME-kedjor, flera poster och DNS-baserad lastbalansering skalar belastningen i motsvarande grad. Jag dimensionerar därför namnservrar inte bara efter total trafik, utan uttryckligen efter kritisk Namn med kort TTL.
Plan för planerade ändringar och migreringar
Jag förbereder förändringar med ett tydligt Förfarande före: 24–48 timmar före övergången sänker jag TTL till cirka 300 sekunder. Efter bytet kontrollerar jag det nya svaret med dig och certifierar att de auktoritativa servrarna visar önskade poster. Därefter kontrollerar jag offentligt tillgängliga resolver på flera platser tills den nya IP-adressen visas överallt. När allt är stabilt höjer jag TTL till det normala värdet igen och utlöser en cache-flush lokalt. Om du är osäker på detta hittar du praktiska tips under Optimera DNS-caching, ungefär som ipconfig /flushdns eller killall -HUP mDNSResponder tömmer klientcachen.
Felbilder och felsökningsväg
Om uppdateringarna inte syns arbetar jag strukturerat:
- Kontrollera auktoritativt: Är den nya posten identisk på alla auktoritativa namnservrar? Stämmer TTL där?
- Jämför resolver: Fråga flera offentliga resolvers (olika regioner) och observera den återrapporterade återstående TTL. Stora skillnader tyder på gamla cacher eller TTL-clamping.
- Analysera kedjor: Kontrollera varje steg för CNAME. Den kortaste TTL avgör den totala tiden tills allt är uppdaterat.
- Negativa cachar: Identifiera NXDOMAIN/NOERROR NODATA-fall. En tidigare saknad post kan fortfarande vara cachelagrad som „negativ“.
- Delegation/Glue: Vid byte av namnservrar ska du se till att uppdateringar av överordnade zoner är klara och att de nya NS också svarar.
Parallellt med detta kontrollerar jag loggarna för att se om andelen SERVFAIL/timeout ökar. Detta indikerar ofta överbelastade auktoriteter som inte längre klarar korta TTL:er.
Optimera global prestanda med georouting och CDN
Jag kombinerar genomsnittliga TTL-värden på 1 800 till 3 600 sekunder med Geografisk ruttplanering och CDN:er så att användarna hamnar nära Edge-platsen. Denna kombination minskar rundresor, fördelar belastningen och håller failover tillräckligt snabb. Vid DNS-baserad lastbalansering arbetar jag med kortare TTL:er, men accepterar oftare svar från den auktoritära servern. I CDN-konfigurationer förhindrar jag dessutom hotspots, eftersom fler förfrågningar går till regionala noder och DNS sedan betjänas från cacher. På så sätt minskar jag den globala latensen utan att förlora dagar vid varje routinguppdatering.
Företagsspecifika funktioner: Split-Horizon, VPN, DoH/DoT
I företagsnätverk tar jag hänsyn till Split-Horizon-DNS, där interna och externa svar skiljer sig åt. Här måste TTL:er och ändringsplaner vara konsekventa på båda sidor, annars uppstår motstridiga situationer. VPN-klienter har ofta egna resolver, vars cacheminnen ibland följer andra regler. Dessutom använder många användare idag DNS över HTTPS/TLS. Detta förskjuter cache-suveräniteten till globala resolvers och kan förändra propagationsmönstren. Jag mäter därför medvetet över flera typer av resolvers för att kontrollera den verkliga räckvidden istället för endast ISP-specifika synpunkter.
Risker med permanent låg eller hög TTL
Jag undviker alltid mycket korta TTL:er, eftersom de kan öka energiförbrukningen med upp till 50–70 procent. Last och förbrukar reserver. Det medför kostnader och försämrar svarstiderna under peak-tider. Å andra sidan anser jag att konstant mycket långa TTL:er är riskabla om jag behöver failover på knapptryckning. Även DDoS-påverkan kan delvis mildras med rimligt långa TTL:er, eftersom fler svar kommer direkt från cacher. Konsten ligger i att hitta en balans som på ett rimligt sätt väger uppdateringshastigheten mot frågevolymen.
Separera DNS- och HTTP-caching på ett tydligt sätt
Jag gör en tydlig åtskillnad: DNS-TTL bestämmer hur snabbt användarna får rätt måladress; HTTP-/CDN-cacher styra hur länge innehåll bakom denna adress ska cachelagras. En kort DNS-TTL påskyndar visserligen routingändringar, men löser inte problemet med föråldrat innehåll i kanten. Omvänt kan en lång DNS-TTL med mycket korta HTTP-TTL vara lämpligt om endast innehållet roterar ofta. Jag avstämmer båda så att det varken uppstår onödig DNS-belastning eller att klienter förses med gamla tillgångar.
Mätvärden och övervakning: Så håller jag TTL under kontroll
Jag mäter frågetakten, Fördröjning, cache-träfffrekvens och NXDOMAIN-kvot för att förstå effekten av min TTL. Om frågefrekvensen ökar efter en sänkning justerar jag värdena och kontrollerar gränserna för de auktoritativa servrarna. Om loggarna visar en hög felfrekvens undersöker jag om klienterna använder gamla cacher eller om ISP:er använder avvikande TTL:er. Dessutom optimerar jag SOA-posten, särskilt det negativa cachevärdet, så att resolver inte behåller felaktiga icke-existerande svar för länge. Regelbundna tester med verktyg som dig och globala uppslagskontroller säkerställer att ändringar syns överallt.
Kortfattat sammanfattat
Felaktigt inställda TTL:er kostar världen över Hastighet och orsakar uppdateringar som först blir synliga flera timmar senare. Innan jag gör ändringar sätter jag korta värden, kontrollerar effekten och höjer sedan tillbaka till en rimlig nivå. För statiskt innehåll väljer jag längre TTL:er, för dynamiska tjänster snarare korta till medelstora. Bra hosting-DNS-plattformar med Anycast och närliggande PoP:er gör varje inställning mer robust och påskyndar svaren. Om man följer dessa principer minskar man latensen, stärker tillgängligheten och får en mätbart bättre användarupplevelse.


