Billige priser er ofte baseret på gammel CPU-hosting, fordi afskrevne processorer presser priserne, men bremser indlæsningstider og vækst. Jeg viser tydeligt, hvornår denne hardware er tilstrækkelig, hvor den bremser, og hvilke alternativer med moderne teknologi der er rimeligt prissat.
Centrale punkter
- Omkostninger sparer udbydere med afskrevet hardware og billige restlagre.
- Ydelse lider under lave taktfrekvenser, få tråde og manglende kommandosæt.
- Skalering bliver dyrt, fordi migration og opgraderinger medfører omkostninger.
- Hukommelse med SATA i stedet for NVMe bremser dynamiske websteder betydeligt.
- Alternativer kombinerer aktuelle CPU'er, NVMe og rimelige priser til voksende projekter.
Hvorfor billige udbydere vælger gamle CPU'er
Jeg ser en stærk tendens til budgetpriser prispres, der giver udbyderen adgang til allerede afskrevne Xeon- eller ældre Ryzen-generationer. Disse systemer er ofte tilgængelige i store mængder fra returneringer fra datacentre, hvilket forenkler indkøbet og sikrer marginerne. En del af beregningen er desuden baseret på høj udnyttelse pr. host, hvilket forbliver planerbart med ældre CPU'er med enkle opsætninger. Princippet forstærkes af Oversalg inden for webhosting, hvor kapaciteterne tildeles dynamisk til flere kunder. Dette resulterer i attraktive indgangspriser, der ved første øjekast virker meget Strøm lover, men viser begrænsninger i praksis.
Omkostningsstruktur og amortisering
Det afgørende er stadig den samlede regning for anskaffelse, drift og Vedligeholdelse. Ældre servere er afskrevne, reservedele er billige, og teknikerne kender platformene godt. Nye top-CPU'er og hurtige DDR5-økosystemer koster mere, og derudover stiger strøm- og køleomkostningerne mærkbart i mange opsætninger. Udbydere med små margener undgår derfor de indledende investeringer i high-end-knudepunkter og holder de månedlige takster lave. For begyndere lyder det fornuftigt, men med stigende trafik stiger prisen senere over Migration og nedetid.
Ydelsesnedgang i hverdagen
Ældre CPU-generationer har som regel færre tråde, lavere clockfrekvenser og i nogle tilfælde ingen moderne Instruktionssæt som AVX-512. I WordPress, butikssoftware eller databaser ses længere svartider, især ved plugins og mange samtidige forespørgsler. I/O bliver en flaskehals, når der kun bruges SATA-SSD'er i stedet for NVMe, og query-belastninger bliver forsinket. Derfor prioriterer jeg den faktiske clockfrekvens pr. kerne, se Taktfrekvens vigtigere end kerner, fordi den ofte er afgørende for dynamiske sider. Hvis man tester med og uden caching, bemærker man hurtigt, hvor stor indflydelse den har. CPU bestemmes af First Byte Time.
Sammenligning af serverhardware: gammelt vs. nyt
Et direkte kig på typiske specifikationer hjælper med at Klassificering. Prisbillige tilbud omfatter ofte 4–8 kerner, DDR4 og SATA-SSD'er, mens moderne pakker tilbyder betydeligt mere parallelitet, båndbredde og I/O. Det mærkes i hverdagen ved build-tider, billedoptimering, caching-opvarmning og komplekse databaseforespørgsler. Hvis man skalerer efter dette, drager man fordel af reserverede ressourcer og den aktuelle arkitektur. Følgende oversigt viser typiske forskelle, som jeg regelmæssigt observerer i benchmarks og best practice-opsætninger.
| Kategori | Billig hosting (gammel CPU) | Premium Hosting (aktuel) |
|---|---|---|
| CPU | Intel Xeon E3/E-2xxx, 4–8 kerner, op til ~3 GHz | AMD Ryzen/Intel i9/EPYC, op til 44 kerner, >4 GHz |
| RAM | 8–32 GB DDR4 | 64–256 GB DDR5 |
| Hukommelse | SATA SSD, 500 GB–2 TB | NVMe SSD, op til 8 TB, ofte RAID |
| Netværk | 100–300 Mbit/s | 1 Gbit/s eller mere |
| Pris | fra 5 € pr. måned | fra 20 € pr. måned |
Jeg vurderer altid sådanne tabeller sammen med konkrete arbejdsbelastninger som PHP-FPM, Node.js-builds, medieoverførsler og Sikkerhedskopier. Moderne CPU'er giver her planlagte bedre latenstider og større reserver. Mere cache, hurtigere interconnects og NVMe reducerer tiden til den første byte. På delte værter med gamle CPU'er opstår der betydelige nedbrud under belastning. Hvis man ønsker at vokse på en planlagt måde, bør man tage denne sammenligning alvorligt og ikke udelukkende basere sig på Pris se.
Shared hosting og naboer: Når CPU'en hakker
På delte systemer konkurrerer mange kunder om det samme CPU-tid. Så snart naboprojekter arbejder med cronlast, kører backups eller genopbygger caches, stiger ventetiderne. Dette viser sig som svingende svartider, især på dynamiske sider og API-kald. Derfor tjekker jeg i overvågning og logs, om såkaldte CPU-stjålet tid stiger markant. Hvis dette sker ofte, er det ikke din kode, der begrænser, men den delte hardware – og oftest bremser en ældre platform med for lidt Ressourcer.
Hvornår gamle CPU'er er tilstrækkelige – og hvornår ikke
Jeg synes, at gamle platforme er brugbare, hvis du har en statisk Websted med lidt trafik eller hoster landingssider uden kompleks logik. Også små sideprojekter, personlige blogs eller prototyper kan ofte klare sig med dette. Det bliver kritisk for butikker, communities, LMS-systemer, CRM-stacks og alt, der genererer mange samtidige forespørgsler. Her afgør CPU-klokfrekvensen og NVMe-ydeevnen omsætning, registrering og brugertilfredshed. Hvis projektet vokser, betaler en opgradering sig hurtigt, fordi du bruger mindre Fejl og mangler risikerer.
Alternativer: Moderne ressourcer til en rimelig pris
Jeg satser på aktuelle projekter med lang levetid CPU'er, tilstrækkelig RAM og NVMe-lagerplads, fordi det betaler sig ved spidsbelastninger. I sammenligninger med root- og vServer-tilbud klarer systemer med Intel Core i9 eller AMD Ryzen, meget RAM og 2× NVMe RAID sig godt. Nogle udbydere starter allerede ved omkring 24,90 € med moderne hardware og tilbyder planerbar skalerbarhed. Højere priser på omkring 100 € og mere giver ekstra kerner, mere hukommelse og udvidet overvågning til krævende opsætninger. Ifølge webhosting.de Root-Server-Vergleich opnår disse platforme konstant lave latenstider og gode Reserver.
SEO-effekter af langsom hardware
Langsomme værter skader placeringer, fordi søgemaskiner Opladningstid og stabilitet. Hvis tiden til første byte eller den største indholdsrige maling overskrider tærsklen på cirka tre sekunder, falder synligheden og konverteringen ofte mærkbart. Gamle CPU'er øger denne risiko, især hvis der ikke er NVMe-lagerplads til rådighed, og databasen bremser. Jeg optimerer først serverbasen, før jeg går i gang med finjustering af temaer eller plugins. En hurtigere platform reducerer antallet af optimeringsopgaver og styrker Core Web Vitals.
Målemetode: Sådan tester jeg værter før flytningen
Før jeg skifter, tester jeg målmiljøet på en reproducerbar måde. Det er vigtigt at foretage målinger med koldt og varmt Cache, så du kan se, hvordan platformen fungerer uden hjælpemidler, og hvor godt den fungerer med cache. Jeg måler TTFB, P95/P99-latens og forespørgsler pr. sekund under realistiske samtidighedsværdier. Dette omfatter:
- Koldstart-tests med tømt OPCache/Page-Cache for at få den rene CPU-Ydeevne.
- Varm cache-test ved samtidige forespørgsler (f.eks. 10–50 brugere) for at afspejle typiske trafikspidser.
- Database-mikrotests (SELECT/INSERT blandet) for at I/O– og lock-adfærd.
- Små upload-/billedtransformationer for at se, hvor god komprimering, SSL og billedbehandling skaleres.
Jeg vurderer latenstidsfordelingen, ikke kun gennemsnittet. Stærke udsving ved P95/P99 indikerer ofte overbelastede værter, langsomme lagerstier eller manglende CPU-reserver. Det er netop disse sjældne, men dyre spidsbelastninger, der afgør brugeroplevelsen og konverteringen.
CPU-funktioner og softwarekompatibilitet
Moderne Instruktionssæt og platformsfunktioner betyder mere i hverdagen, end mange tror. Ældre Xeons eller tidlige Ryzen-generationer bremser ved TLS-håndtryk og komprimering, når AES-NI, VAES eller brede vektorstier mangler. Billedoptimering (f.eks. via libvips/Imagick), moderne codecs og komprimeringsprogrammer drager stor fordel af AVX2; med AVX-512 skaleres ydeevnen yderligere i arbejdsbelastninger som analyse eller rendering. Mangler understøttelsen, tager alt længere tid eller bryder sammen hurtigere ved høj belastning.
Et andet punkt: sikkerhedsforanstaltninger. Microcode-patches og kernel-foranstaltninger mod kendte CPU-sårbarheder rammer ofte ældre generationer hårdere. Afhængigt af arbejdsbyrden reducerer dette gennemløbshastigheden mærkbart. På nye platforme er tabene mindre, og du får mere. Enkelt kerne-Ydeevne til dynamiske sider.
Databaser og caching: Hvad du stadig kan få ud af gammel hardware
Hvis flytningen endnu ikke er planlagt, optimerer jeg først de ruter, der indebærer mindst risiko:
- OPcache og en ren PHP-FPM-konfiguration (passende max_children) reducerer procesoverhead.
- Side-cache og en objektcache til sessioner/transienter aflaster Database.
- Vælg komprimeringsniveauer pragmatisk (f.eks. Brotli/Gzip moderat) for at CPU ikke overbelaste.
- Optimer billedstørrelser og formater på forhånd i stedet for at transformere dem on-the-fly.
- Spred batch-jobs og cron-opgaver over tid, så spidsbelastninger ikke kolliderer.
Det er justeringsskruer, der har en kortvarig effekt på ældre CPU'er. Alligevel forbliver grænsen lav, hvis NVMe mangler, og taktfrekvensen pr. kerne er lav. Senest når P95-latenser stiger regelmæssigt, planlægger jeg at skifte.
Energi, køling og bæredygtighed
Jeg regner i stigende grad med energi- og køleomkostninger i projekter. Nye platforme leverer betydeligt mere pr. watt. Strøm og er mere effektive ved fuld belastning. Det reducerer ikke kun hostingudbyderens strømregning, men forbedrer også de termiske reserver – hvilket er vigtigt, når sommerens belastningstop og fulde racks mødes. Ældre servere bruger ofte mere strøm pr. forespørgsel, hvilket kan føre til termisk begrænsning i tætte miljøer. Effektiv CPU'er og NVMe reducerer også tiden pr. job, hvilket gør infrastrukturen mere stabil.
SLA'er, overvågning og gennemsigtighed
Jeg er afhængig af klare SLA'er og pålidelige måleværdier. Dette omfatter garanterede ressourcer (kerner/tråde, RAM, I/O-grænser) og en gennemsigtig visning af værtsdensiteten. På virtuelle systemer er det en hjælp at gøre CPU-steal, I/O-ventetid og netværksudfald synlige i overvågningen. Jeg bruger alarmer på P95/99, fejlprocenter og Timeouts, for at opdage snigende forringelse tidligt. Hvis du vil skalere, har du også brug for observabilitet: logfiler, metrikker, spor. Så kan du se, om det er din kode eller platformen, der er begrænset.
Omkostninger og fordele: Hvornår kan moderne hardware betale sig?
Jeg betragter skiftet som en investering i Forsinkelse og stabilitet. Et eksempel: Hvis TTFB stiger fra 800 ms til 200–300 ms, øges gennemstrømningen ofte mærkbart, og checkout-flows kører mere smidigt. Selv hvis prisen stiger fra 5 € til 25–30 € om måneden, kompenserer en lille stigning i konverteringsraten ofte hurtigt for disse omkostninger. Især projekter med sæsonmæssige spidsbelastninger (salg, lanceringer) drager fordel af dette: Moderne platforme kan modstå pres uden at kræve komplekse Workarounds bliver nødvendigt.
Ud over tarifprisen omfatter fuld omkostningsberegning også migrationsomkostninger, mulig nedetid og alternativomkostninger ved langsomme sider. Når man regner efter, konstaterer man ofte, at den tilsyneladende dyre tarif er billigere set over et kvartal, hvis omsætningen er mere stabil, og der bruges mindre tid på brandbekæmpelse.
Skaleringsveje og arkitekturbeslutninger
Jeg planlægger projekter i klare trin, så overgangen forbliver stressfri:
- Delt → vServer: Reserverede ressourcer, første kontrol over Grænser og tjenester.
- vServer → Dedikeret server: Ingen naboer, fuld I/O, planerbar opgradering af CPU/RAM/NVMe.
- Enkelt server → Klynge: Separat databasehost, caching-lag, eventuelt read-replicas og queueing.
Det er afgørende at identificere flaskehalsen tidligt: CPU, RAM, storage eller netværk. Moderne platforme gør det lettere at tage horisontale skridt, fordi basen er hurtigere og mere deterministisk. Det gør det nemmere at køre blue-green-implementeringer og staging-tests uden at forstyrre kunderne.
Tjekliste inden indgåelse af en hostingkontrakt
Jeg tjekker først den ægte CPU-generation og spørger om model, taktfrekvens og tråde i stedet for at stole på markedsføringsnavne. Derefter afklarer jeg, om NVMe i stedet for SATA er i brug, og hvor høj den garanterede I/O-ydeevne er. Jeg er opmærksom på RAM-type og -mængde samt begrænsninger for PHP-FPM-workere, processer og åbne filer. Netværksoplysninger som garanteret båndbredde og porte er vigtige, ikke kun „op til“-værdier. Til sidst ser jeg på overvågning, support-reaktionstid og opgraderingsveje, så skiftet senere ikke bliver noget problem. Nedetid produceret.
Migration og skalering uden hovedpine
Jeg planlægger opgraderinger tidligt, så jeg i ro og mag kan opdatere databaser, caches og DNS flytte. Et staging-system hjælper med at teste den nye platform med produktive data og identificere flaskehalse. Når jeg skifter til moderne hardware, satser jeg på NVMe-storage, aktuelle CPU-generationer, klare grænser og observability. På den måde måler jeg, om målmiljøet bedre kan håndtere spidsbelastninger, og hvordan P99-latenser ændrer sig. Med en god plan opnår du betydeligt mere headroom og reducerer risikoen for undgåelige Fejl og mangler.
Kort opsummeret
Billige priser virker fristende, men gamle CPU'er bremser ofte netop når dit projekt tager fart. For statiske sider er det ofte okay, men ved dynamiske applikationer betaler du med latenstid, udsving og SEO-risici. Moderne platforme med højere clockfrekvens, flere tråde og NVMe betaler sig hurtigt. Derfor træffer jeg beslutninger ud fra arbejdsbyrde, vækst og reelle målinger i stedet for den laveste pris. Hvis du planlægger klogt, bruger du billige startpakker i kort tid og skifter til tiden. aktuel Ressourcer.


