Hvordan HTTP 2.0 vil ændre internetets overflade
Næsten alt, hvad du besøger på internettet på et eller andet tidspunkt, bruger en speciel protokol kendt som HTTP (Hyptertext Transfer Protocol). Siden år 1999 har du brugt HTTP version 1.1. Dette har været den løbende standard i mange år, indtil Google offentliggjorde den 10. februar 2015, at dens browser vil tilføre fuld understøttelse af det, der nu er kendt som HTTP / 2. Dette lyder som yderst gibberish til nogle, men det er fordi der ikke er nogen beskrivelse af, hvad HTTP / 2 gør anderledes. For at forstå dette skal vi udforske præcis, hvad denne nye protokolversion gør, og hvordan den ligner den version af HTTP, vi har brugt i næsten to årtier.
Hvad opnår HTTP / 2?
Når en ny protokolversion er udviklet, har den brug for konkrete mål. Det mest oplagte mål er bagudkompatibel med sin forgænger, HTTP 1.1. Uden denne evne bliver alle servere i verden nødt til at skifte til HTTP / 2, så du kan browse deres websites.
Mens den nye protokol opretholdes kompatibilitet med den ældre version, vil denne nye protokol benytte avancerede teknikker som foranstaltninger mod latens, hvilket gør siderne hurtigere. Dette er det primære mål, det problem, som HTTP / 2 planlægger at tackle mest aggressivt.
Andre forbedringer omfatter ekstra sikkerhed og kompatibilitet med omvendte proxyer.
I den store ordning af ting vil HTTP / 2 ikke være så meget forskellig fra HTTP 1.1. Som du surfer på internettet, er den stærkeste effekt, du vil føle, at websiderne vil blive belastet betydeligt hurtigere, så længe de understøtter den nye version.
Hvordan laver HTTP / 2 nettet hurtigere?
At sige, at "HTTP / 2 gør alt hurtigere" er en dårlig service til den mængde arbejde, der rent faktisk foregår bag kulisserne for at opnå dette. HTTP 1.1-protokollen er forsynet med en række problemer, der var acceptable i de første år af det 21. århundrede, men det giver ikke længere mening at fortsætte med at leve med i en tid hvor båndbredden er billigere, og servere forventes at indlæse sider med meget hurtigere priser .
Den primære måde, hvorpå HTTP / 2 planlægger at adressere sideindlæsningstider, er ved at komprimere overskriften (et stykke data, der sendes af din klient for at anmode om, at en server giver dig data inde i en webside, du besøger). Dette minimerer den tid, computeren "ryster hænder" til destinationsserveren ved at reducere mængden af data, der skal sendes. I dag er processorer stærke nok til at håndtere millioner af dekompressioner på kort tid. Det er mere fornuftigt at gøre dette nu.
Mens ovenstående kun tager sig af latensen i den oprindelige anmodning, er der også måder, hvorpå HTTP / 2 planlægger at tage sig af hele dit samspil med et websted. Det vil direkte implementere server push teknologier, som gør det muligt for servere at være mere aktive i kommunikationsprocessen. Indtil for nylig måtte du sende henvendelser regelmæssigt til serveren, så det fortolker de overskrifter, du churn out hver gang du beder om oplysninger. Med HTTP / 2 sender serveren dig nye data, når den vises.
Endelig vil HTTP / 2 gøre noget, der hedder "multiplexing", når du sender henvendelser. I HTTP 1.1 var der et problem: Hver ny pakke havde forrang i forhold til den sidste. Alle blev behandlet lineært, hvilket førte til et problem kaldet "head-of-block blocking". Grundlæggende var en servers ydeevne begrænset af den kendsgerning, at den skulle behandle den første pakke, der kommer til det, mens resten afkøles i en kø. Hvis pakken tog lang tid at behandle, måtte alle andre pakker vente i kø for deres tur. Med HTTP / 2 behandles flere pakker på samme tid.
Med denne kombination af forskellige "kur" vil HTTP / 2 gøre alt, hvad det kan for at undgå afmatninger på grund af HTTP-specifikke problemer. Dette vil være særligt fordelagtigt for websteder med mindre servere, der ikke er forbundet med så meget båndbredde som dem, der kører Facebook og Google.
Hvis du har spørgsmål eller ideer, skal du sørge for at skrive en kommentar med dine tanker!