World Wide Web - World Wide Web

En webbsida som visas i en webbläsare
En global karta över webbindex för länder 2014

Den World Wide Web ( WWW ), allmänt känd som Web , är ett informationssystem där dokument och andra webbresurser identifieras med Uniform Resource Locator (URL: er, såsomhttps://exempel.com/), som kan vara sammankopplade med hyperlänkar och är tillgängliga via Internet . Webbens resurser överförs via Hypertext Transfer Protocol (HTTP), kan komma åt av användare av ett program som kallas en webbläsare och publiceras av ett program som kallas en webbserver . World Wide Web är inte synonymt med Internet, som i förväg daterade webben i mer än två decennier och med den teknik som webben är byggd på.

Den engelska forskaren Tim Berners-Lee uppfann World Wide Web 1989. Han skrev den första webbläsaren 1990 medan han var anställd på CERN nära Genève, Schweiz. Webbläsaren släpptes utanför CERN till andra forskningsinstitutioner från och med januari 1991 och sedan till allmänheten i augusti 1991. Webben började komma in i vardagen 1993–4, då webbplatser för allmänt bruk började bli tillgängliga. World Wide Web har varit centralt för utvecklingen av informationsåldern och är det främsta verktyget som miljarder människor använder för att interagera på Internet.

Webbresurser kan vara alla typer av nedladdade medier, men webbsidor är hypertextdokument formaterade i Hypertext Markup Language (HTML). Speciell HTML -syntax visar inbäddade hyperlänkar med URL: er som tillåter användare att navigera till andra webbresurser. Förutom text kan webbsidor innehålla referenser till bilder , video , ljud och programvarukomponenter som antingen visas eller internt körs i användarens webbläsare för att återge sidor eller flöden av multimediainnehåll .

Flera webbresurser med ett gemensamt tema och vanligtvis ett gemensamt domännamn utgör en webbplats . Webbplatser lagras på datorer som kör en webbserver , vilket är ett program som svarar på förfrågningar från Internet från webbläsare som körs på en användares dator. Webbplatsinnehåll kan tillhandahållas av en utgivare eller interaktivt från användargenererat innehåll . Webbplatser tillhandahålls av en myriad av informativa, underhållnings-, kommersiella och statliga skäl.

Historia

Den NeXT Computer används av Tim Berners-Lee vid CERN
Korridoren där WWW (eller World Wide Web) föddes. CERN , bottenvåningen i byggnad nr 1

Det underliggande konceptet hyper har sitt ursprung i tidigare projekt från 1960-talet, såsom Hyper Redigerar System (HES) vid Brown University, Ted Nelson 's Project Xanadu , och Douglas Engel ' s On-Line System (NLS). Både Nelson och Engel var i sin tur inspirerats av Vannevar Bush 's mikrofilm -baserad Memex , som beskrevs i 1945 essä ' som vi kanske tror .' Tim Berners-Lees vision om ett globalt hyperlänkat informationssystem blev en möjlighet under andra halvan av 1980-talet. År 1985 började det globala Internet sprida sig i Europa och domännamnssystemet (som Uniform Resource Locator bygger på) kom till. 1988 upprättades den första direkta IP-anslutningen mellan Europa och Nordamerika och Berners-Lee började öppet diskutera möjligheten till ett webbliknande system på CERN.

När han arbetade på CERN blev Berners-Lee frustrerad över ineffektiviteten och svårigheterna med att hitta information lagrad på olika datorer. Den 12 mars 1989 lämnade han in en promemoria med titeln "Information Management: A Proposal" till ledningen på CERN för ett system som heter "Mesh" som refererade till INQUIRE , en databas och ett mjukvaruprojekt som han hade byggt 1980, som använde termen "webb" och beskrev ett mer genomarbetat informationshanteringssystem baserat på länkar inbäddade som text: "Tänk dig då att referenserna i detta dokument är alla associerade med nätverksadressen för det de hänvisade till, så att när du läser detta dokument, du kan hoppa till dem med ett musklick. " Ett sådant system, förklarade han, skulle kunna hänvisas till med hjälp av en av de befintliga betydelserna av ordet hypertext , en term som han säger myntades på 1950 -talet. Det finns ingen anledning, fortsätter förslaget, varför sådana hypertextlänkar inte kan omfatta multimediadokument inklusive grafik, tal och video, så att Berners-Lee fortsätter att använda termen hypermedia .

Med hjälp av sin kollega och kollega hypertextentusiast Robert Cailliau publicerade han ett mer formellt förslag den 12 november 1990 att bygga ett "Hypertextprojekt" kallat "WorldWideWeb" (ett ord, förkortat "W3") som en "webb" av "hypertextdokument" "att ses av" webbläsare "med en klient -server -arkitektur . Vid denna tidpunkt hade HTML och HTTP redan varit under utveckling i ungefär två månader och den första webbservern var ungefär en månad från det första framgångsrika testet. Detta förslag uppskattade att en skrivskyddad webb skulle utvecklas inom tre månader och att det skulle ta sex månader att uppnå "skapande av nya länkar och nytt material av läsare, [så att] författarskap blir universellt" såväl som "det automatiska meddelande till en läsare när nytt material av intresse för honom/henne har blivit tillgängligt ". Medan det skrivskyddade målet nåddes tog det längre tid att komma åt författarskap för webbinnehåll med wikikonceptet , WebDAV , bloggar , Web 2.0 och RSS / Atom .

CERN -datacenteret 2010 rymmer några WWW -servrar

Förslaget modellerades efter SGML- läsaren Dynatext av Electronic Book Technology, en spin-off från Institute for Research in Information and Scholarship vid Brown University . Dynatext -systemet, licensierat av CERN , var en nyckelspelare i förlängningen av SGML ISO 8879: 1986 till Hypermedia inom HyTime , men det ansågs för dyrt och hade en olämplig licenspolicy för användning i det allmänna högenergifysikgemenskapen, nämligen en avgift för varje dokument och varje dokumentändring. En NeXT-dator användes av Berners-Lee som världens första webbserver och även för att skriva den första webbläsaren 1990. Till julen 1990 hade Berners-Lee byggt alla verktyg som var nödvändiga för en fungerande webb: den första webbläsaren ( WorldWideWeb , som också var en webbredigerare ) och den första webbservern. Den första webbplatsen, som beskrev själva projektet, publicerades den 20 december 1990.

Den första webbsidan kan gå förlorad, men Paul Jones från UNC-Chapel Hill i North Carolina meddelade i maj 2013 att Berners-Lee gav honom vad han säger är den äldsta kända webbsidan under ett besök på UNC 1991. Jones lagrade den på en magneto-optisk enhet och på sin NeXT-dator. Den 6 augusti 1991 publicerade Berners-Lee en kort sammanfattning av World Wide Web-projektet om nyhetsgruppen alt.hypertext . Detta datum förväxlas ibland med den allmänna tillgängligheten för de första webbservrarna, som hade inträffat månader tidigare. Som ett annat exempel på sådan förvirring rapporterade flera nyhetsmedier att det första fotot på webben publicerades av Berners-Lee 1992, en bild av CERN-husbandet Les Horribles Cernettes taget av Silvano de Gennaro; Gennaro har avvisat denna historia och skrivit att media "förvrängde våra ord totalt för billig sensationism".

Den första servern utanför Europa installerades i december 1991 vid Stanford Linear Accelerator Center (SLAC) i Palo Alto, Kalifornien, för att vara värd för SPIERS -HEP -databasen.

Berners-Lees genombrott var att gifta sig med hypertext till Internet. I sin bok Weaving The Web förklarar han att han upprepade gånger hade föreslagit för medlemmar i båda tekniska samhällen att ett äktenskap mellan de två teknikerna var möjligt. Men när ingen tog emot hans inbjudan antog han äntligen projektet själv. I processen utvecklade han tre viktiga tekniker:

World Wide Web hade flera skillnader från andra hypertextsystem som var tillgängliga vid den tiden. Webben krävde endast enkelriktade länkar snarare än dubbelriktade, vilket gör det möjligt för någon att länka till en annan resurs utan handling från ägaren av den resursen. Det minskade också avsevärt svårigheten att implementera webbservrar och webbläsare (i jämförelse med tidigare system), men i sin tur presenterade det kroniska problemet med länkrotning . Till skillnad från föregångare som HyperCard var World Wide Web icke-proprietär, vilket gjorde det möjligt att utveckla servrar och klienter oberoende och lägga till tillägg utan licensrestriktioner. Den 30 april 1993 meddelade CERN att World Wide Web skulle vara gratis för alla, utan några avgifter. Kommer två månader efter tillkännagivandet att serverimplementeringen av Gopher -protokollet inte längre var gratis att använda, gav detta en snabb förskjutning bort från Gopher och mot webben. En tidigt populär webbläsare var ViolaWWW för Unix och X Window System .

Robert Cailliau , Jean-François Abramatic och Tim Berners-Lee vid tioårsjubileet av World Wide Web Consortium

Webben började bli allmänt använd 1993–4, då webbplatser för daglig användning började bli tillgängliga. Historiker är i allmänhet överens om att en vändpunkt för webben började med introduktionen av Mosaic 1993 , en grafisk webbläsare som utvecklats vid National Center for Supercomputing Applications vid University of Illinois i Urbana – Champaign (NCSA-UIUC). Utvecklingen leddes av Marc Andreessen , medan finansiering kom från US High-Performance Computing and Communications Initiative och High Performance Computing Act från 1991 , en av flera datorutvecklingar som initierades av den amerikanska senatorn Al Gore . Innan Mosaic släpptes blandades grafik inte vanligt med text på webbsidor, och webben var mindre populär än äldre protokoll som Gopher och Wide Area Information Servers (WAIS). Mosaics grafiska användargränssnitt tillät webben att bli det i särklass mest populära protokollet på Internet. Den World Wide Web Consortium (W3C) grundades av Tim Berners-Lee efter att han lämnat den europeiska organisationen för kärnforskning (CERN) i oktober 1994. Det grundades i Massachusetts Institute of Technology Laboratory for Computer Science (MIT / LCS) med stöd från Defense Advanced Research Projects Agency (DARPA), som hade varit banbrytande på Internet; ett år senare grundades en andra webbplats på INRIA (ett franskt nationellt datorforskningslaboratorium) med stöd från Europeiska kommissionen GD InfSo; och 1996 skapades en tredje kontinental plats i Japan vid Keio University . I slutet av 1994 var det totala antalet webbplatser fortfarande relativt litet, men många anmärkningsvärda webbplatser var redan aktiva som förebådade eller inspirerade dagens mest populära tjänster.

Anslutna av Internet skapades andra webbplatser runt om i världen. Detta motiverade internationell standardutveckling för protokoll och formatering. Berners-Lee fortsatte att vara involverad i att styra utvecklingen av webbstandarder, till exempel markeringsspråk för att komponera webbsidor och han förespråkade hans vision om en semantisk webb . World Wide Web möjliggjorde spridning av information över Internet genom ett lättanvänt och flexibelt format. Det spelade således en viktig roll för att popularisera användningen av Internet. Även om de två termerna ibland är sammanblandade i populär användning, är World Wide Web inte synonymt med Internet . Webben är ett informationsutrymme som innehåller hyperlänkade dokument och andra resurser , identifierade med deras URI: er. Det implementeras som både klient- och serverprogramvara med hjälp av internetprotokoll som TCP/IP och HTTP .

Berners-Lee riddades 2004 av drottning Elizabeth II för "tjänster till den globala utvecklingen av Internet". Han patenterade aldrig sin uppfinning.

Fungera

World Wide Web fungerar som ett protokoll för applikationslager som körs "ovanpå" (bildligt) Internet, vilket hjälper till att göra det mer funktionellt. Tillkomsten av webbläsaren Mosaic hjälpte till att göra webben mycket mer användbar, inklusive visning av bilder och rörliga bilder ( GIF ).

Termerna Internet och World Wide Web används ofta utan större skillnad. De två termerna betyder dock inte samma sak. Internet är ett globalt system av sammankopplade datanätverk . Däremot är World Wide Web en global samling av dokument och andra resurser , länkade med hyperlänkar och URI: er . Webbresurser nås med HTTP eller HTTPS , som är Internet-protokoll på applikationsnivå som använder Internets transportprotokoll.

Att visa en webbsida på World Wide Web börjar normalt antingen genom att skriva webbadressen till sidan i en webbläsare eller genom att följa en hyperlänk till den sidan eller resursen. Webbläsaren initierar sedan en serie bakgrundskommunikationsmeddelanden för att hämta och visa den begärda sidan. På 1990 -talet blev en webbläsare för att visa webbsidor - och för att flytta från en webbsida till en annan genom hyperlänkar - känd som "surfning", "webbsurfing" (efter kanalsurfing ) eller "navigering på webben". Tidiga studier av detta nya beteende undersökte användarmönster för att använda webbläsare. En studie fann till exempel fem användarmönster: utforskande surfning, fönstersurfing, utvecklad surfning, begränsad navigering och riktad navigering.

Följande exempel visar hur en webbläsare fungerar vid åtkomst till en sida på URL: en http://example.org/home.html. Webbläsaren löser webbadressens servernamn (exempel.org) till en internetprotokolladress med det globalt distribuerade Domain Name System (DNS). Denna sökning returnerar en IP -adress som 203.0.113.4 eller 2001: db8: 2e :: 7334 . Webbläsaren begär sedan resursen genom att skicka en HTTP -begäran över Internet till datorn på den adressen. Den begär service från ett specifikt TCP -portnummer som är känt för HTTP -tjänsten, så att den mottagande värden kan skilja en HTTP -begäran från andra nätverksprotokoll som den kan betjäna. HTTP använder normalt portnummer 80 och för HTTPS använder det normalt portnummer 443 . Innehållet i HTTP -begäran kan vara så enkelt som två textrader:

GET /home.html HTTP/1.1
Host: example.org

Datorn som tar emot HTTP -begäran levererar den till webbserverns programvara som lyssnar efter förfrågningar på port 80. Om webbservern kan uppfylla begäran skickar den ett HTTP -svar tillbaka till webbläsaren som indikerar framgång:

HTTP/1.1 200 OK
Content-Type: text/html; charset=UTF-8

följt av innehållet på den begärda sidan. Hypertext Markup Language ( HTML ) för en grundläggande webbsida kan se ut så här:

<html>
  <head>
    <title>Example.org – The World Wide Web</title>
  </head>
  <body>
    <p>The World Wide Web, abbreviated as WWW and commonly known ...</p>
  </body>
</html>

Webbläsaren analyserar HTML -koden och tolkar markeringen ( , för stycke och liknande) som omger orden för att formatera texten på skärmen. Många webbsidor använder HTML för att referera till URL: erna för andra resurser, till exempel bilder, andra inbäddade medier, skript som påverkar sidens beteende och kaskadformat som påverkar sidlayout. Webbläsaren gör ytterligare HTTP -förfrågningar till webbservern för dessa andra Internetmediatyper . Eftersom det tar emot innehållet från webbservern, webbläsaren progressivt gör sidan på skärmen som anges av HTML och dessa ytterligare resurser. <title><p>

HTML

Hypertext Markup Language (HTML) är standard markup language för att skapa webbsidor och webbapplikationer . Med Cascading Style Sheets (CSS) och JavaScript utgör det en triad av hörnstenstekniker för World Wide Web.

Webbläsare tar emot HTML -dokument från en webbserver eller från lokal lagring och gör dokumenten till multimediasidor. HTML beskriver strukturen på en webbsida semantiskt och ursprungligen inkluderade ledtrådar för dokumentets utseende.

HTML -element är byggstenarna för HTML -sidor. Med HTML -konstruktioner kan bilder och andra objekt som interaktiva formulär vara inbäddade i den renderade sidan. HTML ger ett sätt att skapa strukturerade dokument genom att beteckna strukturell semantik för text som rubriker, stycken, listor, länkar , citat och andra objekt. HTML -element avgränsas av taggar , skrivna med vinkelparenteser . Taggar som och introducerar innehåll direkt på sidan. Andra taggar som surround och ger information om dokumenttext och kan innehålla andra taggar som underelement. Webbläsare visar inte HTML -taggar, utan använder dem för att tolka innehållet på sidan. <img /><input /><p>

HTML kan bädda in program skrivna på ett skriptspråk som JavaScript , vilket påverkar beteendet och innehållet på webbsidor. Införande av CSS definierar utseendet och layouten på innehåll. Den World Wide Web Consortium (W3C), ansvarig för både HTML och CSS standarderna har uppmuntrat användningen av CSS över explicit presentations HTML sedan 1997.

Länka

De flesta webbsidor innehåller hyperlänkar till andra relaterade sidor och kanske till nedladdningsbara filer, källdokument, definitioner och andra webbresurser. I den bakomliggande HTML ser en hyperlänk ut så här: <a href="http://example.org/home.html">Example.org Homepage</a>

Grafisk representation av en minuts bråkdel av WWW, som visar hyperlänkar

En sådan samling av användbara, relaterade resurser, sammankopplade via hypertextlänkar är dubbad en web information. Publikation på Internet skapade det som Tim Berners-Lee först kallade WorldWideWeb (i sin ursprungliga CamelCase , som senare kasserades) i november 1990.

Hyperlänkstrukturen för webben beskrivs av webgrafiken : webbgrafikens noder motsvarar webbsidorna (eller URL: erna) de riktade kanterna mellan dem till hyperlänkarna. Med tiden försvinner, flyttar eller ersätts många webbresurser som hyperlänkar pekar på, eller ersätts med annat innehåll. Detta gör hyperlänkar föråldrade, ett fenomen som i vissa kretsar kallas länkruttning, och de hyperlänkar som påverkas av det kallas ofta döda länkar . Webbens flyktiga natur har föranlett många ansträngningar att arkivera webbplatser. Den Internet Archive , aktiv sedan 1996, är den mest kända av dessa ansträngningar.

WWW -prefix

Många värdnamn som används för World Wide Web börjar med www på grund av den långvariga praxisen att namnge internetvärdar enligt de tjänster de tillhandahåller. Den värdnamn på en webbserver är ofta www , på samma sätt som det kan vara ftp för en FTP-server , och nyheter eller NNTP för en Usenet nyhetsserver . Dessa värdnamn visas som Domain Name System (DNS) eller underdomännamn , som i www.example.com . Användningen av www krävs inte av någon teknisk eller policystandard och många webbplatser använder den inte; den första webbservern var nxoc01.cern.ch . Enligt Paolo Palazzi, som arbetade på CERN tillsammans med Tim Berners-Lee, var den populära användningen av www som underdomän oavsiktlig; World Wide Web -projektsidan var tänkt att publiceras på www.cern.ch medan info.cern.ch var tänkt att vara CERN -hemsidan; DNS -posterna byttes dock aldrig, och praxis att förbereda www till en institutions webbplatsdomännamn kopierades därefter. Många etablerade webbplatser använder fortfarande prefixet, eller de använder andra underdomännamn som www2 , secure eller sv för speciella ändamål. Många sådana webbservrar är konfigurerade så att både huvuddomännamnet (t.ex. exempel.com) och www -underdomänen (t.ex. www.exempel.se) hänvisar till samma webbplats; andra kräver en eller annan form, eller de kan mappa till olika webbplatser. Användningen av ett underdomännamn är användbart för belastningsbalansering av inkommande webbtrafik genom att skapa en CNAME -post som pekar på ett kluster av webbservrar. Eftersom för närvarande bara en underdomän kan användas i ett CNAME kan samma resultat inte uppnås genom att använda den enda domänroten.

När en användare skickar ett ofullständigt domännamn till en webbläsare i adressfältets inmatningsfält, försöker vissa webbläsare automatiskt lägga till prefixet "www" i början av det och eventuellt ".com", ".org" och ".net "i slutet, beroende på vad som kan saknas. Till exempel kan inmatning av 'microsoft' omvandlas till http://www.microsoft.com/ och 'openoffice' till http://www.openoffice.org . Denna funktion började visas i tidiga versioner av Firefox , när den fortfarande hade arbetstiteln "Firebird" i början av 2003, från en tidigare praxis i webbläsare som Lynx . Det rapporteras att Microsoft beviljades ett amerikanskt patent för samma idé 2008, men bara för mobila enheter.

På engelska brukar www läsas som double-u double-u double-u . Vissa användare uttalar det dub-dub-dub , särskilt i Nya Zeeland. Stephen Fry, i sin "Podgrams" -serie av podcaster, uttalar det wuh wuh wuh . Den engelska författaren Douglas Adams sa en gång i The Independent on Sunday (1999): "World Wide Web är det enda jag vet om vars förkortade form tar tre gånger längre tid att säga än vad det är kort för". På mandarinkinesiska översätts World Wide Web vanligtvis via en fonosemantisk matchning till wàn liknande wǎng (万维网), vilket tillfredsställer www och betyder bokstavligen "myriad dimensional net", en översättning som återspeglar designkonceptet och spridningen av World Wide Web. . Tim Berners-Lees web-space säger att World Wide Web officiellt stavas som tre separata ord, var och en med stora bokstäver, utan mellanliggande bindestreck. Användningen av prefixet www har minskat, särskilt när Web 2.0 -webbapplikationer försökte märka sina domännamn och göra dem lätt att uttala. När mobilwebben växte i popularitet nämns tjänster som Gmail .com, Outlook.com , Myspace .com, Facebook .com och Twitter .com oftast utan att lägga till "www." (eller faktiskt ".com") till domänen.

Schema specificerare

Schema specificerar http://och https://i början av en webb -URI hänvisar till Hypertext Transfer Protocol respektive HTTP Secure . De anger kommunikationsprotokollet som ska användas för begäran och svaret. HTTP -protokollet är grundläggande för driften av World Wide Web, och det extra krypteringsskiktet i HTTPS är viktigt när webbläsare skickar eller hämtar konfidentiell data, till exempel lösenord eller bankinformation. Webbläsare förbereder vanligtvis http: // automatiskt till användarinmatade URI, om de utelämnas.

Sidor

En skärmdump av en webbsida på Wikimedia Commons

En webbsida (även skriven som webbsida ) är ett dokument som är lämpligt för World Wide Web och webbläsare . En webbläsare visar en webbsida på en bildskärm eller mobil enhet .

Termen webbsida hänvisar vanligtvis till det som är synligt, men kan också hänvisa till innehållet i själva datorfilen , som vanligtvis är en textfil som innehåller hypertext skriven i HTML eller ett jämförbart markeringsspråk . Typiska webbsidor ger hypertext för att surfa till andra webbsidor via hyperlänkar , ofta kallade länkar . Webbläsare måste ofta komma åt flera webbresurselement , till exempel läsa stilark , skript och bilder, samtidigt som varje webbsida presenteras.

I ett nätverk kan en webbläsare hämta en webbsida från en fjärransluten webbserver . Webbservern kan begränsa åtkomsten till ett privat nätverk, till exempel ett företags intranät. Webbläsaren använder Hypertext Transfer Protocol (HTTP) för att göra sådana förfrågningar till webbservern .

En statisk webbsida levereras precis som lagrad, som webbinnehåll i webbserverns filsystem . Däremot genereras en dynamisk webbsida av en webbapplikation , vanligtvis driven av programvara på serversidan . Dynamiska webbsidor används när varje användare kan kräva helt annan information, till exempel bankwebbplatser, webbmail etc.

Statisk sida

En statisk webbsida (ibland kallad en platt sida/stationär sida ) är en webbsida som levereras till användaren exakt som lagrad, till skillnad från dynamiska webbsidor som genereras av en webbapplikation .

Följaktligen visar en statisk webbsida samma information för alla användare, från alla sammanhang, med förbehåll för en webbservers moderna möjligheter att förhandla om innehållstyp eller språk i dokumentet där sådana versioner är tillgängliga och servern är konfigurerad att göra det.

Dynamiska sidor

Dynamisk webbsida: exempel på skript på serversidan ( PHP och MySQL )

En dynamisk webbsida på serversidan är en webbsida vars konstruktion styrs av en applikationsserver som behandlar skript på serversidan. I skript på serversidan avgör parametrar hur sammansättningen av varje ny webbsida fortskrider, inklusive installation av mer bearbetning på klientsidan.

En dynamisk webbsida på klientsidan behandlar webbsidan med JavaScript som körs i webbläsaren. JavaScript -program kan interagera med dokumentet via Document Object Model , eller DOM, för att fråga sidstatus och ändra det. Samma teknik på klientsidan kan sedan dynamiskt uppdatera eller ändra DOM på samma sätt.

En dynamisk webbsida laddas sedan om av användaren eller av ett datorprogram för att ändra något variabelt innehåll. Uppdateringsinformationen kan komma från servern eller från ändringar som gjorts på sidens DOM. Detta kan stänga av webbläsarhistoriken eller skapa en sparad version att gå tillbaka till, men en dynamisk webbsidauppdatering med Ajax -teknik skapar varken en sida att gå tillbaka till eller stänger av webbläsarhistoriken framåt på den visade sidan. Med hjälp av Ajax -teknik får slutanvändaren en dynamisk sida som hanteras som en enda sida i webbläsaren medan det faktiska webbinnehållet på den sidan kan variera. Ajax motor sitter bara på webbläsaren begär delar av DOM, det DOM för sin klient, från en applikationsserver.

Dynamisk HTML, eller DHTML, är paraplybegreppet för teknik och metoder som används för att skapa webbsidor som inte är statiska webbsidor , även om det har fallit ur allmänt bruk sedan populariseringen av AJAX , en term som nu i sig sällan används. Skript på klientsidan, skript på serversidan eller en kombination av dessa ger dynamisk webbupplevelse i en webbläsare.

JavaScript är ett skriptspråk som ursprungligen utvecklades 1995 av Brendan Eich , då av Netscape , för användning inom webbsidor. Den standardiserade versionen är ECMAScript . För att göra webbsidor mer interaktiva använder vissa webbapplikationer också JavaScript -tekniker som Ajax ( asynkron JavaScript och XML ). Skript på klientsidan levereras med sidan som kan göra ytterligare HTTP-begäranden till servern, antingen som svar på användaråtgärder som musrörelser eller klick, eller baserat på förfluten tid. Serverns svar används för att ändra den aktuella sidan snarare än att skapa en ny sida för varje svar, så servern behöver bara ge begränsad, inkrementell information. Flera Ajax -förfrågningar kan hanteras samtidigt, och användare kan interagera med sidan medan data hämtas. Webbsidor kan också regelbundet undersöka servern för att kontrollera om ny information är tillgänglig.

Hemsida

Den usap.gov webbplats

En webbplats är en samling relaterade webbresurser inklusive webbsidor , multimediainnehåll , som vanligtvis identifieras med ett vanligt domännamn och publiceras på minst en webbserver . Anmärkningsvärda exempel är wikipedia .org, google .com och amazon.com .

En webbplats kan vara tillgänglig via ett offentligt Internetprotokoll (IP) -nätverk, till exempel Internet eller ett privat lokalt nätverk (LAN), genom att referera till en enhetlig resurssökare (URL) som identifierar webbplatsen.

Webbplatser kan ha många funktioner och kan användas i olika mode; en webbplats kan vara en personlig webbplats , en företagswebbplats för ett företag, en statlig webbplats, en organisationswebbplats, etc. Webbplatser är vanligtvis dedikerade till ett visst ämne eller syfte, allt från underhållning och sociala nätverk till att tillhandahålla nyheter och utbildning. Alla offentligt tillgängliga webbplatser utgör tillsammans World Wide Web, medan privata webbplatser, till exempel ett företags webbplats för sina anställda, vanligtvis är en del av ett intranät .

Webbsidor, som är byggstenar för webbplatser, är dokument , vanligtvis sammansatta i vanlig text varvat med formateringsinstruktioner för Hypertext Markup Language ( HTML , XHTML ). De kan innehålla element från andra webbplatser med lämpliga markeringsankare . Webbsidor öppnas och transporteras med Hypertext Transfer Protocol (HTTP), som eventuellt kan använda kryptering ( HTTP Secure , HTTPS) för att ge säkerhet och integritet för användaren. Användarens applikation, ofta en webbläsare , gör sidinnehållet enligt dess HTML -markeringsinstruktioner på en displayterminal .

Hyperlänkning mellan webbsidor förmedlar läsarens webbplatsstruktur och guidar navigeringen på webbplatsen, som ofta börjar med en hemsida som innehåller en katalog med webbplatsens innehåll . Vissa webbplatser kräver användarregistrering eller prenumeration för att komma åt innehåll. Exempel på prenumerationswebbplatser inkluderar många affärssajter, nyhetssajter, akademiska tidskriftswebbplatser , spelsajter, fildelningswebbplatser, anslagstavlor , webbaserad e- post , webbplatser för sociala nätverk , webbplatser som tillhandahåller aktiemarknadsdata i realtid samt webbplatser som tillhandahåller olika andra tjänster. Slutanvändare kan komma åt webbplatser på en rad olika enheter, inklusive stationära och bärbara datorer , surfplattor , smartphones och smarta TV -apparater .

Webbläsare

En webbläsare (vanligtvis kallas en webbläsare ) är ett programvaruanvändaragent för åtkomst till information på World Wide Web. För att ansluta till en webbplats server och visa dess sidor måste en användare ha ett webbläsarprogram. Detta är programmet som användaren kör för att ladda ner, formatera och visa en webbsida på användarens dator.

Förutom att tillåta användare att hitta, visa och flytta mellan webbsidor, kommer en webbläsare vanligtvis att ha funktioner som att hålla bokmärken, spela in historik, hantera cookies (se nedan) och hemsidor och kan ha möjligheter att spela in lösenord för att logga in på webbplatser .

De mest populära webbläsarna är Chrome , Firefox , Safari , Internet Explorer och Edge .

Server

Insidan och framsidan av en Dell PowerEdge -webbserver, en dator avsedd för rackmontering

En webbserver är serverprogramvara eller hårdvara som är avsedd för att köra programvaran, som kan tillgodose World Wide Web -klientförfrågningar. En webbserver kan i allmänhet innehålla en eller flera webbplatser. En webbserver behandlar inkommande nätverksförfrågningar via HTTP och flera andra relaterade protokoll.

En webbservers primära funktion är att lagra, bearbeta och leverera webbsidor till klienter . Kommunikationen mellan klient och server sker med hjälp av Hypertext Transfer Protocol (HTTP) . Sidor som levereras är oftast HTML -dokument , som kan innehålla bilder , formatmallar och skript utöver textinnehållet.

Flera webbservrar kan användas för en webbplats med hög trafik; här installeras Dells servrar tillsammans för att användas för Wikimedia Foundation .

En användaragent , vanligtvis en webbläsare eller webbsökare , initierar kommunikation genom att begära en specifik resurs med HTTP och servern svarar med innehållet i den resursen eller ett felmeddelande om den inte kan göra det. Resursen är vanligtvis en riktig fil på serverns sekundära lagring , men detta är inte nödvändigtvis fallet och beror på hur webbservern implementeras .

Även om den primära funktionen är att betjäna innehåll, inkluderar en fullständig implementering av HTTP också sätt att ta emot innehåll från klienter. Denna funktion används för att skicka webbformulär , inklusive uppladdning av filer.

Många generiska webbservrar stöder också skript på serversidan med Active Server Pages (ASP), PHP (Hypertext Preprocessor) eller andra skriptspråk . Detta innebär att webbserverns beteende kan skriptas i separata filer, medan själva serverprogramvaran förblir oförändrad. Vanligtvis används denna funktion för att generera HTML-dokument dynamiskt ("on-the-fly") i motsats till att returnera statiska dokument . Den förstnämnda används främst för att hämta eller ändra information från databaser . Den senare är vanligtvis mycket snabbare och lättare cachad men kan inte leverera dynamiskt innehåll .

Webbservrar kan också ofta hittas inbäddade i enheter som skrivare , routrar , webbkameror och endast betjäna ett lokalt nätverk . Webbservern kan sedan användas som en del av ett system för övervakning eller administration av enheten i fråga. Detta innebär vanligtvis att ingen ytterligare programvara behöver installeras på klientdatorn eftersom endast en webbläsare krävs (som nu ingår i de flesta operativsystem ).

Kaka

En HTTP -cookie (även kallad webbcookie , Internet -cookie , webbläsare eller helt enkelt cookie ) är en liten bit data som skickas från en webbplats och lagras på användarens dator av användarens webbläsare medan användaren surfar. Cookies var utformade för att vara en tillförlitlig mekanism för webbplatser för att komma ihåg statlig information (t.ex. objekt som läggs till i kundvagnen i en webbutik) eller för att registrera användarens surfaktivitet (inklusive att klicka på vissa knappar, logga in eller spela in vilka sidor som besöktes) förr). De kan också användas för att komma ihåg godtyckliga uppgifter som användaren tidigare angett i formulärfält som namn, adresser, lösenord och kreditkortsnummer.

Cookies utför viktiga funktioner i den moderna webben. Kanske viktigast av allt, autentiseringscookies är den vanligaste metoden som används av webbservrar för att veta om användaren är inloggad eller inte, och vilket konto de är inloggade med. Utan en sådan mekanism skulle webbplatsen inte veta om den skulle skicka en sida som innehåller känslig information eller kräva att användaren autentiserar sig genom att logga in. Säkerheten för en autentiseringscookie beror i allmänhet på säkerheten för den utfärdande webbplatsen och användarens webbläsare , och om cookiedata är krypterade. Säkerhetsproblem kan tillåta att en cookie-data läses av en hackare , används för att få åtkomst till användardata eller används för att få åtkomst (med användarens autentiseringsuppgifter) till webbplatsen som cookien tillhör (se skript över webbplatser och kors- webbplatsförfrågan förfalskning för exempel).

Spårningskakor, och särskilt spårningskakor från tredje part , används vanligtvis som sätt att sammanställa långsiktiga register över enskildas surfhistorik-ett potentiellt integritetsproblem som fick europeiska och amerikanska lagstiftare att vidta åtgärder 2011. Enligt europeisk lag krävs att alla webbplatser som riktar sig till EU: s medlemsstater får "informerat samtycke" från användare innan de lagrar icke-nödvändiga cookies på sin enhet.

Google Project Zero- forskaren Jann Horn beskriver hur cookies kan läsas av mellanhänder , till exempel Wi-Fi- hotspot-leverantörer. Han rekommenderar att du använder webbläsaren i inkognitoläge under sådana omständigheter.

Sökmotor

Resultaten av en sökning efter termen "månförmörkelse" i en webbaserad bildsökning motor

En webbsökmotor eller internetsökmotor är ett mjukvarusystem som är utformat för att utföra webbsökning ( Internetsökning ), vilket innebär att man söker på World Wide Web på ett systematiskt sätt efter särskild information som specificeras i en webbsökfråga . Sökresultaten presenteras i allmänhet i en rad resultat, ofta kallade sökmotors resultatsidor (SERP). Informationen kan vara en blandning av webbsidor , bilder, videor, infografik, artiklar, forskningsartiklar och andra typer av filer. Vissa sökmotorer bryter också data som finns tillgängliga i databaser eller öppna kataloger . Till skillnad från webbkataloger , som endast underhålls av mänskliga redaktörer, underhåller sökmotorer också information i realtid genom att köra en algoritm på en webbsökare . Internetinnehåll som inte kan sökas av en webbsökmotor beskrivs i allmänhet som den djupa webben .

Djup webb

Den djupa webben, osynliga webben eller dolda webben är delar av World Wide Web vars innehåll inte indexeras av vanliga webbsökmotorer . Den motsatta termen till den djupa webben är ytan , som är tillgänglig för alla som använder Internet. Datavetenskapsmannen Michael K. Bergman krediteras med att ha myntat termen deep web 2001 som en sökindexeringsterm.

Innehållet i den djupa webben är dolt bakom HTTP -formulär och innehåller många mycket vanliga användningsområden som webbpost , nätbank och tjänster som användare måste betala för och som är skyddade av en betalvägg , till exempel video on demand , vissa online bland annat tidningar och tidningar.

Innehållet i den djupa webben kan lokaliseras och nås via en direkt URL eller IP -adress , och kan kräva ett lösenord eller annan säkerhetsåtkomst förbi den offentliga webbplatsen.

Cachar

En webbcache är en serverdator som finns antingen på det offentliga Internet eller inom ett företag som lagrar nyligen åtkomliga webbsidor för att förbättra svarstiden för användare när samma innehåll begärs inom en viss tid efter den ursprungliga begäran. De flesta webbläsare implementerar också en webbläsarcache genom att skriva nyligen erhållen data till en lokal datalagringsenhet. HTTP -förfrågningar från en webbläsare kan bara be om data som har ändrats sedan den senaste åtkomsten. Webbsidor och resurser kan innehålla utgångsinformation för att kontrollera cachning för att säkra känslig data, till exempel i nätbank , eller för att underlätta ofta uppdaterade webbplatser, till exempel nyhetsmedier. Även webbplatser med mycket dynamiskt innehåll kan tillåta uppdatering av grundläggande resurser endast ibland. Webbplatsdesigners tycker att det är värt att samla resurser som CSS-data och JavaScript i några webbplatsomfattande filer så att de kan cachas effektivt. Företagets brandväggar cachar ofta webbresurser som en användare begär till förmån för många användare. Vissa sökmotorer lagrar cachat innehåll på webbplatser som ofta används.

säkerhet

För brottslingar har webben blivit en plats för spridning av skadlig kod och engagera sig i en rad cyberbrott , inklusive (men inte begränsat till) identitetsstöld , bedrägeri , spionage och insamling av underrättelser . Webbaserade sårbarheter överstiger nu traditionella datasäkerhetsproblem, och mätt av Google kan ungefär var tionde webbsida innehålla skadlig kod. De flesta webbaserade attacker sker på legitima webbplatser, och de flesta, mätt av Sophos , finns i USA, Kina och Ryssland. Det vanligaste av alla hot mot skadlig kod är SQL -injektionsattacker mot webbplatser. Genom HTML och URI var webben sårbar för attacker som cross-site scripting (XSS) som följde med introduktionen av JavaScript och förvärrades till viss del av Web 2.0 och Ajax webbdesign som gynnar användningen av skript. Idag med en uppskattning är 70% av alla webbplatser öppna för XSS -attacker på sina användare. Phishing är ett annat vanligt hot mot webben. I februari 2013 uppskattade RSA (säkerhetsavdelningen för EMC) de globala förlusterna från nätfiske till 1,5 miljarder dollar 2012. Två av de välkända nätfiske-metoderna är Covert Redirect och Open Redirect.

Föreslagna lösningar varierar. Stora säkerhetsföretag som McAfee utformar redan styr- och efterlevnadssviter för att uppfylla bestämmelserna efter 9/11 , och vissa, som Finjan, har rekommenderat aktiv inspektion av programmeringskod och allt innehåll i realtid oavsett källa. Vissa har hävdat att för företag att se webbsäkerhet som ett affärsmöjlighet snarare än ett kostnadscentrum , medan andra efterlyser "allestädes närvarande, alltid pågående digital rättighetshantering " som tillämpas i infrastrukturen för att ersätta de hundratals företag som säkrar data och nätverk. Jonathan Zittrain har sagt att användare som delar ansvar för datasäkerhet är långt att föredra framför att stänga av Internet.

Integritet

Varje gång en klient begär en webbsida kan servern identifiera begärans IP -adress . Webbservrar loggar vanligtvis IP -adresser i en loggfil . Om inte inställningen görs så registrerar de flesta webbläsare begärda webbsidor i en historikfunktion som kan visas och cachar vanligtvis mycket av innehållet lokalt. Om inte kommunikationen mellan server och webbläsare använder HTTPS-kryptering, reser webbförfrågningar och svar i vanlig text över Internet och kan ses, spelas in och cachas av mellanliggande system. Ett annat sätt att dölja personligt identifierbar information är genom att använda ett virtuellt privat nätverk . En VPN krypterar onlinetrafik och maskerar den ursprungliga IP -adressen vilket minskar risken för användaridentifiering.

När en webbsida efterfrågar och användaren tillhandahåller personligt identifierbar information-till exempel deras riktiga namn, adress, e-postadress, etc. kan webbaserade enheter associera aktuell webbtrafik med den personen. Om webbplatsen använder HTTP -cookies , användarnamn och lösenordsautentisering eller andra spårningstekniker kan den relatera andra webbbesök, före och efter, till den identifierbara informationen som tillhandahålls. På detta sätt är det möjligt för en webbaserad organisation att utveckla och bygga upp en profil för de enskilda personerna som använder webbplatsen eller webbplatserna. Det kan vara möjligt att skapa ett rekord för en individ som innehåller information om deras fritidsaktiviteter, sina shoppingintressen, sitt yrke och andra aspekter av deras demografiska profil . Dessa profiler är av potentiellt intresse för marknadsförare, annonsörer och andra. Beroende på webbplatsens villkor och de lokala lagar som tillämpar information från dessa profiler kan säljas, delas eller skickas till andra organisationer utan att användaren informeras. För många vanliga människor betyder det lite mer än några oväntade e-postmeddelanden i sin inkorg eller någon otroligt relevant annonsering på en framtida webbsida. För andra kan det innebära att tid som ägnas åt ett ovanligt intresse kan resultera i en översvämning av ytterligare målinriktad marknadsföring som kan vara ovälkommen. Polismyndigheter, terrorismbekämpning och spionagebyråer kan också identifiera, rikta och spåra individer baserat på deras intressen eller benägenhet på webben.

Sociala nätverkssajter brukar försöka få användare att använda sina riktiga namn, intressen och platser, snarare än pseudonymer, eftersom deras chefer tror att detta gör den sociala nätverksupplevelsen mer engagerande för användarna. Å andra sidan kan uppladdade fotografier eller obevakade uttalanden identifieras för en individ, som kan ångra denna exponering. Arbetsgivare, skolor, föräldrar och andra släktingar kan påverkas av aspekter av sociala nätverksprofiler, till exempel textinlägg eller digitala foton, som den utsända personen inte hade för avsikt för denna publik. Mobbare på nätet kan använda personlig information för att trakassera eller förfölja användare. Moderna sociala nätverkswebbplatser tillåter finkornig kontroll av sekretessinställningarna för varje enskilt inlägg, men dessa kan vara komplexa och inte lätta att hitta eller använda, särskilt för nybörjare. Fotografier och videor som läggs ut på webbplatser har orsakat särskilda problem, eftersom de kan lägga till en persons ansikte i en online-profil. Med modern och potentiell teknik för ansiktsigenkänning kan det sedan vara möjligt att relatera det ansiktet till andra, tidigare anonyma, bilder, händelser och scenarier som har avbildats någon annanstans. På grund av bildcachning, spegling och kopiering är det svårt att ta bort en bild från World Wide Web.

Standarder

Webbstandarder inkluderar många beroende standarder och specifikationer, varav några styr aspekter av Internet , inte bara World Wide Web. Även om de inte är webbaserade påverkar sådana standarder direkt eller indirekt utvecklingen och administrationen av webbplatser och webbtjänster . Överväganden inkluderar driftskompatibilitet , tillgänglighet och användbarhet för webbsidor och webbplatser.

Webbstandarder, i vidare mening, består av följande:

Webbstandarder är inte fasta regler, utan är en ständigt utvecklande uppsättning färdiga tekniska specifikationer för webbteknik. Webbstandarder utvecklas av standardiseringsorganisationer - grupper av intresserade och ofta konkurrerande parter med standardiseringsuppgift - inte teknik som utvecklats och förklarats vara en standard av en enskild individ eller ett företag. Det är avgörande att skilja de specifikationer som är under utveckling från de som redan nått den slutliga utvecklingsstatusen (för W3C -specifikationer, den högsta mognadsnivån).

Tillgänglighet

Det finns metoder för åtkomst till webben i alternativa medier och format för att underlätta användningen av personer med funktionsnedsättning . Dessa funktionshinder kan vara visuella, auditiva, fysiska, talrelaterade, kognitiva, neurologiska eller någon kombination. Tillgänglighetsfunktioner hjälper också personer med tillfälliga funktionshinder, som en bruten arm, eller åldrande användare när deras förmågor ändras. Webben tar emot information samt tillhandahåller information och interagerar med samhället. World Wide Web Consortium hävdar att det är väsentligt att webben är tillgänglig, så att den kan ge lika tillgång och lika möjligheter för personer med funktionsnedsättning. Tim Berners-Lee noterade en gång, "Webbens kraft är i dess universalitet. Tillgång för alla oavsett funktionshinder är en väsentlig aspekt." Många länder reglerar webbtillgänglighet som ett krav för webbplatser. Internationellt samarbete i W3C Web Accessibility Initiative ledde till enkla riktlinjer som både webbinnehållsförfattare och mjukvaruutvecklare kan använda för att göra webben tillgänglig för personer som kanske eller inte använder hjälpmedel .

Internationalisering

W3C: s internationaliseringsaktivitet säkerställer att webbteknologi fungerar på alla språk, skript och kulturer. Från och med 2004 eller 2005 vann Unicode mark och så småningom i december 2007 överträffade både ASCII och Västeuropa som webbens vanligaste teckenkodning . Ursprungligen tillät RFC  3986 resurser att identifieras av URI i en delmängd av US-ASCII. RFC  3987 tillåter fler tecken - vilket tecken som helst i Universal Character Set - och nu kan en resurs identifieras av IRI på alla språk.

Se även

Referenser

Vidare läsning

  • Berners-Lee, Tim; Bray, Tim; Connolly, Dan; Bomull, Paul; Fielding, Roy; Jeckle, Mario; Lilley, Chris; Mendelsohn, Noah; Orchard, David; Walsh, Norman; Williams, Stuart (15 december 2004). "Architecture of the World Wide Web, Volume One" . Version 20041215. W3C. Citera journal kräver |journal=( hjälp )
  • Berners-Lee, Tim (augusti 1996). "World Wide Web: Past, Present and Future" . Citera journal kräver |journal=( hjälp )
  • Brügger, Niels, ed, Web25: Histories from the first 25 years of the World Wide Web (Peter Lang, 2017).
  • Fielding, R .; Gettys, J .; Mogul, J .; Frystyk, H .; Masinter, L .; Leach, P .; Berners-Lee, T. (juni 1999). "Hypertext Transfer Protocol - HTTP/1.1". Begäran om kommentarer 2616. Information Science Institute. Citera journal kräver |journal=( hjälp )
  • Niels Brügger, red. Webbhistorik (2010) 362 sidor; Historiskt perspektiv på World Wide Web, inklusive frågor om kultur, innehåll och bevarande.
  • Polo, Luciano (2003). "World Wide Web Technology Architecture: A Conceptual Analysis" . Nya enheter .
  • Skau, HO (mars 1990). "World Wide Web and Health Information". Nya enheter .

externa länkar