Anledningen till att USA:s försvarsmakt börjande utvecklade grunden för internet på 1960-talet var att skapa ett informationssystem som en fiende inte kunde slå ut. Från början utgjorde alla datorer en server. Information lagrades lokalt på en dator. Datorn var öppen. I princip kunde vem som helst ansluta och få ut information. I praktiken krävdes lösenord eftersom det var hemligt material.

Men som princip är den intressant. Varje dator utgör en server. Om den dator slåss ut är det bara det lokala innehållet som försvinner från nätet. Genom att ansluta tusentals datorer till varandra på detta sätt, lyckades de skapa ett informationsflöde som inte kunde slåss ut helt av fiende.

Om det endast finns några få servrar, kan dessa slås ut av en fiende. Då skulle informationsflödet stoppas helt och hållet. Nu är det inte möjligt med nuvarande system.

Hur ska någon kunna hitta bland alla hemsidor? Innan det skapades sökmotorer som kunde snappa upp hemsidor och strukturera informationen var den som använde internet tvungen att surfa runt bland hemsidor. En hemsida länkade till en annan hemsida. Tog långtid att hitta den information som man ville ha.

De som skapade sökmotorerna insåg att det fanns en massa länkar åt alla håll. Genom att följa länkarna kunde robotar snabbt samla in information. Nästa steg var att bestämma vilken hemsida som är mest relevant. Det görs till stor del av antalet länkar. Ju fler länkar desto populärare är en hemsida och rankas högt. Efterhand har det skapats många andra faktorer som avgör ranking.

Men faktum kvarstår utan länkbyte skulle inte sökmotorerna kunna hitta nya intressanta hemsidor. Utan att hitta nya hemsidor skulle sökmotorerna inte kunna leverera relevant information. Utan att leverera relevant information skulle användarna överge sökmotorer till förmån för något annat system att hitta bra information.