Search Engine vs Browser
Die internet het 'n geïntegreerde deel van ons lewe geword. Namate die behoefte aan inligting groter word met die ontwikkeling van die samelewing, het internet gestyg om die rol van inligtingverskaffer te vervul. Die internet dien as 'n platform om inligting van enige plek in die wêreld te deel en te publiseer. Hierdie vlak van toegang is een rede waarom ongekende hoeveelheid hiperteks en hipermedia op die web opgehoop word. Die probleem wat hierdie effek veroorsaak, is die moeilikheid om ongewenste inligting te vermy en die nodige inligting op die web te vind.
Meer oor webblaaier
Die webblaaier is 'n sagtewaretoepassing wat op die gebruiker se rekenaar geïnstalleer is om inligting vanaf die Wêreldwye Web te verkry, te interpreteer en aan te bied. Die eerste webblaaier wat deur die uitvinder van die internet, sir Tim Bernes lee, in die 1990's ontwikkel is, word WorldWide Web genoem (later nexus geword). Die Mosaic (later Netscape)-blaaier wat deur Marc Andressen ontwikkel is, het egter die blaaiers omwenteling gemaak deur dit meer gebruikersvriendelik te maak.
Basiese werking van die webblaaier is soos volg. Webhulpbron word opgespoor met behulp van 'n spesifieke identifikasie genaamd die Universal Resource Locator (URL). Eerste deel van die URL genaamd "Universal Resource Identifier" bepaal hoe die URL geïnterpreteer sal word. Dit is gewoonlik die protokol van die hulpbron waartoe die blaaier toegang probeer kry, soos http, https of FTP. Sodra die inligting van die bron af verkry is, skakel blaaierkomponent genaamd "uitlegenjin" die http om na HTML-opmaak om die interaktiewe hiperteks-hipermedia-dokument te vertoon. Blaaiers kan addisionele kenmerke soos flitsvideo's en Java-applets bied deur onderskeie inproppe op die blaaier te installeer, wat dit moontlik maak om die inhoud te bekyk, selfs al is die inhoud nie hiperteks nie.
Meer oor soekenjin
Die soekenjin is 'n webtoepassing om die inligting of hulpbronne op die Wêreldwye Web te soek en op te spoor. Met die groei van die hulpbronne op die www, het die indeksering van die inhoud op 'n maklik toeganklike manier al hoe moeiliker geword. Die oplossing wat vir hierdie probleem aangebied word, is die websoekenjin.
Websoekenjin werk op die volgende drie stappe. Web deurkruip, indeksering en soek. Webkruiping is die proses om inligting en data wat op die Wêreldwye Web beskikbaar is, in te samel. Dit word gewoonlik gedoen met outomatiese sagteware wat 'n webkruiper genoem word (ook bekend as 'n spinnekop). Die webkruiper is 'n program wat 'n algoritme uitvoer om inligting van elke webbladsy af te haal en die verwante skakels outomaties te volg. Die opgespoorde inligting sal geïndekseer en in databasisse gestoor word vir latere navrae. Die crawlers haal en indekseer inligting oor die inhoud van die bladsy, soos woorde uit die teks, URL vir die hiperskakels en spesiale veld in die bladsy wat metatags genoem word.
Wanneer 'n versoek of 'n soektog na 'n spesifieke detail of 'n bladsy op die web gemaak word, deur 'n webblaaier, haal die soekenjin verwante inligting uit die geïndekseer databasisse en vertoon die resultate as 'n lys van verwante hulpbronne op die webblaaier.
Blaaier en soekenjin
• Die webblaaier is 'n toepassing wat op die gebruiker se rekenaar geïnstalleer is, terwyl 'n soekenjin 'n webtoepassing is wat werk op 'n bediener wat aan die internet gekoppel is.
• Die webblaaier is 'n toepassing om inligting van die internet af te haal en te vertoon, terwyl 'n webblaaier 'n toepassing is om inligting op die web op te spoor.