Informasjon om antall brukere av de vanligste søkemotorene. Nyttige World Wide Web-adresser. Testoppgaver for selvkontroll

Hvordan finne det du trenger riktig og med et minimum av tid på Internett

Hvordan søke på Internett riktig

Hvordan finne det du trenger på Internett riktig og med et minimum av tid.

Problemet med å finne informasjon før eller siden venter på enhver Internett-bruker. Å finne nødvendig informasjon, semesteroppgaver, essays eller teknisk dokumentasjon kan ta mye av tiden din hvis du ikke vet hvordan du skal søke og finne det du trenger i Verdensveven. I dette tilfellet kan ulike kataloger og kunnskapsbaser, så vel som såkalte "søkemotorer", hjelpe oss i dette tilfellet. Deretter vil vi vurdere dem etter tur.

La oss starte med katalogene. Alt her er ganske enkelt, siden katalogen er et elektronisk arkivskap med lenker til nettsteder om et bestemt emne. Som i en ekte kartotek, er alle nettsteder og ressurser her lagt ut på hyller, som er utstyrt med Kort beskrivelse for å gjøre det lettere å finne informasjonen du trenger. Den store ulempen med dette systemet er at ikke alle ressursene er plassert der, siden for å legge til nettstedet ditt i katalogen, må eieren registrere seg, og dette tar litt tid og derfor må du skrive inn nettsteder manuelt, noe som er veldig upraktisk.

La oss nå se på kunnskapsbaser. Det finnes ressurser som inneholder en enorm mengde informasjon og som samtidig gir brukerne mulighet til å redigere og supplere den. Disse ressursene vokser veldig raskt og blir enorme databaser, som Wikipedia (http://ru.wikipedia.org/) som med rette regnes som en av de beste. Takket være den innebygde søkemotoren kan millioner av mennesker enkelt finne informasjonen de trenger på kort tid.

Og til slutt, søkemotorer, eller som de populært kalles "søkemotorer". Hvis du har prøvd metodene ovenfor i søket, men det ikke er noe resultat, fortvil ikke. Søkemotorer, som det er ganske mange av i dag, kan hjelpe deg. De viktigste "pionerene" i CIS er Rambler, Yandex og selvfølgelig Google. Den største fordelen med søkemotorer er prinsippet om deres drift. Søkemotorer, i motsetning til kataloger, bruker en spesiell robot som skanner alle tilgjengelige Internett-ressurser og automatisk legger dem til databasen. Men en enorm database for et vellykket søk vil ikke være nok for oss. Så hvordan kan vi finne akkurat det vi trenger blant det enorme havet av informasjon?

For det første, ikke prøv å legge inn i forespørselen, for eksempel, hele emnet for en avhandling eller essay; vær presis, men konsis. Tenk først på forespørselen din og prøv å finne ut så mye som mulig om emnet du er interessert i, siden riktigheten søkeord er nøkkelen til å oppnå ønsket resultat. Hvis du for eksempel vil vite om OL 2014 i Russland, bør du i søket skrive OL 2014 Russland, og ikke bare OL Russland. Husk at maskinen søker etter fraser og ord og sorterer informasjonen basert på graden av tilfeldighet, men den kan ikke vite hva du mente. Siden med flest treff vil være på førsteplass osv. Du bør også vite at søkemotoren ikke søker etter skilletegn, preposisjoner og ord som «hva», «hvor», «når».

Hvordan kan du finne et sitat hvis søkemotoren ikke tar hensyn til vanlige ord og preposisjoner? For å gjøre dette, merk bare forespørselen i anførselstegn, og så vil den bli betraktet som en helhet med alle ordene og preposisjonene i den rekkefølgen du skrev den. Du kan også sette et "+" foran et ord eller symbol, og deretter til en spørring, for eksempel "Aliens +4", vil svaret være linker til denne delen av filmen. Det er også mulig å finne for eksempel en artikkel på et bestemt nettsted, hvis vi har glemt å lagre en lenke til den. For å gjøre dette, skriv bare inn søket i søkefeltet, deretter nettsted: navnet på nettstedet i Google og søket<

Søkemotorer kan ikke bare søke, men også ekskludere noen ord fra søket. For eksempel, hvis du ikke ønsker å motta dokumenter om Romas historie i Google, skriv inn: Roma - historie, og i Yandex i stedet for "-" bruker de "~ ~".

Du må også vite at søkemotorer ikke tar hensyn til store tegn, og dette er upraktisk for å søke etter bosetninger. Derfor, for å få ønsket resultat, setter vi en stor bokstav foran ordet som søkemotoren skal "se"! for eksempel «landsby! Fisk." For et mer detaljert søk, bruk funksjonen "Avansert søk". Lykke til med søket!

http://www.searchboth.ru/search-systems/search-in-www.html

Nettet er vert for millioner av nettsteder, og ved siden av oppdatert informasjon er det mange utdaterte ressurser, søppel og falsk reklame.

Internett er den mest demokratiske informasjonskilden. Alle kan legge ut sin egen ressurs på Internett og si sin mening. Dette er både styrken og svakheten til World Wide Web.

Å finne informasjon på Internett ville sannsynligvis vært svært vanskelig hvis det ikke ble laget kraftige søkeverktøy: søkemotorer(søkemotorer), kataloger-vurderinger(kategorisere), aktuelle lister over lenker, online leksika og ordbøker.

For å søke etter ulike typer informasjon er ulike verktøy mest effektive.

Ressurskataloger

Katalogen har hierarkisk struktur. Tematiske deler av første nivå definerer de bredest mulige emnene, for eksempel "sport", "rekreasjon", "vitenskap", "shopping", etc. Hver slik seksjon kan ha underseksjoner. Brukeren kan avgrense interesseområdet ved å reise gjennom katalogtreet og gradvis begrense søkeområdet. For eksempel, når du søker etter informasjon om bærbare datamaskiner, kan søkekjeden se slik ut: Informasjonsteknologi-> Datamaskiner -> Bærbare datamaskiner. Etter å ha nådd ønsket underkatalog, finner brukeren et sett med lenker i den.

Vanligvis er alle lenker i en katalog profillenker, siden kataloger ikke er kompilert av programmer, men av personer. Det er åpenbart det hvis et søk pågår generell informasjon om et bredt emne, er det tilrådelig å konsultere katalogen. Hvis du trenger å finne et spesifikt dokument, vil katalogen vise seg å være et ineffektivt søkeverktøy.

Ofte er ressurskataloger også vurderinger, dvs. katalogen inviterer nettsteder som er registrert i den til å installere på sidene deres treffteller, og viser lister over lenker til nettsteder i henhold til deres popularitet (trafikk). Populariteten til en ressurs vurderes i henhold til en rekke parametere, inkludert den såkalte verter(antall unike besøkende per dag) og treff(antall besøk på siden per dag).

En av de mest populære vurderingskatalogene er Rambler's Top 100. (http://top100.rambler.ru/top100/) Det er ofte interessant å vurdere tilstanden til ikke all-russiske, men regionale ressurser om et spesifikt emne. en oversikt over Krasnoyarsk nettressurser og regioner, kan vi anbefale ressursvurderingskatalogene Krasland (http://www.krasland.ru/) og Stalker (http://www.stalker.internet.ru/).

Søkemotorer

Relevant dokument- et dokument hvis semantiske innhold samsvarer informasjonsforespørsel. Moderne søkemotorer søker etter kontekst, dvs. ord som finnes i spørringen, tar hensyn til variasjoner i ordformer og utvidende spørringer med synonymer. Men datamaskiner forstår ikke betydningen, så i listen over svar på en forespørsel, sammen med dokumenter som er relevante for forespørselen din, kan du også motta de som på ingen måte passer for deg.

Det er åpenbart det prosentandelen av relevante dokumenter som mottas avhenger av evnen til å sende en forespørsel på riktig måte. Andelen relevante dokumenter i listen over alle de som er funnet av en søkemotor kalles søkepresisjon. Irrelevante dokumenter kalles støy. Hvis alle funnet dokumenter er relevante (det er ingen støy), er søkenøyaktigheten 100 %. Hvis alle relevante dokumenter blir funnet, er søkets fullstendighet 100 %.

Dermed bestemmes kvaliteten på et søk av to avhengige parametere: søkenøyaktighet og fullstendighet. Å øke søkets fullstendighet reduserer presisjonen, og omvendt.

Søkemotorer kan sammenlignes med en helpdesk der agenter går rundt i bedrifter og samler informasjon inn i en database. Når du kontakter tjenesten, hentes informasjon fra denne databasen. Dataene i databasen blir utdaterte, så agenter oppdaterer dem med jevne mellomrom. Med andre ord, helpdesk har to funksjoner: 1) opprette og kontinuerlig oppdatere data i databasen og 2) søke etter informasjon i databasen på forespørsel fra klienten.

Tilsvarende består en søkemotor av to deler: den såkalte søkerobot (eller edderkopp) som gjennomsøker Internett-serverne og bygger en database, og søkemotor lenker som er relevante for brukerens forespørsel i databasen.

Det skal bemerkes at når du behandler en spesifikk brukerforespørsel, opererer søkemotoren nøyaktig på den interne databasen (og reiser ikke på Internett). Til tross for at søkemotordatabasen kontinuerlig oppdateres, kan ikke søkemotoren indeksere alle nettdokumenter: antallet er for stort. Problemet med utilstrekkelig søkekompletthet ligger ikke bare i de begrensede interne ressursene til søkemotoren, men også i det faktum at hastigheten til roboten er begrenset, og antallet nye nettdokumenter vokser stadig.

Mest populær i dag søkemotorer er Google (www.google.com, www.google.ru) og Yandex (www.yandex.ru).

Online leksikon og oppslagsverk

I noen tilfeller kan det være nødvendig å finne ikke bare et dokument som inneholder et nøkkelord, men tolkningen av et bestemt ord. Når du søker etter et ukjent begrep ved hjelp av en søkemotor, risikerer du å få en hel rekke artikler der dette begrepet brukes, og samtidig vet du ikke hva det egentlig betyr. Det er å foretrekke å utføre et slikt søk i et nettleksikon.

Et av de største nettleksikonene er Yandex. Encyclopedia-ressursen (http://encycl.yandex.ru/) - dette prosjektet inneholder 14 leksikon, inkludert artikler fra Great Soviet Encyclopedia og Brockhaus and Efron Encyclopedia. De største inkluderer "Encyclopedia of Cyril and Methodius" (http://www.km.ru).

I tillegg til overføringen av tradisjonelle ordbøker til hypertekstmiljøet, utvikler leksikon wiki-prosjekter seg raskt. Wiki er et nettsted for innsamling og strukturering av skriftlig informasjon. Den kjennetegnes ved at alle besøkende kan fylle ut og redigere informasjonen som er lagt ut på den. http://ru.wikipedia.org/ - Wikipedia på russisk er en del av et flerspråklig prosjekt som har som mål å lage et komplett leksikon på alle jordens språk.

Historien til World Wide Web

Oppfinnere verdensveven er Sir Timothy John Berners-Lee(født 8. juni 1955) og, i mindre grad, Robert Cayo. Tim Berners-Lee er en teknologiskaper HTTP, URI/URL og HTML. I 1980 jobbet han for European Council for Nuclear Research (Conseil Européen pour la Recherche Nucléaire, CERN) som programvarekonsulent. Det var der, i Genève (Sveits), at han for sine egne behov skrev Enquirer-programmet, som la det konseptuelle grunnlaget for World Wide Web.

I 1989 Mens han jobbet på CERN på organisasjonens intranett, foreslo Tim Berners-Lee det globale hypertekstprosjektet nå kjent som World Wide Web.

Som en del av prosjektet skrev Berners-Lee verdens første nettserver og verdens første hypertekstnettleser, kalt "WorldWideWeb".

Berners-Lee opprettet verdens første nettsted på http://info.cern.ch/, siden er nå arkivert. Denne siden dukket opp på Internett 6. august 1991. Dette nettstedet beskrev hva World Wide Web er, hvordan du installerer en webserver og hvordan du bruker en nettleser. Dette nettstedet var også verdens første Internett-katalog fordi Tim Berners-Lee senere postet og opprettholdt en liste over lenker til andre nettsteder der.

Men fortsatt teoretisk grunnlag Nettet ble grunnlagt mye tidligere. Tilbake i 1945 utviklet Vanniver Bush konseptet «Memex» – et hjelpemiddel for å «utvide menneskelig hukommelse». Memex er en enhet der en person lagrer alle sine bøker og poster (og ideelt sett all kunnskapen som kan beskrives formelt) og som gir nødvendig informasjon med tilstrekkelig hastighet og fleksibilitet. Bush spådde også omfattende indeksering av tekst- og multimedieressurser med evnen raskt søk nødvendig informasjon. Det neste viktige skrittet mot World Wide Web var etableringen av hypertekst (et begrep laget av Ted Nelson i 1965).

Ris. 75. Logo for World Wide Web Consortium

Siden 1994 har hovedarbeidet med utviklingen av World Wide Web blitt overtatt av World Wide Web Consortium, grunnlagt og fortsatt ledet av Tim Berners-Lee. W3C er en organisasjon som utvikler og implementerer teknologistandarder for Internett og World Wide Web.

Utviklingsutsikter

Det nåværende konseptet for utviklingen av World Wide Web i dag er etableringen av et semantisk (meningsfullt) nett. Forfatteren av konseptet til den semantiske nettet er også Tim Berners-Lee. Semantisk nett er et tillegg til det eksisterende World Wide Web, som er designet for å gjøre informasjon lagt ut på nettverket mer tilgjengelig datamaskinvennlig.

For tiden tar datamaskiner en ganske begrenset del i generering og behandling av informasjon på Internett. Funksjonene til datamaskiner er hovedsakelig begrenset til å lagre, vise og hente informasjon. Samtidig, opprettelsen av informasjon, dens evaluering, klassifisering og oppdatering - alt dette utføres fortsatt av mennesker. Hvordan inkludere datamaskinen i disse prosessene? Hvis en datamaskin ennå ikke kan læres å forstå menneskelig språk, er det nødvendig å bruke et språk som vil være forståelig for datamaskinen. Det vil si i ideelt All informasjon på Internett bør legges ut på to språk: på menneskelig språk for mennesker og på dataspråk for dataforståelse. The Semantic Web er et konsept av et nettverk der hver ressurs på menneskelig språk vil bli utstyrt med en beskrivelse som en datamaskin kan forstå.

Programmer vil selv kunne finne de nødvendige ressursene, behandle informasjon, klassifisere data, identifisere logiske sammenhenger, trekke konklusjoner og ta beslutninger basert på disse konklusjonene. Hvis det er bredt adoptert og implementert med omhu, har Semantic Web potensialet til å utløse en revolusjon på Internett.

Det mest sentrale arbeidet på Semantic Web er Berners-Lees bok fra 2005, Spinning the Semantic Web: Unlocking the Full Potential of the World Wide Web.

Oppgaver

1. Det første globale datanettverket fikk navnet:

  • BITNet;
  • ARPANet;
  • NSFNet.

2. Internett-leverandøren er:

  • organisasjon for Internett-leverandører;
  • en organisasjon som lager nettsider;
  • perifer enhet, brukes til å kommunisere med en annen datamaskin.

3. FTP er:

  • e-postklient;
  • IP-telefoni program;
  • Filoverføringsprotokoll.

4. Nettadressen til nettsiden er satt: http://www.sgzt.com/sgzt/archive/content/2005/03/043. Hva heter tilgangsprotokollen for dette informasjonsressurs?

  • sgzt/archive/content/2005/03/043;
  • http;
  • www.sgzt.com.

5. Hvilken av følgende domenesoner første nivå kan kjøpe et domenenavn enhet, registrert i den russiske føderasjonen?

  • .com;
  • i begge.

6. Blant oppføringene nedenfor, angi riktig IP-adresse til datamaskinen:

  • 198.15.19.216;
  • 298.15.19.216;
  • 200,6,201,13;
  • http://www.ipc.ru;
  • www.ip-adresse.com.

7. Hvilken av de oppgitte e-postadressene er riktige?

8. Hva er HTML?

  • En av TCP/IP-familieprotokollene;
  • Markeringsspråk for dokumenthypertekst;
  • Programmeringsspråk.

Relatert informasjon.


Nettet er vert for millioner av nettsteder, og ved siden av oppdatert informasjon er det mange utdaterte ressurser, søppel og falsk reklame.

Internett er den mest demokratiske informasjonskilden. Alle kan legge ut sin egen ressurs på Internett og si sin mening. Dette er både styrken og svakheten til World Wide Web.

Å finne informasjon på Internett ville sannsynligvis vært svært vanskelig hvis det ikke ble laget kraftige søkeverktøy: søkemotorer(søkemotorer), kataloger-vurderinger(kategorisere), aktuelle lister over lenker, nettleksikon Og ordbøker.

For å søke etter ulike typer informasjon er ulike verktøy mest effektive.

Ressurskataloger

Katalogen har en hierarkisk struktur. Tematiske deler av første nivå definerer de bredest mulige emnene, for eksempel "sport", "rekreasjon", "vitenskap", "shopping", etc. Hver slik seksjon kan ha underseksjoner. Brukeren kan avgrense interesseområdet ved å reise gjennom katalogtreet og gradvis begrense søkeområdet. For eksempel, når du søker etter informasjon om bærbare datamaskiner, kan søkekjeden se slik ut: Informasjonsteknologi -> Datamaskiner -> Bærbare datamaskiner. Etter å ha nådd ønsket underkatalog, finner brukeren et sett med lenker i den.

Vanligvis er alle lenker i en katalog profillenker, siden kataloger ikke er kompilert av programmer, men av personer. Det er åpenbart det Hvis du leter etter generell informasjon om et bredt emne, er det tilrådelig å konsultere katalogen. Hvis du trenger å finne et spesifikt dokument, vil katalogen vise seg å være et ineffektivt søkeverktøy.

Ofte er ressurskataloger også vurderinger, dvs. katalogen inviterer nettsteder som er registrert i den til å installere på sidene deres treffteller, og viser lister over lenker til nettsteder i henhold til deres popularitet (trafikk). Populariteten til en ressurs vurderes i henhold til en rekke parametere, inkludert den såkalte verter(antall unike besøkende per dag) og treff(antall besøk på siden per dag).

En av de mest populære vurderingskatalogene er Rambler's Top 100. (http://top100.rambler.ru/top100/) Det er ofte interessant å vurdere tilstanden til ikke all-russiske, men regionale ressurser om et spesifikt emne. en oversikt over Krasnoyarsk nettressurser og regioner, kan vi anbefale ressursvurderingskatalogene Krasland (http://www.krasland.ru/) og Stalker (http://www.stalker.internet.ru/).

Søkemotorer

Relevant dokument- et dokument hvis semantiske innhold samsvarer informasjonsforespørsel. Moderne søkemotorer søker etter kontekst, dvs. ord som finnes i spørringen, tar hensyn til variasjoner i ordformer og utvidende spørringer med synonymer. Men datamaskiner forstår ikke betydningen, så i listen over svar på en forespørsel, sammen med dokumenter som er relevante for forespørselen din, kan du også motta de som på ingen måte passer for deg.

Det er åpenbart det prosentandelen av relevante dokumenter som mottas avhenger av evnen til å sende en forespørsel på riktig måte. Andelen relevante dokumenter i listen over alle de som er funnet av en søkemotor kalles søkepresisjon. Irrelevante dokumenter kalles støy. Hvis alle funnet dokumenter er relevante (det er ingen støy), er søkenøyaktigheten 100 %. Hvis alle relevante dokumenter blir funnet, er søkets fullstendighet 100 %.

Dermed bestemmes kvaliteten på et søk av to avhengige parametere: søkenøyaktighet og fullstendighet. Å øke søkets fullstendighet reduserer presisjonen, og omvendt.

Søkemotorer kan sammenlignes med en helpdesk der agenter går rundt i bedrifter og samler informasjon inn i en database. Når du kontakter tjenesten, hentes informasjon fra denne databasen. Dataene i databasen blir utdaterte, så agenter oppdaterer dem med jevne mellomrom. Med andre ord har helpdesken to funksjoner: 1) opprette og kontinuerlig oppdatere data i databasen og 2) søke etter informasjon i databasen på forespørsel fra klienten.

Tilsvarende består en søkemotor av to deler: den såkalte søkerobot(eller edderkopp) som gjennomsøker Internett-serverne og bygger en database, og søkemotor lenker som er relevante for brukerens forespørsel i databasen.

Det skal bemerkes at når du behandler en spesifikk brukerforespørsel, opererer søkemotoren nøyaktig på den interne databasen (og reiser ikke på Internett). Til tross for at søkemotordatabasen kontinuerlig oppdateres, kan ikke søkemotoren indeksere alle nettdokumenter: antallet er for stort. Problemet med utilstrekkelig søkekompletthet ligger ikke bare i de begrensede interne ressursene til søkemotoren, men også i det faktum at hastigheten til roboten er begrenset, og antallet nye nettdokumenter vokser stadig.

De mest populære søkemotorene i dag er Google (www.google.com, www.google.ru) og Yandex (www.yandex.ru).

Online leksikon og oppslagsverk

I noen tilfeller kan det være nødvendig å finne ikke bare et dokument som inneholder et nøkkelord, men tolkningen av et bestemt ord. Når du søker etter et ukjent begrep ved hjelp av en søkemotor, risikerer du å få en hel rekke artikler der dette begrepet brukes, og samtidig vet du ikke hva det egentlig betyr. Det er å foretrekke å utføre et slikt søk i et nettleksikon.

Et av de største nettleksikonene er Yandex. Encyclopedia-ressursen (http://encycl.yandex.ru/) - dette prosjektet inneholder 14 leksikon, inkludert artikler fra Great Soviet Encyclopedia og Brockhaus and Efron Encyclopedia. De største inkluderer "Encyclopedia of Cyril and Methodius" (http://www.km.ru).

I tillegg til overføringen av tradisjonelle ordbøker til hypertekstmiljøet, utvikler leksikon wiki-prosjekter seg raskt. Vicky- et nettsted for innsamling og strukturering av skriftlig informasjon. Den kjennetegnes ved at alle besøkende kan fylle ut og redigere informasjonen som er lagt ut på den. http://ru.wikipedia.org/ - Wikipedia på russisk er en del av et flerspråklig prosjekt som har som mål å lage et komplett leksikon på alle jordens språk.




Topp