Internett-datasøkeprogrammer. Profesjonelt søk etter informasjon på Internett. Bestemme en persons navn via e-post

PROFESJONELL INFORMASJONSSØK PÅ INTERNETT

Internett-søk er en viktig del av arbeidet på Internett. Det er usannsynlig at noen med sikkerhet vet det nøyaktige antallet nettressurser på det moderne Internett. Uansett er tellingen i milliardklassen. For å kunne bruke informasjonen som trengs på et gitt øyeblikk, uansett for jobb- eller underholdningsformål, må du først finne den i dette stadig etterfylte havet av ressurser.

For at et Internett-søk skal lykkes, må to betingelser være oppfylt: Spørsmål må være godt formulert og de må stilles på passende steder. Det kreves med andre ord at brukeren på den ene siden skal kunne oversette sine søkeinteresser til søkespråket, og på den annen side ha gode kunnskaper søkemotorer, tilgjengelige søkeverktøy, deres fordeler og ulemper, som lar deg velge de mest passende søkeverktøyene i hvert enkelt tilfelle.

Foreløpig er det ingen enkelt ressurs som tilfredsstiller alle krav til Internett-søk. Derfor, hvis du tar søket ditt på alvor, må du uunngåelig bruke forskjellige verktøy, og bruke hvert i det mest passende tilfellet.

Grunnleggende Søkeverktøy på Internettkan deles inn i følgende hovedgrupper:

Søkemotorer;

Web-kataloger;

hjelperessurser;

Lokale programmer for å søke på Internett.

De mest populære søkeverktøyene ersøkemotorer– de såkalte Internett-søkemotorene (Search Engines). De tre beste lederne på global skala er ganske stabile - Google, Yahoo! og Bing. I mange land er deres egne lokale søkemotorer, optimert for arbeid med lokalt innhold, lagt til denne listen. Med deres hjelp kan du teoretisk finne et bestemt ord på sidene til mange millioner nettsteder. Fra brukerens synspunkt er den største ulempen med søkemotorer den uunngåelige tilstedeværelseninformasjonsstøyi resultatene. Dette er det vanlige navnet på resultater som er inkludert i søkelisten av en eller annen grunn og ikke samsvarer med forespørselen.

Til tross for mange forskjeller, opererer alle Internett-søkemotorer etter lignende prinsipper, og fra et teknisk synspunkt består de av lignende delsystemer. Den første strukturelle delen av søkemotoren er spesielle programmer, brukes til automatisk søk ​​og påfølgende indeksering av nettsider. Slike programmer kalles vanligvis edderkopper, eller roboter. De ser på koden til nettsider, finner lenker på dem, og oppdager dermed nye nettsider. Det er også alternativ måte inkludering av nettstedet i indeksen. Mange søkemotorer tilbyr ressurseiere muligheten til å selvstendig legge til et nettsted i databasen deres. Imidlertid blir nettsidene deretter lastet ned, analysert og indeksert. De fremhever strukturelle elementer, finner nøkkelord og bestemmer deres forbindelser med andre nettsteder og nettsider. Andre operasjoner utføres også, resultatet av disse er dannelsen av en søkemotorindeksdatabase. Denne databasen er det andre hovedelementet i enhver søkemotor. Foreløpig er det ingen enkelt fullstendig indeksdatabase som vil inneholde informasjon om alt Internett-innhold. Siden forskjellige søkemotorer bruker forskjellige nettsidesøkeprogrammer og bygger indeksen ved hjelp av forskjellige algoritmer, kan søkemotorindeksdatabaser variere betydelig. Noen nettsteder er indeksert av flere søkemotorer, men det er alltid en viss prosentandel av ressursene inkludert i databasen til kun én søkemotor. Tilstedeværelsen av en slik original og ikke-overlappende del av indeksen i hver søkemotor lar oss trekke en viktig praktisk konklusjon: hvis du bare bruker én søkemotor, til og med den største, vil du definitivt miste en viss prosentandel av nyttige lenker .

Den neste delen av søkemotoren på Internett er selve søke- og sorteringsprogrammene. Disse programmene løser to hovedoppgaver: Først finner de sider og filer i databasen som samsvarer med den innkommende forespørselen, og sorterer deretter den resulterende datamatrisen i henhold til ulike kriterier. Suksess i å oppnå søkemål avhenger i stor grad av effektiviteten av arbeidet deres.

Det siste elementet i en Internett-søkemotor er brukergrensesnittet. I tillegg til de vanlige kravene til estetikk og bekvemmelighet for ethvert nettsted, har søkemotorgrensesnitt et annet viktig krav: de må tilby ulike verktøy for å komponere og avklare spørringer, samt sortere og filtrere resultater. Fordelene med søkemotorer er utmerket dekning av kilder, relativt rask oppdatering av databaseinnhold og et godt valg tilleggsfunksjoner.

Hovedverktøyet for å jobbe med søkemotorer er en spørring.

For Internett-søk brukes også spesielle applikasjoner som er installert på den lokale datamaskinen. Det kan være sånn enkle programmer, og ganske komplekse komplekser av datasøk og analyse. De vanligste er søkeplugins for nettlesere, nettleserpaneler designet for å fungere med en spesifikk søketjeneste, og metasearch-pakker med muligheter for å analysere resultater.

Nettkataloger – dette er ressurser der nettsteder er delt inn i tematiske kategorier. Hvis brukeren kun jobber med søkemotorer gjennom søk, er det i katalogen mulig å se tematiske seksjoner i sin helhet. Den andre grunnleggende forskjellen mellom kataloger og automatiske søkemotorer er at folk som regel er direkte involvert i å fylle ut, se på ressurser og klassifisere nettstedet i en eller annen kategori. Nettkataloger er vanligvis delt inn i universelle og tematiske. Universale prøver å dekke så mange emner som mulig. Du kan finne alt i dem: fra nettsider om poesi til datamaskinressurser. Søkebredden deres er med andre ord maksimal. Tematiske kataloger spesialiserer seg på et spesifikt emne, og gir maksimal søkedybde ved å redusere bredden av ressursdekning.

Fordelene med kataloger er relativt høy kvalitet ressurser, siden hvert nettsted på det blir sett og valgt av en person. Tematisk gruppering av nettsteder lar deg enkelt ordne nettsteder med lignende emner. Denne driftsmodusen er bra for å oppdage nettsteder som er nye for deg om et emne av interesse - den er mer nøyaktig enn å bruke en søkemotor. Det anbefales å bruke nettkataloger for det første bekjentskapet med ethvert fagområde, i tillegg til å søke etter vage spørsmål - du vil ha muligheten til å "vandre" gjennom delene av katalogen og mer nøyaktig finne ut hva du trenger.

Ulempene med nettkataloger er kjent. Først av alt er dette en langsom påfyll av databasen, siden inkludering av et nettsted i katalogen krever menneskelig deltakelse. Når det gjelder effektivitet, er en nettkatalog ikke en rival til søkemotorer. I tillegg er nettkataloger betydelig dårligere enn søkemotorer når det gjelder databasestørrelse.

Når vi snakker om Internett-søk, kan vi ikke se bort fra en rekke termer som er nært knyttet til dette området og som ofte brukes til å beskrive og evaluere søkemotorer. For eksempel: bredde og dybde Internett-søk. Et bredt søk er et som fanger opp så mange informasjonskilder som mulig. I dette tilfellet anses minst en omtale av et eller annet nettsted som er egnet for forespørselen tilstrekkelig. Søkedybde refererer til detaljene i indeksering og påfølgende søk for hver spesifikk ressurs. For eksempel, mange søkemotorer tilnærming indeksering forskjellige nettsteder annerledes. Store og populære nettsteder indekseres i størst mulig grad roboter prøver å ikke gå glipp av en enkelt side av en slik ressurs. Samtidig kan bare tittelsiden og et par innholdssider på andre nettsteder indekseres. Disse omstendighetene påvirker naturligvis senere søk. Dypsøk fungerer etter prinsippet "det er bedre å inkludere unødvendig informasjon i resultatene enn å gå glipp av data som er relevant for søkeemnet."

Ganske ofte kan man komme over slike begreper som globalt og lokalt Internett-søk. Lokale Internett-søk tar hensyn til brukerens geografiske plassering og foretrekker resultater som på en eller annen måte er relatert til et bestemt land eller sted. Under et globalt søk blir ikke denne informasjonen tatt hensyn til, og søket utføres i alle tilgjengelige ressurser.

Når du skriver et søk på Internett-søkemotorer, fungerer ulike søkemoduser. Typiske søkemoduser som finnes på de fleste Internett-maskiner inkluderer: enkelt og avansert Søk. Et enkelt søk lar deg spesifisere kun én søkefunksjon i en forespørsel. Avansert søk gjør det mulig å lage en spørring fra flere forhold, koble dem med logiske operatorer.

For å avgrense søk, diverse filtre . Filtre er de eller andre hjelpemidler for å komponere et søk som ikke er relatert til innholdssiden av søkebetingelsene, men som begrenser søkeresultatene med en formell funksjon. Så, for eksempel, når brukeren bruker et filtypefilter ved søk, gir ikke brukeren systemet informasjon relatert til emnet for forespørselen hans, men begrenser ganske enkelt resultatene som er oppnådd til en bestemt filtype spesifisert i forespørselens tilstand.

For de fleste brukere er universelle søkemotorer det viktigste, og ofte det eneste middelet for Internett-søk. De tilbyr god dekning av kilder, samt et sett med verktøy som er tilstrekkelig til å løse grunnleggende søkeproblemer.

Markedet for universelle søkemotorer er ganske stort. Vi prøvde å analysere de mest kjente søkemotorene, og presenterte resultatene i tabell 1.

Når du velger en universell søkemotor, spiller kvaliteten på ressursene som ble funnet med dens hjelp en viktig rolle. Du kan bestemme den foretrukne søkemotoren for spesifikke oppgaver ved å bruke "markørmetoden". Dens essens er at først et visst tema søkeord, hvoretter en gruppe mennesker - eksperter på dette feltet - blir kartlagt for å identifisere de beste, etter deres mening, Internett-ressursene om det valgte emnet. Basert på undersøkelsesdataene genereres en liste over markørsteder som garantert er relevante for forespørselen og inneholder informasjon av høy kvalitet. Forespørselen sendes deretter til de testede søkemotorene. Logikken i vurderingen er enkel: Jo høyere markørsidene er plassert i søkeresultatene, desto bedre er en bestemt ressurs egnet for å søke etter informasjon om et testemne.


I midten av 2015 hadde det globale Internett allerede koblet til 3,2 milliarder brukere, det vil si nesten 43,8% av planetens befolkning. Til sammenligning: For 15 år siden var bare 6,5 % av befolkningen Internett-brukere, det vil si at antall brukere har økt mer enn 6 ganger! Men det som er mer imponerende er ikke de kvantitative, men de kvalitative indikatorene for utvidelsen av implementeringen av Internett-teknologier på forskjellige områder av menneskelig aktivitet: fra global kommunikasjon av sosiale nettverk til husholdningsinternett. Mobilt Internett gitt brukerne muligheten til å være på nett utenfor kontoret og hjemme: på veien, utenfor byen i naturen.
For tiden finnes det hundrevis av systemer for å søke informasjon på Internett. De mest populære av dem er tilgjengelige for de aller fleste brukere fordi de er gratis og enkle å bruke: Google, Yandex, Nigma, Yahoo!, Bing..... For mer erfarne brukere, "avansert søk"-grensesnitt og spesialiserte " sosiale nettverk»-søk er tilgjengelige i henhold til nyhetsstrømmer og kjøps- og salgsannonser... Men alle disse fantastiske søkemotorene har en betydelig ulempe, som jeg allerede har nevnt ovenfor som en fordel: de er gratis.
Hvis investorer investerer milliarder av dollar i utviklingen av søkemotorer, oppstår et helt passende spørsmål: hvor tjener de penger?
Og de tjener penger, spesielt ved å gi som svar på brukerforespørsler ikke så mye informasjon som ville være nyttig fra brukerens synspunkt, men det som eierne av søkemotorer anser som nyttig for brukeren. Dette gjøres ved å manipulere rekkefølgen som lister med svar på brukersøkespørsmål presenteres i. Her er åpen annonsering av visse Internett-ressurser, og skjult manipulasjon av relevansen av svar basert på kommersielle, politiske og ideologiske interesser til eierne av søkemotorer.
Derfor, blant profesjonelle spesialister i å søke etter informasjon på Internett, er problemet med relevante søkemotorresultater svært relevant.
Relevans er korrespondansen mellom dokumenter funnet av et informasjonsinnhentingssystem og informasjonsbehovene til brukeren, uavhengig av hvor fullstendig og nøyaktig dette informasjonsbehovet er uttrykt i teksten til selve informasjonsforespørselen. Dette er forholdet mellom mengden nyttig informasjon og den totale mengden informasjon som mottas. Grovt sett er dette søkeeffektivitet.
Spesialister som utfører kvalifiserte søk etter informasjon på Internett, må gjøre visse anstrengelser for å filtrere søkeresultater, og luke ut unødvendig informasjon "støy". Og for dette brukes søkeverktøy på profesjonelt nivå.
Et av disse fagsystemene er det russiske programmet FileForFiles & SiteSputnik (SiteSputnik).
Utvikler Alexey Mylnikov fra Volgograd.

"FileForFiles & SiteSputnik-programmet (SiteSputnik) er utviklet for å organisere og automatisere profesjonelt søk, innsamling og overvåking av informasjon som legges ut på Internett. Spesiell oppmerksomhet rettes mot innhenting av ny innkommende informasjon om emner av interesse. Flere informasjonsanalysefunksjoner er implementert."


Overvåking og kategorisering av informasjonsflyt


Først noen ord om overvåke informasjonsflyt, et spesielt tilfelle er overvåking av medier og sosiale nettverk:

  • brukeren angir kildene som kan inneholde nødvendig informasjon og reglene for valg av denne informasjonen;

  • programmet laster ned nye lenker fra kilder, frigjør innholdet deres fra søppel og repetisjoner, og ordner dem i seksjoner i henhold til reglene.

  • For å se live en enkel, men ekte overvåkingsprosess, som involverer 6 kilder og 4 overskrifter:
  • åpne demoversjonen av programmet;


  • Deretter klikker du på knappen i vinduet som vises Sammen;

  • og når NettstedSputnik vil gjennomføre dette prosjektet i sanntid, du:
    - i "Ren strøm"-listen vil du se all den nye informasjonen fra kilder,
    - i delen "Etter forespørsel" - bare økonomiske og finansielle nyheter som tilfredsstiller regelen,
    - i overskriftene "Om presidenten", "Om premieren" og "Sentralbanken", - informasjon knyttet til de aktuelle objektene.

  • I ekte prosjekter kan du bruke nesten et hvilket som helst antall kilder og rubrikker.
    Du kan lage dine første arbeidsprosjekter på noen få timer, og forbedre dem under drift.
    Den beskrevne informasjonsbehandlingen er tilgjengelig i SiteSputnik Pro+News-pakken og høyere.

2. Enkelt og batchsøk, informasjonsinnsamling

For å bli kjent med mulighetene SiteSputnik Pro(grunnleggende versjon av programmet) :

  • åpne demoversjonen av programmet;

  • skriv inn din første forespørsel, for eksempel ditt fulle navn, slik jeg gjorde:

    og klikk på knappen Søk.


  • Programmet (se tegnet som SiteSputnik bygde) vil spørre om noen få sekunder 7 kilder, åpnes i dem 24 søkesider, vil finne 227 relevante lenker, vil fjerne dupliserte lenker og fra de resterende 156 unik liste over lenker "En forening".

    Navn
    Kilde

    Bestilt
    sider

    Lastet ned
    sider

    Funnet
    lenker

    Tid
    Søk

    Effektivitet
    Søk

    Lenker
    Ny

    Effektivitet
    Ny
    Yandex 5 5 50 0:00:05 32% 0 0
    Google 5 5 44 0:00:03 28% 0 0
    Yahoo 5 5 50 0:00:05 32% 0 0
    Rambler 5 4 56 0:00:07 36% 0 0
    MSN (Bing) 5 3 23 0:00:04 15% 0 0
    Yandex.Blogger 5 1 1 0:00:01 1% 0 0
    Google.Blogger 5 1 3 0:00:01 2% 0 0
    Total: 35 24 227 0:00:26 0 0
    Totalt: antall unike lenker - 156 , dupliserte lenker - 46 %.

  • (! ) Gjenta forespørselen etter noen timer eller dager, og du vil bare se nye lenker som dukket opp i kildene for denne tidsperioden. I de to siste kolonnene i tabellen kan du se hvor mange nye lenker hver Kilde brakte og effektiviteten i form av "nyhet". Når en spørring utføres flere ganger, inneholder en liste kun nye lenker , opprettes i forhold til alle tidligere kjøringer av denne forespørselen. Det ville virke elementært og nødvendig funksjon, men forfatteren er ikke klar over noe program der det er implementert.

  • (!! ) De beskrevne funksjonene støttes ikke bare for individuelle forespørsler, men også for hele be om pakker :

    Pakken du ser består av syv forskjellige søk som samler informasjon om Vasily Shukshin fra flere kilder, inkludert søkemotorer, Wikipedia, eksakt søk i Yandex-nyheter, metasøk og søk etter omtale på TV- og radiostasjoner. Til manuset TV og radio inkluderer: "Channel One", "TV Russia", NTV, RBC TV, "Echo of Moscow", radioselskapet "Mayak", ... og andre informasjonskilder. Hver kilde har sin egen søke- eller surfedybde på sider. Den er oppført i tredje kolonne.

    Batch-søk lar deg utføre omfattende søk med ett klikk innsamling av informasjon på et gitt emne.
    Egen liste nye lenker, ved gjentatte kjøringer av pakken, vil kun inneholde lenker som ikke tidligere ble funnet.
    Husk hva og når du spurte Internett og hva det svarte deg Ikke nødvendig- alt lagres automatisk i biblioteker og i programdatabaser.
    Jeg gjentar at funksjonene beskrevet i dette avsnittet er fullt inkludert i pakken SiteSpunik Pro.


  • Flere detaljer i instruksjonene: SiteSputnik Pro for nybegynnere.

3. Objekter og søksovervåking

Ganske ofte står brukeren overfor følgende oppgave. Du må finne ut hva som er på Internett om et bestemt objekt: en person eller et selskap. For eksempel, når du ansetter en ny medarbeider eller når en ny motpart dukker opp, vet du alltid fullt navn, firmanavn, telefonnumre, INN, OGRN eller OGRNIP, du kan også ta ICQ, Skype og noen andre data. Deretter bruker en appell til spesiell funksjon programmer NettstedSputnik "Samle informasjon om objektet"(utstyr SiteSputnik Pro+Objekter):

Du legger inn dataene du kjenner, og med ett museklikk utfører du korrekt Og full søke etter lenker som inneholder spesifisert informasjon. Søket utføres på flere søkemotorer samtidig, ved å bruke alle detaljene samtidig, ved å bruke flere mulige kombinasjoner av registreringsdetaljer samtidig: husk hvordan du kan skrive ned et telefonnummer på forskjellige måter. Etter en viss tid, uten å gjøre kjedelig rutinearbeid, vil du motta en liste over lenker, fjernet for repetisjoner og, viktigst av alt, sortert etter relevans for objektet du leter etter. Relevans (signifikans) oppnås på grunn av det faktum at den første i SiteSputnik-søkeresultatene vil være de koblingene som stor kvantitet detaljene du spesifiserte, og ikke de som flyttet opp søkemotorresultatene til webmasteren.

Viktig .
SiteSputnik-programmet er bedre enn andre programmer til å trekke ut ekte, men ikke offisielt informasjon om objektet. For eksempel i den offisielle databasen mobiloperatør det kan registreres at telefonen tilhører Vasily Terekhin, men i virkeligheten inneholder denne telefonen informasjon om at Alexander solgte en Ford Focus-bil i 2013, som er tilleggsinformasjon til ettertanke.

Søkeovervåking .
Søkeovervåking betyr følgende. Hvis du trenger å spore utseendet nye lenker, av et gitt objekt eller vilkårlig pakke med spørringer, så trenger du bare å gjenta det tilsvarende søket med jevne mellomrom. Samme som for en enkel forespørsel, programmet SiteSputnik vil opprette en "Ny" liste, der den vil plassere bare de lenkene som ikke ble funnet i noen av de tidligere søkene.

Søkeovervåking interessant ikke bare i seg selv. Det kan være involvert i overvåking av media, sosiale nettverk og andre nyhetskilder, som ble nevnt ovenfor i avsnitt 1. I motsetning til andre programmer, der det er mulig å få ny informasjon kun fra RSS-feeder, i programmet NettstedSputnik kan brukes til dette søk innebygd i nettsider Og søkemotorer . Også mulig emulering(selvskaping) flere RSS-feeder fra vilkårlige sider, dessuten emulering av en RSS-feed på forespørsel og til og med en gruppe forespørsler.


  • For å få mest mulig ut av programmet, bruk hovedfunksjonene, nemlig:

    • be om pakker, pakker med parametere, bruk Assembler (assembler), operasjonen "Analytisk sammenslåing" av resultatene av flere oppgaver, om nødvendig, bruk grunnleggende søkefunksjoner på det usynlige Internett;

    • koble kildene dine til informasjonskildene som er innebygd i programmet : andre søkemotorer og søk innebygd i nettsteder, eksisterende RSS-feeds opprettet av deg egne RSS-feeder Med vilkårlig sider, bruk søkefunksjonen for nye kilder;

    • bruke følgende typer funksjoner overvåkning: Media, sosiale nettverk og andre kilder, overvåking kommentarer til nyheter og meldinger, spor utseendet til ny informasjon på eksisterende sider;

    • engasjere seg Kategorier , Eksterne funksjoner, Oppgaveplanlegger, e-postliste, flere datamaskiner, Prosjektinstruktør, installer alarm For å varsle deg om forekomsten av viktige hendelser, bruk de andre funksjonene som er oppført nedenfor.



4. SiteSputnik-program (SiteSputnik): alternativer og funksjoner

- Program SiteSputnik er i stadig forbedring på følgende områder: "Jeg må finne alt og med garanti".
"Forhørsprogramvare for Internett", - en annen definisjon av brukeren for å tildele programmet.

EN. Funksjoner for å søke og samle informasjon.

. Be om pakke - utførelse av flere søk samtidig, kombinere søkeresultater eller separat. Når du genererer det kombinerte resultatet, fjernes gjentatte koblinger. Flere detaljer om pakker finner du i introduksjonen til SiteSputnik, og visuelt i videoen: et ledd Og skille utførelse av forespørsler. Det er ingen analoger i innenlandsk og utenlandsk utvikling.

. Parameterpakker. Eventuelle søk og spørringspakker designet for å løse standard søkeoppgaver, for eksempel søk etter telefonnummer, fullt navn eller e-post, - kan parameteriseres, lagres og kjøres fra et bibliotek med ferdige spørringer med erstatning av faktiske (nødvendige) parameterverdier. Hver pakke med parametere er sin egen spesialitet avansert søkeskjema . Den kan bruke ikke én, men flere søkemotorer. Du kan lage skjemaer som er svært komplekse i sitt funksjonelle formål. Det er ekstremt viktig det skjemaer kan opprettes av brukerne selv, uten deltakelse fra programforfatteren eller programmereren. Dette er skrevet veldig enkelt i instruksjonene, flere detaljer i en egen publikasjon om søkeparameterisering og på forumet, tydelig i videoen: søk etter alle alternativer for å ta opp et nummer samtidig mobiltelefon og i henhold til flere alternativer for å registrere adressen E-post. Det er ingen analoger.

. Monter NY- sette sammen en søkeoppgave fra flere ferdige : forespørsler, forespørselspakker og parameterpakker. Pakker kan inneholde andre pakker i teksten. Dybden på nesting av pakker er ubegrenset. Du kan opprette flere søkeoppgaver, for eksempel om flere juridiske personer og enkeltpersoner, og fullføre disse oppgavene samtidig. Flere detaljer på forumet og i en egen publikasjon om Assembler, tydelig på video. Det er ingen analoger.

. Metasearch - utførelse av en spesifikk forespørsel samtidig på en gitt "dybde" av søk for hver av dem. Metasearch er mulig ved å bruke innebygde søkemotorer, som inkluderer Yandex, Rambler, Google, Yahoo, MSN (Bing), Mail, Yandex og Google-blogger, og tilkoblede søkeverktøy. Å jobbe med flere søkemotorer ser ut som du jobber med én søkemotor . Gjenfunne lenker slettes. Visuelt metasøk på tre tilkoblede sosiale nettverk: VKontakte, Twitter og Youtube - vist på video.

. Metasøk på nettstedet - kombinere nettstedsøk i Google, Yahoo, Yandex, MSN (Bing). Tydelig på video.

. Metasøk i kontordokumenter - kombinere søk i filer PDF-format, XLS, DOC, RTF, PPT, FLASH i Google, Yahoo, Yandex, MSN (Bing). Du kan velge hvilken som helst kombinasjon av filformater.

. Metasøk etter cache-kopier lenker i Yandex, Google, Yahoo, MSN (Bing). En liste er kompilert, hvor hvert element inneholder alle utdragene som ble funnet for hver lenke av hver søkemotor. Det er ingen analoger.

. Deep Search for Yandex, Google og Rambler lar deg kombinere til en liste alle lenker fra det vanlige søket og alle lenker, henholdsvis fra listene "Mer fra nettstedet", "Ytterligere resultater fra nettstedet" og "Søk på nettstedet (Totalt) ...)". Les mer om dypsøk på forumet. Det er ingen analoger.

. Nøyaktig og fullstendig søk . Dette betyr følgende. På den ene siden kan hver spørring utføres på det og bare på kilden på hvis spørringsspråk den er skrevet. Dette eksakt søk. På den annen side kan det være et vilkårlig antall slike forespørsler og kilder. Dette gir fullt søk. Les mer i et eget innlegg om prosedyresøk. Det er ingen analoger.

. Søker på det usynlige Internett .

    Den inkluderer følgende grunnleggende funksjoner:

    En spesiell pakke med forespørsler som kan forbedres av brukeren,
    - søk etter usynlige lenker ved hjelp av en edderkopp,
    - søk etter usynlige lenker i nærheten av en synlig lenke eller mappe med "bilde og likhet",
    - spesielle søk etter åpne mapper,
    - søk etter usynlige lenker og mapper med standardnavn ved hjelp av spesielle ordbøker,
    - bruk av dine egne søk innebygd i nettsteder.

    Flere detaljer i en egen publikasjon på SiteSputnik Invisible. De grunnleggende funksjonene er "velkjente i trange sirkler", men måten de brukes på har ingen analoger. Essensen av denne metoden er å bygge et nettstedskart synlig fra Internett (med andre ord materialisere det synlige Internett), og bare på grunnlag av synlige lenker og søke etter usynlige lenker i forhold til dem. Søking etter allerede synlige lenker med "usynlige" metoder utføres ikke.

B. Informasjonsovervåkingsfunksjoner.

. Overvåkning for opptreden på Internett ny lenker om et gitt emne. Overvåk utseende ny lenker kan brukes ved å bruke heltall be om pakker , som involverer noen av søkemetodene nevnt ovenfor, i stedet for individuelle søkemotorforsider. Gjennomført fagforening og kryss ny lenker fra flere separate søk. Flere detaljer i publikasjonen om overvåking (se § 1) og på forumet. Det er ingen analoger.

. Kollektiv informasjonsbehandling . Opprettelse bedrifts- eller profesjonelt nettverk for kollektiv innsamling, overvåking og analyse av informasjon. Deltakerne og skaperne av et slikt nettverk er ansatte i selskapet, medlemmer av et profesjonelt fellesskap eller interessegrupper. Den geografiske plasseringen til deltakerne spiller ingen rolle. Flere detaljer i egen publikasjon om organisering av nettverk for kollektiv innsamling, overvåking og analyse av informasjon.

. Overvåkning lenker (nettsider) for å oppdage endringer i innholdet (innholdet). Beta versjon. Funne endringer er uthevet med farger og spesialsymboler. Nærmere detaljer i egen publikasjon om overvåking (se § 2 og 3).

I. Informasjonsanalysefunksjoner.

. Kategorier av materialer allerede beskrevet ovenfor. Flere detaljer finnes i en egen publikasjon om Rubrics. Regler for inntasting av rubrikker lar deg spesifisere nøkkelord og avstanden mellom dem, angi logiske "AND", "OR" og "NOT", bruke en parentes med flere nivåer og ordbøker (sett inn filer) som logiske operasjoner kan brukes på.

. VF-teknologi - nesten vilkårlig utvidelse av muligheten for å kategorisere materialer gjennom implementering av eksterne funksjoner som er organisk integrert i reglene for å legge inn rubrikker og kan implementeres av programmereren uavhengig uten deltakelse fra programforfatteren.

. Numerisk analyse belegg av Rubriks, installasjon alarm og varsling om forekomsten av viktige hendelser ved å markere rubrikkene i farger og/eller sende en alarmrapport på e-post.

. Faktisk relevans. Det er en mulighet for å ordne lenkene i rekkefølge nær betydning disse koblingene i forhold til problemet som blir løst, og omgår triksene til webmastere som bruker ulike måterøke nettstedsrangeringer i søkemotorer. Dette oppnås ved å analysere resultatene av å utføre flere "mange" spørringer om et gitt emne. I ordets bokstavelige betydning, lenker som inneholder maksimalt nødvendig informasjon . Les mer i beskrivelsen av hvordan du finner den optimale leverandøren og på forumet. Det er ingen analoger.

. Beregne objektrelasjoner - søk etter lenker, ressurser (nettsteder), mapper og domener hvor objekter er nevnt samtidig. De vanligste gjenstandene er mennesker og firmaer. For å søke etter forbindelser kan alle programverktøy som er nevnt på denne siden brukes SiteSputnik, noe som øker effektiviteten av arbeidet du gjør betydelig. Operasjonen utføres på et hvilket som helst antall objekter. Flere detaljer i introduksjonen til programmet, samt i beskrivelsen ny funksjon"objekter og deres forbindelser." Det er ingen analoger.

. Dannelse, integrasjon og skjæring av informasjonsstrømmer om en rekke emner, sammenligning av tråder. Mer detaljer i eget innlegg på tråder.

. Bygge nettkart nettsteder, ressurser, mapper og søkte objekter basert på de som ble funnet på Internett når Google-hjelp, Yahoo, Yandex, MSN (Bing) og Altavista-lenker som tilhører nettstedet. Eksperter kan finne ut: er det synlig "ekstra" informasjon fra Internett på deres nettsteder, samt undersøkelseskonkurrenters nettsteder om dette emnet. Nettstedskart er materialisering av det synlige internett . Flere detaljer i egen publikasjon om bygging av nettkart, visuelt på video. Det er ingen analoger.

. Finne nye informasjonskilder om et gitt emne, som deretter kan brukes til å spore fremveksten av ny relevant informasjon. Flere detaljer på.

G. Tjenestefunksjoner.

. Oppgaveplanlegger gir arbeid Planlagt: utfører spesifiserte programfunksjoner på et gitt tidspunkt. Flere detaljer i en egen publikasjon om Planneren.

. Prosjektinstruktør NY- Dette er en assistent opprettelse og vedlikehold Prosjekter for søk, innsamling, overvåking og analyse av informasjon (kategorisering og signalisering). Flere detaljer på forumet.

. Automatisk arkivering. I databaser Alle resultatene av arbeidet ditt huskes automatisk, nemlig: forespørsler, forespørselspakker, søke- og overvåkingsprotokoller, alle andre av funksjonene ovenfor og resultatene av deres utførelse. Kan struktur arbeid med temaer og underemner.

. Database inkluderer sortering, enkelt søk og tilpasset søk etter SQL-spørring. For sistnevnte er det en veiviser for å komponere SQL-spørringer. Ved å bruke disse verktøyene kan du finne og gjennomgå arbeidet du gjorde i går, forrige måned, et år siden, definere et emne som et søkekriterium, eller angi et annet søkekriterium basert på innholdet i databasen.

. Tekniske begrensninger søkemotorer. Noen begrensninger, for eksempel lengden på spørringsstrengen, kan overvinnes. Det sikrer utførelse av ikke én, men flere spørringer, ved å kombinere søkeresultater eller separat. Du kan lese om en måte å overvinne brudd på loven om additivitet for store søkemotorer. For ett ord eller en setning omsluttet av anførselstegn implementeres et søk i søkemotorer som skiller mellom store og små bokstaver, spesielt søk etter forkortelse.

Innebygd nettleser . Navigator etter side. Flerfarget markør for å markere nøkkelord og vilkårlige ord. Bilisting og N-listing fra genererte dokumenter.

. Lossing nyhetsfeeds i en tabellvisning fokusert på import i Excel, MySQL, Access, Kronos og andre applikasjoner.


5. Installasjon og lansering av programmet, datamaskinkrav.

Slik installerer og kjører du programmet:

  • Last ned filen, kopier FileForFiles-mappen fra den til din HDD, for eksempel på D:\;

  • Demo-versjon av programmet vil bli installert og den vil åpne seg.

  • Programmet vil fungere på alle datamaskiner det er installert på Windows hvilken som helst versjoner.

    Snakk om hva i vår tid informasjonsteknologier og den endeløse veksten i volumet av data som er tilgjengelig for både et individ og samfunnet, er det mange problemer med å behandle informasjon og søke etter den - dette er allerede blasfemi. Hvem tar ikke opp dette temaet? Og for ikke å belaste deg med subjektive og til dels objektive vurderinger hentet fra ulike informasjonskilder angående problemet, vil jeg gå direkte til løsningen. I dag skal vi snakke om søk. Det vil si om programmer og seriøse informasjonssystemer som søker etter dokumentene og dataene vi trenger.

    Oppgrader "direkte søk"

    Ikke så lenge siden, da trær var store, og informasjon til og med inne lokalt nettverk det var ikke så mange bedrifter, ethvert søk ble utført ved et banalt søk i en håndfull tilgjengelige filer og en sekvensiell sjekk av navn og innhold. Et slikt søk kalles direkte, og programmer (verktøy) som bruker direkte søketeknologi er tradisjonelt tilstede i alle operativsystemer og verktøypakker. Men selv kraften moderne datamaskiner ikke nok for raskt og tilstrekkelig søk i gigantiske datamengder under direkte søk. Å søke gjennom et par hundre dokumenter på en disk og søke i et enormt bibliotek og flere dusin postkasser er to forskjellige ting. Derfor er direktesøk-programmer i dag tydeligvis i ferd med å visne i bakgrunnen - if vi snakker om om universelle virkemidler.

    Selvfølgelig har denne typen søk ikke vært etterspurt på lenge i bedriftssektoren. Volumene er ikke de samme. Og derfor, i mange år nå, og nylig helt klart, er teknologier som er i stand til raskt og nøyaktig å søke etter dokumenter i forskjellige formater og fra forskjellige kilder mer enn relevante. For ikke så lenge siden kunngjorde Microsofts "far" Bill Gates, tilsynelatende misunnelig på den fenomenale suksessen til Internett-søkemotoren Google, på en av pressekonferansene ønsket fra programvareindustrien (og ikke bare) om å bidra på alle mulige måter, utvikle og utdype etableringen av søkemotorer og teknologier. Men det er for tidlig å lage et fenomenalt fungerende program fra Microsoft eller en konkurrerende server på Internett (MSN når fortsatt ikke Google). La oss derfor gå til eksisterende utvikling. Indeks, spørring, relevans

    I kjernen moderne teknologier det er to grunnleggende prosesser. For det første er det å indeksere den tilgjengelige informasjonen og behandle forespørselen med påfølgende utdata av resultatene. Når det gjelder det første, et hvilket som helst program (det være seg en stasjonær søkemotor, bedrift Informasjon System eller Internett-søkemotor) oppretter sitt eget søkeområde. Det vil si at den behandler dokumenter og genererer en indeks over disse dokumentene (en organisert struktur som inneholder informasjon om de behandlede dataene). I fremtiden er det den opprettede indeksen som brukes til arbeid - raskt å få en liste over nødvendige dokumenter i henhold til forespørselen. Det som følger, selv om det på ingen måte er enkelt når det gjelder teknologi, er ganske forståelig for den gjennomsnittlige brukeren. Programmet behandler forespørselen (ved hjelp av en nøkkelordsetning) og viser en liste over dokumenter som inneholder denne søkeordsetningen. Siden informasjonen er inneholdt i en strukturert indeks, er forespørselsbehandlingen betydelig (tivis og hundrevis av ganger!) raskere enn ved direkte søk (utvalget av dokumenter utføres ikke ved å søke gjennom filer, men ved å analysere tekstinformasjon i indeksen).

    Programmet viser de funnet dokumentene i den resulterende listen i henhold til relevans - dokumentets samsvar med søketeksten. I forskjellige teknologier er det selvfølgelig forskjellige metoder for å søke og bestemme relevansen til et dokument (antall "forekomster" av et ord og dets omtalefrekvens i dokumentet, forholdet mellom disse parameterne og det totale antallet ord i dokumentet, avstanden mellom ordene i søkefrasen i de søkte filene, og så videre). Basert på disse parametrene bestemmes "vekten" til dokumentet, og avhengig av den vises en bestemt fil i resultatlisten på en bestemt posisjon. Når det gjelder Internett-søk, er situasjonen enda mer komplisert. Faktisk, i dette tilfellet må mange andre faktorer tas i betraktning (Googles Page Rank er et eksempel på dette). Men dette er et emne for en egen artikkel, så vi vil ikke berøre Internett Gjennomgang av søkemotorer

    Dette materialet undersøker mulighetene til flere populære søkeprogrammer som kan skryte av både anstendige hastigheter og god funksjonalitet. Men å vise seg frem i brosjyrer er én ting, men å stå under blikket til en ekspert er noe helt annet. Og det var ikke flere eksperter, ikke mindre et kontor fullt av folk som likte å tukle med programvaren for dens brukervennlighet. På en eksperimentell datamaskin (Athlon 2,2 MHz, med kapasitet tilfeldig tilgang minne 1 GB, 160 GB Seagate 7200 rpm IDE-harddisk og Windows-system XP) ble et sett med programmer installert: dtSearch Desktop, Bloodhound Prof Deluxe, Google Desktop Search, SearchInform, Copernic Desktop Search, ISYS Desktop. For tester ble det satt sammen en tekstdatabase med dokumenter i doc, txt og html generelt størrelsen er verken mer eller mindre, men 20 gigabyte. En gruppe kamerater under ledelse av din ydmyke tjener testet, sammenlignet og delte sine subjektive inntrykk av hver programvare. Les et sammendrag av funnene nedenfor. dtSearch Desktop

    Et program som ifølge utviklerne hevder å være den raskeste, mest praktiske og beste søkemotoren. Som, generelt, alle andre fra denne anmeldelsen. dtSearch-grensesnittet er ganske enkelt, men noen vinduer eller faner er noe overbelastet med elementer, noe som gjør at det virker vanskelig å bruke. Men i virkeligheten er det ingen spesielle vanskeligheter. Det eneste virkelig ubehagelige punktet er programvarens mangel på støtte for det russiske språket (til tross for at programmet kan søke etter dokumenter på flere språk, er grensesnittet utelukkende engelsk).

    Men dtSearch er et av få programmer som kan indeksere nettsider til en brukerspesifisert "dybde" (riktignok tatt i betraktning "ekstra kjøp" av dtSearch Spider-tilleggssettet). Dette kommer i tillegg til å støtte diskfiler med ulike tekstformater og e-poster fra postkasse Outlook. Samtidig kan ikke programmet fungere med databaser, som er en så velsmakende bit for søkemotorer på grunn av de store mengder informasjon som finnes i dem og deres brede distribusjon i selskaper, og derfor i bedriftsnettverk. Hastigheten på å indeksere dtSearch-dokumenter viste seg å være på riktig nivå. Når jeg ser fremover, vil jeg si at dette programmet taklet indekseringen av en gitt informasjonsmengde på nivå med en annen konkurrent - iSYS - og delte andreplassen på listen over de mest raske systemer. dtSearch indekserte en test 20 gigabyte med informasjon på 6 timer og 13 minutter, og skapte en indeks på 7,9 GB for påfølgende søkebehov.

    Når det gjelder søkefunksjonene, her er de på riktig nivå. For det første har dtSearch et morfologisk søk ​​(søker etter et ord i alle dets morfologiske former). Ved hjelp av denne sjansen, frigjør du deg selv fra for eksempel tanker som "i hvilket tilfelle ble et bestemt ord brukt i dokumentet jeg trengte?" Bruk av morfologisk søk ​​er nesten alltid berettiget, så det bør være til stede i enhver profesjonell søkemotor.

    Søk etter lyd er en ikke-standard funksjon selv for profesjonelle søkemotorer. Essensen er at programmet vil søke etter ord som høres ut på samme måte som ordet du skrev inn. Og det beste er at denne funksjonen også fungerer for det russiske språket! For eksempel, når du skriver inn ordet "øre" i et søk, vil du se ikke bare ordene "øre", men også "øre" som et resultat.

    Søk med feilretting er en svært viktig funksjon. Den brukes til å søke etter ord som inneholder syntaktiske feil - disse kan enten være skrivefeil eller feil i dokumenter hentet ved hjelp av tegngjenkjenningssystemer, for eksempel. Et enkelt eksempel - du leter etter ordet tastatur. Noen dokumenter inneholder ordet "tastatur", det er åpenbart at dette faktisk er ordet "tastatur", personen gjorde nettopp en skrivefeil da han skrev. Så et feilrettingssøk vil oppdage og inkludere et dokument med ordet "tastatur" i resultatet. Det er også en innstilling i dtSearch som lar deg bestemme graden av mulige feilaktige tegn.

    Søk med synonymer. Denne funksjonen bruker en liste over synonymer for forskjellige ord. Så, for eksempel, ved å skrive inn ordet "rask", vil programmet også finne ordene "høyhastighet" og andre som er synonymer for ordet "rask", hvis de selvfølgelig er til stede i listen over synonymer . En ferdig liste over synonymer følger ikke med dtSearch-programmet, men det er mulig å bruke lister på Internett (det er derfor nødvendig med en tilkobling, noe som ikke alltid er praktisk), eller du kan lage din egen liste over synonymer .

    I tillegg til funksjonene som er oppført, kan dtSearch søke ved hjelp av fraser som består av ord forbundet med logiske operasjoner. Hvert ord i en spørring kan tildeles sin egen "vekt", det vil si betydning. Et nyttig alternativ er å bruke en ordbok som består av uviktige ord for ikke å ta hensyn til dem når du søker, men denne ordboken er også tom og du må fylle den ut selv.

    La oss deretter se på programmets muligheter når du arbeider på nettverket. Faktisk tilbyr ikke dtSearch noen spesifikke muligheter for å jobbe med nettverket. Det er imidlertid fullt mulig å bruke det på nettet. Alternativt kan du lage en slags indeks og legge den i en offentlig (delt) mappe. Selve programmet kan installeres på hver brukers datamaskin, eller det kan også plasseres i en mappe som er åpen for offentlig tilgang, og lag spesielle snarveier for hver bruker separat ved å bruke parameterne kommandolinje, hvis formål er beskrevet i hjelpefilen som følger med programmet. Det er også en mulighet automatisk installasjon programmer til nettverket ved hjelp av MSI-fil. Dette vil ta hensyn til innstillingene for hver tilkoblet bruker.

    Generelt er det et godt program fra kategorien profesjonelle søkemotorer. Det kan kvalifisere for en god vurdering, men å få tillit og respekt fra brukere er kanskje ikke lett for dtSearch på grunn av visse faktorer (ikke alt er glatt med grensesnittet, russiske brukere er fratatt, det er ingen lyse funksjoner for å jobbe med nettverket) . Når det gjelder direkte søk etter dokumenter, hadde programmet ingen problemer med russisk tekst. Siden det ikke var noen med den deklarerte morfologien, eller med et uklart søk. Systemet fant ganske tilstrekkelig de nødvendige dokumentene både ved en enkel ettordsspørring og ved å bruke et par avsnitt eller et dokument som nøkkeluttrykk.

    Offisiell side:
    Distribusjonsstørrelse: 23 Mb Bloodhound Prof Deluxe

    Basert på navnet kan du gjette at det er støtte for det russiske språket i dette programmet. Dette er allerede fint. Når det gjelder grensesnittet, generelt er det noe uvanlig, men i utseende er det veldig attraktivt. En annen ting er bekvemmelighet. Et veldig kontroversielt kriterium, men likevel, sannsynligvis, er en flervindusløsning ikke det mest vellykkede alternativet (forespørselen legges inn i ett vindu, resultatet vises i et annet og lignende).

    Snoop bruker de samme indeksene for å utføre et raskt søk, men indeksering er mye tregere enn andre programmer. Dette er veldig rart, spesielt med tanke på at evnene for behandling av søk er svært svake, og derfor er indeksstrukturen ikke kompleks. Mest sannsynlig er dette på grunn av uoptimaliserte algoritmer. Dette programmet viste seg å være en klar outsider i indeksering og søkehastigheter: tiden brukt på å lage en indeks er seks ganger lengre enn for dtSearch og iSYS. Indeksering av 20 gigabyte med tekster for blodhunden resulterte i 38 timer og 46 minutters arbeid. Og det opprettede "søkeområdet" tok opp samme størrelse på harddisken som de originale dataene med et lite minus - 19 gigabyte.

    Bloodhound kan presenteres som et alternativ til standardsøket i Windows, det er neppe i stand til mer. Det faktum at Snoopers primære oppgave er det enkleste søket etter filer, indikeres ikke bare av det lille antallet funksjoner for å analysere teksten i søkespørsmål og et avansert søk etter filattributter, men til og med av et resultatvindu som gir direkte lenker til filer funnet, samt til mappene som inneholder disse filene. Resultatvinduet er lite informativt i den forstand at du kan lese hele filen som ble funnet bare ved å kjøre den, det vil si at den ikke har en innebygd filviser. Men et utdrag fra filen der det søkte ordet ble funnet vises generelt, dette visningsskjemaet minner veldig om Internett-søkemotorer.

    Når vi snakker om spesifikke funksjoner for å behandle søkespørsmål, er det verdt å merke seg at det ikke er noe som heter "søketekst" det maksimale som kan søkes i er en setning, om ikke annet fordi det ikke er et tekstfelt med flere linjer. Du kan imidlertid analysere den angitte setningen, og Snoop tilbyr oss et standard søkesett her: logiske operasjoner, maskesøk og sitatsøk... ikke mye. Programmet inneholder noen rudimenter av morfologisk søk, men det er sannsynligvis så grovt at det mest sannsynlig forstyrrer korrekt drift (under tester ble det lagt merke til mange feil med feil bruk av morfologi).

    Men programmet lar deg spesifisere filattributter når du søker (dokumentdato, filnavn, mappenavn), og i disse spørringene kan du også bruke det samme søkesettet. Du kan også søke etter bokstaver ved å spesifisere parametrene (Fra, Emne... osv.).

    Så vi fant ut selve søket, hva annet er interessant med programmet, som det mottok så mange priser for, ifølge informasjon fra det offisielle nettstedet? Det er vanskelig å si hva som er så spesielt med det; mest sannsynlig er Bloodhound-grensesnittet attraktivt (nøyaktig i utseende, for ikke å snakke om brukervennlighet).

    Operasjoner med indekser er veldig standard en fin funksjon er muligheten til å oppdatere indekser på en tidsplan. I tillegg kan indekser også brukes online. Fra nå av trenger vi flere detaljer.

    Til tross for primitiviteten til søkespørringer, kan programmet brukes til å søke etter filer, slik at bruken kan rettferdiggjøres i nettverk. Skjønt med stor strekk, siden i et stort nettverk er den prioriterte oppgaven raskt søk data ved hjelp av komplekse søk på grunn av den enorme informasjonsmengden - og det er helt klart problemer med hastigheten på søket og programmet. Jeg må si at arbeidet med nettverket på Izhishka er gjennomtenkt som det skal. En egen applikasjon er designet spesielt for dette - Bloodhound Server. Det fungerer på samme måte som ganske enkelt Snooper (de har samme søkemotor), bare for dokumenter som ligger på en sentral server eller på delte ressurser V bedriftsnettverk. Snooper Server oppretter nye indekser på delte ressurser eller bruker tidligere opprettede. Enhver bruker av bedriftsnettverket kan koble seg til søkeserveren og bruke den til å få tilgang til ethvert dokument (plassert i gjeldende indeks) ved hjelp av en nettleser. Enig, denne ordningen er ekstremt praktisk: det viser seg at filer på ditt eget nettverk kan søkes på samme måte som informasjon på Internett gjennom for eksempel Google.

    Ved å vurdere alle fordelene og ulempene med dette programmet, antyder konklusjonen seg selv at dets evner mest sannsynlig ikke er nok for bedriftsnettverk (til tross for den gode organiseringen av å jobbe med nettverket), men for en hjemmedatamaskin eller til og med for hjemmenettverk I prinsippet kan det passe. Selv om verken arbeidshastigheten eller søkemulighetene inspirerer til optimisme...

    Offisiell nettside på russisk:
    Distribusjonsstørrelse: 6 MbGoogle Desktop Search + GDS Enterprise

    Selvfølgelig kunne vi ikke ignorere en så kjent utvikler. Navn Google allerede sier mye. Folk som har brukt den kraftigste Internett-søkemotoren i årevis, vil helt sikkert, uten en eneste tvil, bestemme seg for å installere denne søkemotoren på datamaskinen. Bare tenk: Google på datamaskinen hjemme! Men uten å gi etter for provokasjoner med et bredt markedsført merke, la oss prøve nøkternt, og viktigst objektivt, å vurdere mulighetene til "desktop"-søkemotoren fra Google.

    Det første som fanger oppmerksomheten er mangelen på et eget skall for programmet. Google Desktop Search er fortsatt plassert i nettleservinduet, henholdsvis hele grensesnittet til skrivebordsversjonen ble arvet fra programvaren fra sin eldre Internett-bror. Hvorvidt dette er bra eller dårlig er et problem: noen liker minimalismen i utformingen av denne søkemotoren, mens andre ønsker å se en fullverdig applikasjon fylt med alle slags knapper og så videre.

    Hva fanger oppmerksomheten din rett etter designet? Og det faktum at det samme Google Desktop Search begynner å indeksere alt på datamaskinen, uten noen etterspørsel! Og det som er mest interessant er at det er umulig å velge indekseringsbaner ved hjelp av Google Desktop Search. Du må laste ned et eget program (TweakGDS), som lar deg utvide litt Google-innstillinger Desktop, inkludert spesifisering av stedene som kreves for indeksering. Selv om når du finner ut av alt dette, vil den allerede indeksere en standard harddisk, så denne innstillingen er mer sannsynlig å være nødvendig når du arbeider med store datamengder, noe som er veldig viktig når det brukes i bedriftsnettverk (Enterprise-versjoner) . Det er imidlertid ikke et faktum at etter å ha lastet ned TweakGDS, vil problemene dine være løst. Hun trenger tross alt Microsoft for å jobbe. NET Framework og Microsoft Scripting Runtime. Ja... installasjonen, samt tilgang til innstillingene, kunne vært gjort enklere, selv om utviklerne sikkert kan forstå: hvorfor skrive noe nytt når det er en ferdig søkemotor, portert det til lokal datamaskin og la brukeren "nyte", og la det berømte navnet lage nok et mesterverk av "dette". Kom igjen, la oss avslutte denne lyriske digresjonen og gå videre til søket.

    Når det gjelder å analysere søk og levere resultater, er alt her helt identisk med Google på Internett: det samme systemet for å vise resultater, det samme standardsettet med logiske operasjoner for søk. Generelt er Google Desktop Search, som det forrige programmet, utelukkende beregnet på å søke etter filer - det har selvfølgelig ikke en intern visningsprogram for disse filene. Antallet filformater som støttes av Google Desktop Search er ganske tilstrekkelig, og det er også fint at det søker på besøkte Internett-sider og henter data fra hurtigbufferen. Søke- og indekseringshastigheter er ganske akseptable. Riktignok til hjemmebruk. Med imponerende 20 gigabyte Google-tekster Desktop Search fullførte oppgaven på 8 timer og 17 minutter. Å bruke flere dager på å behandle informasjon fra bedriftsnettverket til en stor bedrift er ikke noe noen systemadministrator ønsker å gjøre. På plussiden: størrelsen på den opprettede indeksen var på samme nivå (4,5 GB) som en annen søkemotor testet i denne anmeldelsen - SearchInform.

    Den store fordelen (eller ulempen – du bestemmer selv) med Google Desktop Search er at den støtter plugins, som kan endre mye til det bedre. En annen ting er at å koble til plugins og sette dem opp kompliserer oppgaven med å installere en søkemotor så mye at du begynner å lure på om alt dette er nødvendig når du kan installere et normalt, fullverdig program der alt allerede vil være til stede. Tross alt, for å bruke hver funksjon, må du installere en ny plugin. Selv for at programmet skal fungere fullt ut med arkiver, trengs en egen gadget. Det er fascinerende og forførende at alle disse tilleggsmodulene er gratis. Men hvis du ikke tar hensyn til skrivebordsversjonen av søkemotoren, kan det hende at kompetent konfigurasjon av GDS Enterprise ikke er innenfor din makt - tross alt er det ikke for ingenting at spesialister fra Google tilbyr sine tjenester for å sette opp sine egne programvare for nettverket ditt for kun $10 000.

    Hvis du går gjennom oppsetts- og installasjonsprosedyren (eller betaler $10 000 til et raskt svar-team fra Google), vil du forstå at kompleksiteten til installasjonen mer enn kompenseres av de svært fleksible innstillingene når den brukes i bedriftsnettverk. Et viktig poeng Google arbeid Desktop i et bedriftsnettverk er bruk av gruppepolicyer, som gjør det mulig å sette innstillinger for hver bruker.

    For å oppsummere, den mest fornuftige bruken av dette programmet er en hjemme- eller jobbdatamaskin. Tross alt, for en vanlig datamaskin, er det nok bare å installere programmet - det vil gjøre resten selv (det vil ikke engang spørre deg om noe).

    Google Desktop Search Enterprise vil imidlertid være akseptabelt i tilfeller der det er et presserende behov for fleksibel konfigurasjon av nettverkspolicy for å bruke søkemotoren, mens muligheten til å behandle søkespørsmål vil være på andre plass i viktighet, og tiden (eller pengene) ) brukt på å sette opp programmet vil være på førsteplass.

    Offisiell side:
    Distribusjonsstørrelse inkludert TweakGDS: 1,2 MbCopernic Desktop Search

    Klikk på bildet for å forstørre

    Programgrensesnittet fremkaller ekstremt positive følelser - alt er gjort i samsvar med allment aksepterte standarder, ingenting overflødig, med et ord, en hyggelig design. For en nybegynner vil det være veldig enkelt å forstå Copernic Desktop Search-grensesnittet. Selv om det er noe forvirrende at designerne tydelig opprettet programgrensesnittet med tanke på det faktum at programmet vil fungere i standard Windows XP-tema. Når du bruker det klassiske temaet, ser ikke programmet så pent ut. Men dette er mer en smakssak.

    Ved første oppstart ber programmet deg om å lage indekser for søk. Det virket noe uvanlig at etter å ha valgt mapper for indeksering, tilbød ikke programmet å trykke på noen knapp, for eksempel "Start indeksering", og indeksering startet ikke automatisk, først da ble det lagt merke til at Copernic prøvde å starte indeksering mens datamaskinen var ledig. Du må grave litt dypere inn i programmets alternativer for å konfigurere alt riktig. Det skal bemerkes at det er ganske brede muligheter for å sette opp automatisk indeksoppretting: innebygd planlegger, muligheten til å indeksere mens datamaskinen er inaktiv, bakgrunn, med lav prioritet. Indekseringen var ikke for rask - 10 timer 51 minutter - dette er tregere enn i andre søkemotorer (bortsett fra Isle of Bloodhound, men Copernic er fortsatt en størrelsesorden raskere enn utviklingen av iSleuthHound Technologies.

    Nå om strukturen til indeksen. Generelt er det ikke noe spesielt med det. Det er mulig å velge filtyper, både i generell og detaljert form. Det vil si at du i utgangspunktet kan velge hva du vil indeksere - Dokumenter, Bilder, Videoer, Musikk. På den andre fanen i alternativvinduet vil du kunne velge spesifikke filtyper etter utvidelse. I tillegg kan du konfigurere indeksen slik at for eksempel bilder som er mindre enn 16x16 i størrelse ikke indekseres eller lydfiler som er mindre enn 10 sekunder lange ikke indekseres. I tillegg til å indeksere filer fra mapper, kan Copernic jobbe med e-poster og kontakter fra adresseboken Microsoft Outlook og Microsoft Outlook Express, er indeksering av favoritter og historikk fra Internet Explorer mulig.

    Når det gjelder søkemulighetene, er de veldig svake her. Under tester ble det til og med avslørt at programmet ikke søker etter dokumenter i txt- og html-formater på russisk, slik at du bare kan finne dem etter titler og ikke etter innhold. Det eneste programmet gir for å forbedre søkeeffektiviteten er bruken av et standard sett med logiske operasjoner, og selv da ble denne funksjonen oppdaget eksperimentelt, siden den ikke ble dokumentert. Forresten, programmets hjelp er heller ikke i orden - den er bare tilgjengelig via Internett, som du ser er veldig upraktisk, og det er ikke for mye hjelpeinformasjon på Internett. Tilsynelatende bestemte utviklerne at det enkle grensesnittet til programmet ikke innebærer tilstedeværelsen av normal hjelp. For å fortsette samtalen om søkefunksjoner, bør det bemerkes at til tross for den svake analysen av spørringer, gir programmet et interessant søkesystem - brukeren kan velge filtype (bilder, videoer, musikk, etc.), angi et søk spørre og velg attributter som er spesifikke for valgt filtype. For eksempel, for lydfiler, kan disse være verdier fra mp3-tagger (artist, album, dato, etc.), for bilder kan du for eksempel velge størrelse (etter oppløsning), generelt har hver type sin egne innstillinger. Etter å ha søkt etter en bestemt filtype, vil programmet vise en svært informativ liste i resultatvinduet, og hvis forespørselen din inkluderer filer av andre typer, kan du åpne dem ved å klikke på en bestemt lenke.

    Separat er det verdt å nevne resultatvinduet. Under listen over funnet filer vises innholdet i disse filene (et lignende opplegg brukes ofte i e-postklienter). Det er sant at tekstvisning bare kan gjøres i det opprinnelige formatet, og det er ingen ren tekstvisningsmodus, noe som ikke alltid er praktisk, siden det tar mer tid å åpne et dokument i dette tilfellet. Men gitt at Copernic kan søke etter bilder og musikk, er det mulig å se disse multimediefilene.

    De grunnleggende prinsippene for driften av dette programmet er beskrevet, la oss nå se hva Copernic Desktop Search kan tilby oss for å jobbe med nettverket... I prinsippet kan du se veldig lenge, men du vil neppe kunne se noe . Dette programmet var med andre ord ikke ment å være et nettverksprogram. Copernic Desktop Search er utelukkende en hjemmesøkemotor.

    Åpenbart er den eneste (mest logiske) applikasjonen av dette programmet hjemmedatamaskin. Her vil den fullt ut takle alle enkle brukersøk som består av ett eller to ord, vil finne nødvendig informasjon, og inndeling av søk etter filtype og støtte for multimediefiler sammen med bakgrunnsindeksering i lavprioritetsmodus, kombinert med en hyggelig grensesnitt, bare gi programmet styrke til å få tillit blant uerfarne brukere.

    Offisiell side
    Distribusjonsstørrelse: 2,6 MbISYS Desktop

    Klikk på bildet for å forstørre

    Et veldig kraftig program. Når det gjelder utstyrsnivået med alle slags funksjoner, er det et sted i nærheten av neste SearchInform søkesystem på listen. Dessuten er størrelsen på installasjonsfilen mer enn 40 Mb! Det er vanskelig å si hva som kan presses inn i slike dimensjoner, fordi den samme SearchInform, med lignende funksjonalitet, tar opp 15 Mb.

    Installasjonsprosessen her er heller ikke veldig hyggelig, eller rettere sagt ikke engang installasjonsprosessen. Selv før du laster ned programmet, vil du bli bedt om å registrere deg, ellers er det ingen måte. Deretter grensesnittet. Det er laget veldig pent, ingenting unødvendig fanger øyet, men dette er inntrykkene til en person som allerede er litt vant til det. Det vil ikke være lett for en nybegynner å finne ut hvor og hva som ligger, hvor du skal klikke og hvor du til slutt skal søke. Det anbefales sterkt å lese hjelpen før du begynner å jobbe - du vil spare mye nerver og tid. I tillegg til alt annet er den fullstendige mangelen på støtte for det russiske språket i programmet. Ikke bra. I tillegg er ikke vinduene her overbelastet med kontroller, men vi måtte betale for dette med multimoduler og bruk av ekstra vinduer. For eksempel legges søk inn ved å starte ett program, og indeksstyring utføres ved hjelp av et annet program. Søkespørsmål legges også inn her i separate popup-vinduer. Det er vanskelig å si hva som er bedre - et overbelastet grensesnitt eller allestedsnærværende multivinduer, det er snarere en smakssak.

    Når det gjelder å lage indekser, gir programmet funksjoner for å forenkle prosessen med å sette alternativer for en ny indeks. Disse funksjonene inkluderer flere ferdige malerå lage indekser for mappen «Mine dokumenter», «Mail», «Mail og dokumenter», «Spesifikk mappe», «Mappe med et utvalg av filtyper» osv. Slike maler forenkler opprettelsen av indekser i det første trinnet. Verktøyet for å jobbe med indekser har ikke et veldig godt grensesnitt, noe som er skremmende med en viss kompleksitet (dette er en veldig subjektiv vurdering, for å være ærlig), men hvis du ser på det, gir det mange nyttige alternativer og generelt , dens bruk forårsaker ikke store problemer. ISYS Desktop kan indeksere data fra ulike datakilder, og gir også mange fleksible innstillinger for slik indeksering. Ytterligere indekseringsfunksjoner inkluderer: støtte for SQL, FTP, TRIM Context, WORLDOX 2002, skript. Ved opprettelse av en indeks, hvis du valgte punktet "Mappe med utvalg av filtyper", har du mulighet til å velge filtyper for indeksering manuelt (i utvidelse). Det må sies at det ganske enkelt er et stort antall støttede filtyper, men du vil ikke kunne legge til din egen type (utvidelse) til den eksisterende listen. Du kan også merke tilstedeværelsen av en indekseringsplanlegger. Å lage en indeks og behandle 20 gigabyte med informasjon tok ISYS Desktop 6 timer og 13 minutter, og viste til slutt en god tid og størrelsen på den opprettede filen - 7,9 GB.

    Søkemulighetene til dette programmet er ganske gode. Det som brukes i ISYS er mye kraftigere enn konvensjonell støtte for logiske operasjoner. Blant de avanserte søkemulighetene tilbyr programmet bruk av synonymer og et sorteringsfilter (etter bane, navn og dato for filoppretting). Settet med logiske operatorer er noe bredere enn standardsettet. I tillegg til logiske operasjoner lar programmet deg jobbe med mange andre operatører, som i prinsippet kan erstatte noen typer søk, for eksempel kan søk med parsing erstattes fullstendig ved å bruke spesielle operatører. Jeg ble veldig overrasket over at programmet ikke har et søk ved hjelp av morfologi. Dette er en alvorlig utelatelse, siden søkeeffektiviteten forbedres betraktelig ved bruk av morfologisk analyse. I tillegg er det ingen liste over betydningsfulle ord, men det er en omfattende liste over uvesentlige ord. Søkefunksjoner som «tilnærmet søk» og «heuristisk analyse» annonseres også.

    ISYS gir et utvalg av flere typer søk, nemlig visuelle typer. Dette gjøres ved å bruke forskjellige typer vinduer for å legge inn søk, men faktisk tillater ikke et eneste vindu bruk av andre teknologier enn de som er oppført ovenfor.

    Søkeresultatene er svært informative og vises som en liste over dokumenter sortert etter relevans. En forhåndsvisning av det valgte dokumentet vises nedenfor. I motsetning til Copernic Desktop Search, er forhåndsvisning her kun tilgjengelig i form av ren tekst, det var ikke mulig å vise dokumenter i deres opprinnelige format, det være seg Word, Html eller PDF, selv om dette i prinsippet ikke er for kritisk. Programmet lar deg dele opp funnet dokumenter i grupper i henhold til visse kriterier (som standard er de delt inn etter relevans). Du kan også se dokumenter som allerede er funnet ved å velge individuelle mapper (dette er praktisk når resultatet produserer et veldig stort antall dokumenter).

    Å bruke programmet på et bedriftsnettverk er også svært berettiget, siden det gir gode muligheter for å organisere nettverkssøk. Søkesystemet er basert på opprettelsen av en offentlig indeks som inneholder indekserte data fra offentlig tilgjengelige nettressurser.

    Faktisk er programmet fra ISYS verdig oppmerksomhet, i det minste å bli kjent med det. Dette programmet er et modent prosjekt med et stort antall funksjoner (ikke alltid og ikke alle trenger dem selvfølgelig, men likevel). Sjansene for at programmet vil se noen forbedringer når det gjelder behandling av søk er ukjent, men for øyeblikket kan det anbefales for nesten universell bruk. Og gitt at det fortsatt er for tungt for hjemmesystemer, er de viktigste stedene for installasjonen bedriftsnettverk.

    Offisiell side:
    Distribusjonsstørrelse: 40 MbSearchInform

    Klikk på bildet for å forstørre

    Det er sannsynligvis ikke verdt å starte med en gang med en beskrivelse av SearchInform-grensesnittet. Vi bør først beskrive installasjonsprosessen, eller snarere en av detaljene: du kan ikke installere programmet uten en Internett-tilkobling. Faktum er at før den første lanseringen krever programmet brukerregistrering (gratis) og sender alle innlagte data til serveren. Tilsynelatende måtte utviklerne ta slike tiltak i kampen mot piratkopiering, men dette hadde ikke en positiv effekt på installasjonsvennligheten.

    Programgrensesnittet er designet i samsvar med alle generelt aksepterte regler, men ved første øyekast er det noe tungvint. Når du bruker programmet for første gang, ser det ut til at det er for komplisert, noen ganger er det ikke lett å huske i hvilken meny eller på hvilken fane det ønskede alternativet er plassert, men med lengre bruk virker grensesnittet ikke lenger så forferdelig komplisert . Det viktigste er å lese sertifikatet først.

    Etter å ha forstått grensesnittet litt, kan du begynne å lage en indeks. Selve prosessen er veldig enkel og indekseringshastigheten, selv etter øye, er betydelig høyere enn alle andre søkemotorer i anmeldelsen. Tydelige testtall viser at SearchInform er dobbelt så rask som dtSearch og iSYS når det gjelder indekseringshastighet! Programmet indekserte de oppgitte dataene i mengden 20 gigabyte på en rekordtid på 3 timer og 17 minutter. Og størrelsen på den opprettede indeksen viste seg å være den minste 4,4 GB - 100 megabyte mindre enn Google Desktop Search.

    Programmet støtter, i tillegg til vanlige filer og mapper, også indeksering av e-poster, tilkobling og indeksering av databaser (!) og andre eksterne kilder(DMS, CRM), umiddelbart under indeksering kan du spesifisere en ordbok for å utføre et morfologisk søk, og alle filattributter kan indekseres. Etter å ha opprettet indeksen, når du prøver å utføre det første testsøket etter dokumenter, kan du bli litt forvirret: "det er to typer søk her, men hvilken trenger jeg?" Som nevnt tidligere, det viktigste er å lese hjelpen, så vil alt bli klart. Programmet kan faktisk utføre to typer søk - frasesøk og søk etter dokumenter som i innhold ligner søketeksten.

    En beskrivelse av alle hovedfunksjonene for å analysere et søk ble gitt ovenfor, så nå vil vi bare vise søkemulighetene som tilbys av dette programmet. La oss starte med setningssøk: selvfølgelig, morfologisk søk, sitatsøk, logiske operasjoner, søk med ordanalyse (søk i begynnelsen av ordet, på slutten, i midtdelen eller et fullstendig samsvar), blandet siteringssøk ( når alle ord fra spørringen må være tilstede i dokumentet, men ikke nødvendigvis i den angitte rekkefølgen), søk med feilretting, bruk av synonymer, «nesten sitatsøk» (søk på den angitte setningen som sitering, men andre ord kan evt. være tilstede mellom de angitte ordene), etc. Noen av alternativene som er oppført har sine egne spesifikke innstillinger. I tillegg er det mulig å bruke en ordbok med uviktige ord, og programmet har allerede en ferdig liste over disse ordene, du kan også bruke en ordbok med prioriterte ord for å søke (selvfølgelig må du fylle den ut deg selv).

    Her har vi i prinsippet kort gjennomgått alle hovedtrekkene ved setningssøk.

    La oss gå videre til å vurdere funksjonene til dette programmet - søk etter lignende dokumenter. Utviklerne hevder at dette på ingen måte er et enkelt tekstsøk, det er nettopp et "søk etter lignende" - det er akkurat slik det beskrives overalt, men jammen, du kan kalle det hva du vil - hovedpoenget er . Et raskt søk på Internett kan raskt avsløre at såkalt «liknende søk» er en nyutvikling innen tekstanalyse. Dette systemet lar deg finne tekster som ligner på semantisk innhold. Det hyggeligste var at etter å ha gjennomført testsøk, viste det seg at teorien stemmer ganske bra med praksis! Programmet søker faktisk etter dokumenter med lignende innhold og viser dem i en liste, og sorterer dem etter prosentandel av likhet.

    La oss deretter se på hva SearchInform (spesielt bedriftsversjonen SearchInform Corporate) tilbyr for å jobbe på et bedriftsnettverk. Det er to typer applikasjoner: serverside og brukerside. Serverdelen behandler uavhengig de angitte indeksene, og brukere kan bruke dem til søk, avhengig av tilgangsrettighetene som er tildelt dem. Brukere kan konfigureres automatisk ved hjelp av Kontoer Windows (i profesjonelle termer, SearchInform bruker NTFS Windows-autentisering), og manuelt (brukere må legges til separat). Hver bruker kan tillates eller nektes tilgang til visse indekser, og brukere kan også kombineres i grupper. Generelt er SearchInforms innstillinger for arbeid på nettverket foran Google når det gjelder fleksibilitet, og Ishhound Server når det gjelder bekvemmelighet og enkelhet.

    Offisiell side:
    Distribusjonsstørrelse: 14,7 Mb Sammenligning av indekseringshastigheter

    SøkesystemIndekseringstidIndeksstørrelse
    Bloodhound Prof Deluxe 4.538 timer 46 minutter19 GB
    Isys Desktop 7.06 timer 13 minutter7,9 GB
    DtSearch 7.06 timer 3 minutter8,6 GB
    Google Desktop Search Enterprise8 timer 17 minutter4,5 GB
    Copernic Desktop Search *10 timer 51 minutter7 GB
    SearchInform 1.5.023 timer 17 minutter4,4 GB

    * De fleste av documents.html og .txt som inneholder russisk tekst, var, selv om de var indeksert, umulige å finne unntatt ved navn

    Alle programmer er verdt oppmerksomhet.

    Basert på tester og en nøye undersøkelse av hvert program presentert i gjennomgangen, kan visse konklusjoner trekkes. Så, Google Desktop Search Copernic Desktop Search er ganske egnet for den uerfarne brukeren som et hjemmeinformasjonssøkesystem. De takler enkle spørsmål godt, overbelaster ikke brukeren med innstillinger og er dessuten helt gratis. Googles forsøk på å komme inn på bedriftens søkemotormarked er ennå ikke særlig berettiget: for fullverdig arbeid programmet må lastes med tilleggsmoduler, og det er langt fra enkelt å sette opp. Derfor reserverer de selvforklarende navnene Desktop Search, Copernic og Google bak seg nisjen med "desktop" søkemotorer.

    Riktignok kraftigere løsninger - dtSearch, iSYS og SearchInform er heller ikke idiotsikre og tilbyr brukerne deres "desktop"-versjoner. Men til en rimelig pris, i motsetning til gratis programvare fra Google og Copernic. Du må selvfølgelig betale for kraft, hastighet og funksjonalitet. Men hovedfokuset til utviklerne av dtSearch, iSYS og SearchInform er selvfølgelig på bedriftssektoren. Nettverk, funksjonalitet, indeksering og søkehastighet er det som skiller disse produktene fra deres "konkurrenter". Basert på testresultatene ble favoritten identifisert - SearchInform. Programmet gir muligheten til å søke etter lignende dokumenter, har den høyeste hastigheten på indeksering og søk, har bra sett funksjoner.

    Alexey Kutovenko

    Profesjonelt Internett-søk

    Introduksjon

    Internett-søk er en viktig del av arbeidet på Internett. Det er usannsynlig at noen med sikkerhet vet det nøyaktige antallet nettressurser på det moderne Internett. Uansett er tellingen i milliardklassen. For å kunne bruke informasjonen som trengs på et gitt øyeblikk, uansett for jobb- eller underholdningsformål, må du først finne den i dette stadig etterfylte havet av ressurser. Dette er ikke en lett oppgave i det hele tatt, siden informasjon på det moderne Internett ikke er strukturert, noe som skaper problemer med å finne den. Det er ingen tilfeldighet at søkemotorer på Internett har blitt unike "vinduer" i dette informasjonsrommet.

    Det er usannsynlig at blant Internett-brukere vil det være personer som aldri har brukt store universelle søkemotorer. Navnene Google, Yandex og et par andre store maskiner er på alles lepper. De takler bemerkelsesverdig godt hverdagslige søkeoppgaver på Internett, og ofte prøver brukere ikke engang å se etter en erstatning. Samtidig utgjør antallet internettsøkemotorer i vår tid tusenvis. Årsakene til en slik variasjon av alternative maskiner har forskjellige røtter. Noen prosjekter prøver å konkurrere direkte med globale markedsledere gjennom nøye arbeid med nasjonale Internett-ressurser. Andre tilbyr søkefunksjoner som ikke er tilgjengelige fra kjente søkemotorer. Et betydelig antall alternative motorer spesialiserer seg på å søke etter et bestemt emneområde eller en bestemt type innhold, og oppnår imponerende resultater i å løse disse problemene. Uansett, inkludering av slike søkemotorer i en brukers eget arsenal av Internett-søkeverktøy kan forbedre kvaliteten betydelig. Det er imidlertid en nyanse her: du trenger å vite om slike maskiner og kunne bruke deres evner.

    Vi antar at leserne av denne boken allerede er ganske kjent med søketeknikker ved bruk av universelle søkemotorer. Det var så bra at de følte begrensningene knyttet til bruken. Mest sannsynlig har slike mennesker allerede prøvd å se etter og bruke visse tilleggsverktøy. Det trykte ordet ignorerer ikke temaet Internett-søk: artikler vises med jevne mellomrom og bøker publiseres. Men deres helter er som regel de samme - flere ledende universelle søkemotorer. Det som gjør denne boken annerledes er at den forsøker å dekke hele spekteret av moderne søkeløsninger. Her finner du beskrivelser og anbefalinger for bruk av de beste moderne tjenester orientert mot å løse de vanligste søkeproblemene. Denne boken er for folk som jobber mye på internett og bruker nettverket for å finne informasjonen de trenger - det være seg forretning, studie eller hobby.

    For at et Internett-søk skal lykkes, må to betingelser være oppfylt: Spørsmål må være godt formulert og de må stilles på passende steder. Det kreves med andre ord at brukeren på den ene siden skal kunne oversette sine søkeinteresser til søkespråket, og på den andre siden god kjennskap til søkemotorer, tilgjengelige søkeverktøy, deres fordeler og ulemper, som vil tillate ham å velge de mest passende søkeverktøyene i hvert enkelt tilfelle .

    Foreløpig er det ingen enkelt ressurs som tilfredsstiller alle krav til Internett-søk. Derfor, hvis du tar søket ditt på alvor, må du uunngåelig bruke forskjellige verktøy, og bruke hvert i det mest passende tilfellet.

    Det er mange søkeverktøy tilgjengelig. De kan kombineres i flere grupper, som hver har visse fordeler og ulemper. Kapitlene i boken vår er viet hovedgruppene av moderne Internett-søkemotorer.

    Kapittel 1, "Universelle Internett-søkemotorer," er viet til store universelle systemer for å hente informasjon på nettet. Hovedfokuset er på deres mest avanserte instrumenter, som vanligvis faller under radaren til allmennheten. En gjennomgang av egenskapene til kjente maskiner gir oss et slags utgangspunkt og lar oss tydelig forestille oss anvendelsesområdet for alternative søkeløsninger.

    Kapittel 2, "Vertikalt søk," snakker om systemer som spesialiserer seg på spesifikke emneområder eller spesifikke typer innhold.

    Kapittel 3, "Metasearch," undersøker metasøkemotorer som kan sende en spørring samtidig til flere Internett-søkemotorer, og deretter samle og behandle resultatene i ett enkelt grensesnitt.

    Kapittel 4, "Semantiske og visuelle Internett-søkemotorer," er en oversikt over eksperimentelle systemer som tilbyr originale brukergrensesnitt, samt interessante tilnærminger til spørringsbehandling.

    Kapittel 5, "Anbefalingsmaskiner," introduserer nylig nye søketjenester, på engelsk passende kalt «Discovery Engines», det vil si «discovery machines». Med deres hjelp kan du behandle en rekke søk som er for vanskelige for andre typer Internett-søkemotorer.

    Hvis ingen ferdige produkter passer deg, kan du lage din egen internettsøkemotor. Kapittel 6, "Personlige søkemotorer," er viet til å lage slike personlige maskiner.

    Flere kapitler i boken vår er viet søk forskjellige typer nettverksinnhold. Kapittel 7, "Bildehenting," introduserer gjeldende trender innen bildehenting på Internett, så vel som mulighetene til relaterte eksperimentelle systemer. Kapittel 8, "Videosøk," gir en oversikt over videosøkeverktøyene til de ledende universelle søkemotorene på Internett, samt de beste spesialiserte systemene på dette området.

    Kapittel 9, "Finne "skjult" innhold," er en oversikt over systemer som lar deg søke etter innhold som "ikke blir sett" av universelle søkemotorer. Slikt "skjult" innhold inkluderer for eksempel torrenter eller filer som ligger på FTP-servere og filhostingssider.

    Kapittel 10, "Search for Web 3.0," introduserer Internett-søkeverktøy for data i Semantic Web-formater.

    Søket ender ikke med bare å motta resultater fra en eller annen søkemotor. Det siste kapittelet i boken vår, kapittel 11, «Hjelpeprogrammer», er viet verktøy for å behandle og lagre resultater.

    Før du starter en historie om spesifikke produkter, er det fornuftig å forstå klassifiseringen moderne virkemidler Internett-søk, samt definere begrepene som stadig vises på sidene i boken vår.

    De viktigste søkeverktøyene på Internett kan deles inn i følgende hovedgrupper:

    Søkemotorer;

    Web-kataloger;

    hjelperessurser;

    Lokale programmer for å søke på Internett.

    De mest populære søkeverktøyene er søkemotorer – de såkalte Internett-søkemotorene (Search Engines). De tre beste lederne på global skala er ganske stabile - Google, Yahoo! og Bing. I mange land er deres egne lokale søkemotorer, optimert for arbeid med lokalt innhold, lagt til denne listen. Med deres hjelp kan du teoretisk finne et bestemt ord på sidene til mange millioner nettsteder.

    Til tross for mange forskjeller, opererer alle Internett-søkemotorer etter lignende prinsipper, og fra et teknisk synspunkt består de av lignende delsystemer.

    Den første strukturelle delen av en søkemotor er spesialprogrammer som brukes for automatisk søk ​​og påfølgende indeksering av nettsider. Slike programmer kalles vanligvis edderkopper, eller roboter. De ser på koden til nettsider, finner lenker på dem, og oppdager dermed nye nettsider. Det er en alternativ måte å inkludere et nettsted i indeksen. Mange søkemotorer tilbyr ressurseiere muligheten til å selvstendig legge til et nettsted i databasen deres. Imidlertid blir nettsidene deretter lastet ned, analysert og indeksert. De fremhever strukturelle elementer, finner nøkkelord og bestemmer deres forbindelser med andre nettsteder og nettsider. Andre operasjoner utføres også, resultatet av disse er dannelsen av en søkemotorindeksdatabase. Denne databasen er det andre hovedelementet i enhver søkemotor. Foreløpig er det ingen enkelt fullstendig indeksdatabase som vil inneholde informasjon om alt Internett-innhold. Siden forskjellige søkemotorer bruker forskjellige nettsidesøkeprogrammer og bygger indeksen ved hjelp av forskjellige algoritmer, kan søkemotorindeksdatabaser variere betydelig. Noen nettsteder er indeksert av flere søkemotorer, men det er alltid en viss prosentandel av ressursene inkludert i databasen til kun én søkemotor. Tilstedeværelsen av en slik original og ikke-overlappende del av indeksen i hver søkemotor lar oss trekke en viktig praktisk konklusjon: hvis du bare bruker én søkemotor, til og med den største, vil du definitivt miste en viss prosentandel av nyttige lenker .

    Profesjonelt Internett-søk krever spesialisert programvare, samt spesialiserte søkemotorer og søketjenester.

    PROGRAMMER

    http://dr-watson.wix.com/home – programmet er utviklet for å studere rekker av tekstinformasjon for å identifisere enheter og forbindelser mellom dem. Resultatet av arbeidet er en rapport om objektet som studeres.

    http://www.fmsasg.com/ - et av de beste programmene i verden for å visualisere forbindelser og relasjoner Sentinel Vizualizer. Selskapet har fullstendig russifisert produktene sine og koblet til en hotline på russisk.

    http://www.newprosoft.com/ – “Web Content Extractor” er den kraftigste og mest brukervennlige programvaren for å trekke ut data fra nettsider. Den har også en effektiv Visual Web-edderkopp.

    SiteSputnik har ingen analoger i verden Software pakke, slik at du kan søke og behandle resultatene på det synlige og usynlige Internett, ved å bruke alle søkemotorene som er nødvendige for brukeren.

    WebSite-Watcher – lar deg overvåke nettsider, inkludert passordbeskyttede, overvåkingsfora, RSS-feeds, nyhetsgrupper, lokale filer. Har kraftig system filtre. Overvåking utføres automatisk og leveres i en brukervennlig form. Et program med avanserte funksjoner koster 50 euro. Stadig oppdatert.

    http://www.scribd.com/ er den mest populære plattformen i verden og brukes i økende grad i Russland for å legge ut ulike typer dokumenter, bøker osv. for gratis tilgang med en veldig praktisk søkemotor for titler, emner osv.

    http://www.atlasti.com/ er det kraftigste og mest effektive verktøyet for kvalitativ informasjonsanalyse tilgjengelig for individuelle brukere, små og til og med mellomstore bedrifter. Programmet er multifunksjonelt og derfor nyttig. Den kombinerer muligheten til å skape et enhetlig informasjonsmiljø for arbeid med ulike tekst-, tabell-, lyd- og videofiler som en helhet, samt verktøy for kvalitativ analyse og visualisering.

    Ashampoo ClipFinder HD – en stadig større del av informasjonsflyten kommer fra video. Følgelig trenger konkurransedyktige etterretningsoffiserer verktøy som lar dem jobbe med dette formatet. Et slikt produkt er gratisverktøyet vi presenterer. Den lar deg søke etter videoer basert på spesifiserte kriterier på videofillagringssider som YouTube. Programmet er enkelt å bruke, viser alle søkeresultater på én side med detaljert informasjon, titler, varighet, tidspunkt for når videoen ble lastet opp til lagringen, etc. Det er et russisk grensesnitt.

    http://www.advego.ru/plagiatus/ – programmet ble laget av SEO-optimalisatorer, men er ganske egnet som et Internett-intelligensverktøy. Plagiat viser graden av unikhet til teksten, kildene til teksten og prosentandelen av tekstmatch. Programmet sjekker også unikheten til den angitte URL-en. Programmet er gratis.

    http://neiron.ru/toolbar/ – inkluderer et tillegg for å kombinere Google søk og Yandex, og tillater også konkurranseanalyse basert på vurdering av effektiviteten til nettsteder og kontekstuell annonsering. Implementert som en plugin for FF og GC.

    http://web-data-extractor.net/ er en universell løsning for å skaffe data tilgjengelig på Internett. Oppsett av dataskjæring fra hvilken som helst side gjøres med noen få museklikk. Du trenger bare å velge dataområdet du vil lagre, og Datacol vil automatisk velge en formel for å kutte ut denne blokken.

    CaptureSaver er et profesjonelt Internett-forskningsverktøy. Rett og slett uerstattelig arbeidsprogram, slik at du kan fange opp, lagre og eksportere all Internett-informasjon, inkludert ikke bare nettsider, blogger, men også RSS-nyheter, e-post, bilder og mye mer. Den har den bredeste funksjonaliteten, et intuitivt grensesnitt og en latterlig pris.

    http://www.orbiscope.net/en/software.html – nettovervåkingssystem til mer enn rimelige priser.

    http://www.kbcrawl.co.uk/ – programvare for arbeid, inkludert på "Invisible Internet".

    http://www.copernic.com/en/products/agent/index.html – programmet lar deg søke ved hjelp av mer enn 90 søkemotorer, med mer enn 10 parametere. Lar deg kombinere resultater, eliminere duplikater, blokkere ødelagte koblinger og vise de mest relevante resultatene. Kommer i gratis, personlige og profesjonelle versjoner. Brukt av mer enn 20 millioner brukere.

    Maltego er en fundamentalt ny programvare som lar deg etablere forholdet mellom emner, hendelser og objekter i det virkelige liv og på Internett.

    TJENESTER

    ny – nettleser med dusinvis av forhåndsinstallerte verktøy for OSINT.

    – en effektiv søkemotoraggregator for å finne folk på hovedrussisk i sosiale nettverk.

    https://hunter.io/ er en effektiv tjeneste for å oppdage og sjekke e-post.

    https://www.whatruns.com/ er en enkel å bruke, men effektiv skanner for å finne ut hva som fungerer og ikke fungerer på et nettsted og hva sikkerhetshullene er. Også implementert som en plugin for Chrom.

    https://www.crayon.co/ er en amerikansk budsjettplattform for markeds- og konkurranseinformasjon på Internett.

    http://www.cs.cornell.edu/~bwong/octant/ – vertsidentifikator.

    https://iplogger.ru/ – en enkel og praktisk tjeneste for å bestemme andres IP.

    http://linkurio.us/ er et kraftig nytt produkt for arbeidere med økonomisk sikkerhet og korrupsjonsetterforskere. Behandler og visualiserer enorme mengder ustrukturert informasjon fra økonomiske kilder.

    http://www.intelsuite.com/en – engelskspråklig nettplattform for konkurransedyktig intelligens og overvåking.

    http://yewno.com/about/ er det første operativsystemet for å oversette informasjon til kunnskap og visualisere ustrukturert informasjon. Støtter for øyeblikket engelsk, fransk, tysk, spansk og portugisisk.

    https://start.avalancheonline.ru/landing/?next=%2F – prognose- og analysetjenester av Andrey Masalovich.

    https://www.outwit.com/products/hub/ – et komplett sett med frittstående programmer for profesjonelt arbeid i web 1.

    https://github.com/search?q=user%3Acmlh+maltego – utvidelser for Maltego.

    http://www.whoishostingthis.com/ – søkemotor for hosting, IP-adresser, etc.

    http://appfollow.ru/ – analyse av applikasjoner basert på anmeldelser, ASO-optimalisering, plasseringer i topper og søkeresultater for App Store, Google Play og Windows Phone Store.

    http://spiraldb.com/ er en tjeneste implementert som en plugin for Chrom, som lar deg få mye verdifull informasjon om enhver elektronisk ressurs.

    https://millie.northernlight.com/dashboard.php?id=93 - gratis tjeneste, innsamling og strukturering av nøkkelinformasjon etter bransje og bedrift. Det er mulig å bruke informasjonspaneler basert på tekstanalyse.

    http://byratino.info/ – innsamling av faktadata fra offentlig tilgjengelige kilder på Internett.

    http://www.datafox.co/ – CI-plattformen samler inn og analyserer informasjon om selskaper av interesse for kunder. Det er en demo.

    https://unwiredlabs.com/home - en spesialisert applikasjon med en API for søk etter geolokalisering av enhver enhet som er koblet til Internett.

    http://visualping.io/ – en tjeneste for overvåking av nettsteder og først av alt fotografiene og bildene som er tilgjengelige på dem. Selv om bildet dukket opp et sekund, vil det være det e-post abonnent Har en plugin for Google Chrome.

    http://spyonweb.com/ er et forskningsverktøy som gjør det mulig å analysere alle Internett-ressurser i dybden.

    http://bigvisor.ru/ – tjenesten lar deg spore reklamekampanjer for visse segmenter av varer og tjenester, eller spesifikke organisasjoner.

    http://www.itsec.pro/2013/09/microsoft-word.html – instruksjoner for bruk av Artem Ageev Windows-programmer for konkurrerende etterretningsbehov.

    http://granoproject.org/ er et åpen kildekodeverktøy kildekode for forskere som sporer nettverk av forbindelser mellom enkeltpersoner og organisasjoner innen politikk, økonomi, kriminalitet osv. Lar deg koble til, analysere og visualisere informasjon hentet fra ulike kilder, samt vise betydelige sammenhenger.

    http://imgops.com/ – tjeneste for å trekke ut metadata fra grafiske filer og jobbe med dem.

    http://sergeybelove.ru/tools/one-button-scan/ – en liten nettskanner for å sjekke sikkerhetshull på nettsider og andre ressurser.

    http://isce-library.net/epi.aspx – tjeneste for søk i primærkilder ved å bruke et fragment av tekst på engelsk

    https://www.rivaliq.com/ er et effektivt verktøy for å utføre konkurrerende etterretning i vestlige, primært europeiske og amerikanske markeder for varer og tjenester.

    http://watchthatpage.com/ er en tjeneste som lar deg automatisk samle inn ny informasjon fra overvåkede Internett-ressurser. Tjenesten er gratis.

    http://falcon.io/ er en slags Rapportive for the Web. Det er ikke en erstatning for Rapportive, men gir tilleggsverktøy. I kontrast gir Rapportive en generell profil av en person, som om den er limt sammen fra data fra sosiale nettverk og omtaler på nettet http://watchthatpage.com/ - en tjeneste som lar deg automatisk samle inn ny informasjon fra overvåkede ressurser internettet. Tjenesten er gratis.

    https://addons.mozilla.org/ru/firefox/addon/update-scanner/ – tillegg for Firefox. Overvåker nettsideoppdateringer. Nyttig for nettsteder som ikke har nyhetsstrømmer (Atom eller RSS).

    http://agregator.pro/ – samler av nyhets- og medieportaler. Brukes av markedsførere, analytikere, etc. å analysere nyhetsstrømmer om bestemte emner.

    http://price.apishops.com/ – en automatisert webtjeneste for overvåking av priser for utvalgte produktgrupper, spesifikke nettbutikker og andre parametere.

    http://www.la0.ru/ er en praktisk og relevant tjeneste for å analysere lenker og tilbakekoblinger til en Internett-ressurs.

    www.recordedfuture.com er et kraftig verktøy for dataanalyse og visualisering, implementert som en nettbasert tjeneste bygget på cloud computing.

    http://advse.ru/ er en tjeneste med slagordet "Finn ut alt om konkurrentene dine." Lar deg få tak i konkurrenters nettsider i samsvar med søk og analysere konkurrenters annonsekampanjer i Google og Yandex.

    http://spyonweb.com/ – tjenesten lar deg identifisere nettsteder med de samme egenskapene, inkludert de som bruker samme Google Analytics-statistikktjenesteidentifikatorer, IP-adresser osv.

    http://www.connotate.com/solutions – en produktlinje for konkurransedyktig intelligens, styring av informasjonsflyt og konvertering av informasjon til informasjonsressurser. Det inkluderer både komplekse plattformer og enkle, billige tjenester som muliggjør effektiv overvåking sammen med informasjonskomprimering og kun oppnå de nødvendige resultatene.

    http://www.clearci.com/ - konkurransedyktig etterretningsplattform for virksomheter i ulike størrelser fra oppstartsbedrifter og små selskaper til Fortune 500-selskaper Løst som saas.

    http://startingpage.com/ er et Google-tillegg som lar deg søke på Google uten å registrere IP-adressen din. Støtter alle søkemotorer fullt ut Google-funksjoner, inkludert på russisk.

    http://newspapermap.com/ er en unik tjeneste som er svært nyttig for en konkurrerende etterretningsoffiser. Kobler geolokalisering med en nettbasert mediesøkemotor. De. du velger regionen du er interessert i, eller til og med en by eller et språk, se stedet på kartet og en liste over nettversjoner av aviser og magasiner, klikk på den aktuelle knappen og les. Støtter russisk språk, veldig brukervennlig grensesnitt.

    http://infostream.com.ua/ er et veldig praktisk nyhetsovervåkingssystem "Infostream", kjennetegnet ved et førsteklasses utvalg og ganske tilgjengelig for enhver lommebok, fra en av klassikerne innen internettsøk, D.V.

    http://www.instapaper.com/ er et veldig enkelt og effektivt verktøy for å lagre de nødvendige nettsidene. Kan brukes på datamaskiner, iPhones, iPads, etc.

    http://screen-scraper.com/ – lar deg automatisk trekke ut all informasjon fra nettsider, laste ned de aller fleste filformater og automatisk legge inn data i ulike former. Den lagrer nedlastede filer og sider i databaser og utfører mange andre ekstremt nyttige funksjoner. Fungerer på alle større plattformer, har fullt funksjonelle gratis og svært kraftige profesjonelle versjoner.

    http://www.mozenda.com/ - har flere tariffplaner og en webtjeneste for multifunksjonell nettovervåking og levering av nødvendig informasjon for brukeren fra utvalgte nettsteder, tilgjengelig selv for små bedrifter.

    http://www.recipdonor.com/ – tjenesten lar deg automatisk overvåke alt som skjer på konkurrentenes nettsider.

    http://www.spyfu.com/ – og dette er hvis konkurrentene dine er utenlandske.

    www.webground.su er en tjeneste laget av profesjonelle internettsøkere for å overvåke Runet, inkludert alle store leverandører av informasjon, nyheter osv., som er i stand til å individuelle innstillinger overvåking i henhold til brukerens behov.

    SØKEMOTORER

    https://www.idmarch.org/ er den beste søkemotoren for verdensarkivet av pdf-dokumenter når det gjelder kvalitet. For tiden er mer enn 18 millioner pdf-dokumenter indeksert, alt fra bøker til hemmelige rapporter.

    http://www.marketvisual.com/ er en unik søkemotor som lar deg søke etter eiere og toppledelse etter fullt navn, firmanavn, stilling eller en kombinasjon av disse. Søkeresultatene inneholder ikke bare objektene du leter etter, men også forbindelsene deres. Designet primært for engelsktalende land.

    http://worldc.am/ er en søkemotor for fritt tilgjengelige fotografier knyttet til geolokalisering.

    https://app.echosec.net/ er en offentlig tilgjengelig søkemotor som beskriver seg selv som det mest avanserte analytiske verktøyet for rettshåndhevelse og sikkerhets- og etterretningspersonell. Lar deg søke etter bilder lagt ut på ulike nettsteder, sosiale plattformer og sosiale nettverk i forhold til spesifikke geolokaliseringskoordinater. Det er for øyeblikket syv datakilder tilkoblet. Ved utgangen av året vil antallet være mer enn 450. Takk til Dementy for tipset.

    http://www.quandl.com/ er en søkemotor for syv millioner finansielle, økonomiske og sosiale databaser.

    http://bitzakaz.ru/ – søkemotor for anbud og offentlige bestillinger med ekstra betalte funksjoner

    Website-Finder – gjør det mulig å finne nettsteder som Google ikke indekserer godt. Den eneste begrensningen er at den bare søker på 30 nettsteder for hvert søkeord. Programmet er enkelt å bruke.

    http://www.dtsearch.com/ er en kraftig søkemotor som lar deg behandle terabyte med tekst. Fungerer på desktop, web og intranett. Støtter både statiske og dynamiske data. Lar deg søke i alle MS Office-programmer. Søket utføres ved hjelp av fraser, ord, tagger, indekser og mye mer. Den eneste tilgjengelig system føderert søk. Den har både betalte og gratisversjoner.

    http://www.strategator.com/ – søker, filtrerer og samler informasjon om selskapet fra titusenvis av nettkilder. Søk i USA, Storbritannia, store EEC-land. Det er svært relevant, brukervennlig og har gratis og betalte alternativer ($14 per måned).

    http://www.shodanhq.com/ – uvanlig søkemotor. Umiddelbart etter at han dukket opp, fikk han kallenavnet «Google for hackere». Den søker ikke etter sider, men bestemmer IP-adresser, typer rutere, datamaskiner, servere og arbeidsstasjoner på en bestemt adresse, og sporer kjeder DNS-servere og lar deg implementere mange andre interessante funksjoner for konkurransedyktig intelligens.

    http://search.usa.gov/ er en søkemotor for nettsteder og åpne databaser for alle amerikanske offentlige etater. Databasene inneholder mye praktisk, nyttig informasjon, blant annet til bruk i vårt land.

    http://visual.ly/ – i dag brukes visualisering i økende grad for å presentere data. Dette er den første infografiske søkemotoren på nettet. Sammen med søkemotoren har portalen kraftige datavisualiseringsverktøy som ikke krever programmeringskunnskaper.

    http://go.mail.ru/realtime – søk etter diskusjoner om emner, hendelser, objekter, emner i sanntid eller tid som kan tilpasses. Det tidligere sterkt kritiserte søket i Mail.ru fungerer veldig effektivt og gir interessante, relevante resultater.

    Zanran er nettopp lansert, men fungerer allerede utmerket, den første og eneste søkemotoren for data som henter den fra PDF-filer, EXCEL-tabeller, data på HTML-sider.

    http://www.ciradar.com/Competitive-Analysis.aspx er et av verdens beste systemer for informasjonsinnhenting for konkurransedyktig intelligens på deep web. Henter nesten alle typer filer i alle formater om emnet av interesse. Implementert som en webtjeneste. Prisene er mer enn rimelige.

    http://public.ru/ – Effektivt søk og profesjonell informasjonsanalyse, mediearkiv siden 1990. Nettmediebiblioteket tilbyr et bredt spekter av informasjonstjenester: fra tilgang til elektroniske arkiver av russiskspråklige mediepublikasjoner og ferdige tematiske presseanmeldelser til individuell overvåking og eksklusiv analytisk forskning basert på pressemateriale.

    Cluuz er en ung søkemotor med store muligheter for konkurransedyktig intelligens, spesielt på det engelskspråklige Internett. Lar deg ikke bare finne, men også visualisere og etablere forbindelser mellom personer, selskaper, domener, e-poster, adresser osv.

    www.wolframalpha.com – morgendagens søkemotor. Som svar på en søkeforespørsel gir den statistisk og faktainformasjon tilgjengelig om forespørselsobjektet, inkludert visualisert informasjon.

    www.ist-budget.ru – universelt søk i databaser for offentlige anskaffelser, anbud, auksjoner, etc.




Topp