Söker efter webbresurssäkerhet. Hur man skyddar en webbapplikation: grundläggande tips, verktyg, användbara länkar. Påstådd vetenskaplig nyhet

visade att mer än 70 % av skannade webbplatser var infekterade med en eller flera sårbarheter.

Hur säkerställer du som webbapplikationsägare att din webbplats är skyddad från onlinehot? Eller från läckage av konfidentiell information?

Om du använder en molnbaserad säkerhetslösning är regelbunden sårbarhetssökning troligen en del av din säkerhetsplan.

Men om inte, måste du utföra en rutinskanning och vidta åtgärder nödvändiga åtgärder för att minska riskerna.

Det finns två typer av skanner.

1.Commercial - ger dig möjligheten att automatisera skanning för kontinuerlig säkerhet, rapportering, varningar, detaljerade instruktioner om riskreducering etc. Några av de kända namnen i denna bransch är:

Acunetix
Upptäcka
Qualys

Öppen källkod/gratis - Du kan ladda ner och köra säkerhetskontroller på begäran.

Inte alla kommer att kunna täcka ett brett spektrum av sårbarheter som den kommersiella.

Låt oss ta en titt på följande sårbarhetsskannrar med öppen källkod.

1. Arachni

Arachni är en högpresterande säkerhetsskanner byggd ovanpå Ruby för moderna webbapplikationer.

Den finns tillgänglig i binärt format för Mac, Windows och Linux.

Det är inte bara en lösning för en grundläggande statisk eller CMS-webbplats, utan Arachni kan också integreras med följande plattformar.

Den utför aktiva och passiva kontroller.

Windows, Solaris, Linux, BSD, Unix
Nginx, Apache, Tomcat, IIS, Jetty
Java, Ruby, Python, ASP, PHP
Django, Rails, CherryPy, CakePHP, ASP.NET MVC, Symfony

Några av de upptäckta sårbarheterna:

NoSQL / Blind / SQL / Code / LDAP / Command / XPath-injektion
Begär förfalskning på flera webbplatser
Förbifartsväg
Inklusive lokal/fjärrfil
Dela upp svaret
Skripting på flera webbplatser
Odefinierade DOM-omdirigeringar
Avslöjande källkod

2. XssPy

Den pythonbaserade XSS (Cross Site Scripting) sårbarhetsskannern används av många organisationer inklusive Microsoft, Stanford, Motorola, Informatica, etc.

XssPy av Faizan Ahmad är ett smart verktyg. Istället för att bara kolla hemsidan eller sidan kontrollerar den hela länken på webbplatserna.

XssPy kontrollerar också underdomänen.

3. w3af

w3af, ett projekt med öppen källkod som startade i slutet av 2006, är baserat på Python och är tillgängligt för Linux och Windows OS. w3af kan upptäcka mer än 200 sårbarheter, inklusive OWASP topp 10.

Den stöder olika loggningsmetoder för rapportering. Exempel:

CSV
HTML
Trösta
Text
XML
E-post adress

Den är byggd på en plugin-arkitektur och du kan kolla in alla tillgängliga plugins.

4. Nikto

Ett projekt med öppen källkod sponsrat av Netsparker, syftar till att hitta felkonfigurationer av webbservern, plugins och sårbarheter på Internet.

5. Wfuzz

Wfuzz (Web Fuzzer) är ett applikationsutvärderingsverktyg för penetrationstestning.

Du kan stubba in data i HTTP-förfrågan för vilket fält som helst för att använda webbapplikationen och validera den.

Wfuzz kräver Python på den dator du vill köra skanningen på.

6. OWASP ZAP

ZAP (Zet Attack Proxy) är ett av de berömda penetrationstestverktygen som aktivt uppdateras av hundratals volontärer runt om i världen.

Det är ett plattformsoberoende Java-verktyg som till och med kan köras på Raspberry Pi.

ZIP sitter mellan webbläsaren och webbapplikationen för att fånga upp och verifiera meddelanden.

Några av följande ZAP-funktioner är värda att nämna.

Fuzzer
Automatisk och passiv skanner
Stöder flera skriptspråk
Tvångsvy

7. Wapiti

Wapiti genomsöker webbsidorna för ett visst mål och letar efter skript och datainmatningsformulär för att se om det är sårbart.

Detta är inte en säkerhetskontroll av källkoden, utan snarare en svart låda.

Den stöder GET och POST HTTP-metoder, HTTP- och HTTPS-proxyer, flera autentiseringar, etc.

8. Vega

Vega är utvecklad av Subgraph, en multiplattformsprogramvara skriven i Java för att hitta XSS, SQLi, RFI och många andra sårbarheter.

Vega blev bekväm GUI och kan utföra automatisk skanning genom att logga in i programmet med givna referenser.

Om du är en utvecklare kan du använda vega API för att skapa nya attackmoduler.

9. SQLmap

Som du kan gissa från namnet, med det kan du utföra penetrationstestning på en databas för att hitta brister.

Det fungerar med Python 2.6 eller 2.7 på alla operativsystem. Om du vill, kommer sqlmap att vara mer användbar än någonsin.

10. Grabbare

Detta lilla Python-baserade verktyg gör några saker ganska bra.

Några av funktionerna i Grabber:

JavaScript källkodsanalysator
Cross-site scripting, SQL-injektion, blind SQL-injektion
Testa PHP-applikationer med PHP-SAT

11. Golismero

Ett ramverk för att hantera och köra några populära säkerhetsverktyg som Wfuzz, DNS recon, sqlmap, OpenVas, robotanalysator, etc.).

Golismero kan konsolidera recensioner från andra verktyg och visa ett resultat.

12. OWASP Xenotix XSS

Xenotix XSS OWASP är ett avancerat ramverk för att söka och utnyttja cross-site scripting.

Den har inbyggda tre smarta fixeringsenheter för snabb skanning och förbättrade resultat.

13. Metascan

Skanner för att söka efter sårbarheter i webbapplikationer från inhemska utvecklare

Kategori: .
Författare: Maksadkhan Yakubov, Bogdan Shklyarevsky.

Den här artikeln diskuterar problemen med att administrera webbresurser, samt metoder, metoder och rekommendationer för säker administration och skydd mot hacking och cyberattacker.

Det första steget i att designa, skapa eller driva en säker webbplats är att se till att servern som är värd för den är så säker som möjligt.

Huvudkomponenten i en webbserver är operativsystemet. Att säkerställa dess säkerhet är relativt enkelt: installera det i tid Senaste uppdateringarna säkerhetssystem.

Det är värt att komma ihåg att hackare också tenderar att automatisera sina attacker genom att använda skadlig programvara som går igenom den ena servern efter den andra och letar efter en server där uppdateringen är inaktuell eller inte har installerats. Därför rekommenderas det att se till att uppdateringar installeras snabbt och korrekt; Alla servrar som har föråldrade versioner av uppdateringar installerade kan bli föremål för attack.

Du bör också uppdatera all programvara som körs på webbservern i tid. Någon mjukvara som inte är relaterad till nödvändiga komponenter(till exempel en DNS-server eller fjärradministrationsverktyg som VNC eller Remote Desktop Services) ska inaktiveras eller tas bort. Om verktyg för fjärradministration krävs, var försiktig så att du inte använder standardlösenord eller lösenord som lätt kan gissas. Den här anmärkningen gäller inte bara för fjärradministrationsverktyg utan också för användarkonton, routrar och switchar.

Nästa viktig poängär ett antivirusprogram. Dess användning är ett obligatoriskt krav för alla webbresurser, oavsett om den används som en Windows- eller Unix-plattform. I kombination med en flexibel brandvägg blir antivirusprogram en av de mest effektiva sätt skydd mot cyberattacker. När en webbserver blir målet för en attack försöker angriparen omedelbart ladda ner hackverktyg eller skadlig programvara för att utnyttja säkerhetsbrister. I avsaknad av högkvalitativt antivirusprogram kan en säkerhetsrisk förbli oupptäckt under lång tid och leda till oönskade konsekvenser.

Mest det bästa alternativet När man skyddar informationsresurser finns det ett tillvägagångssätt på flera nivåer. På framsidan finns brandväggen och operativsystemet; antiviruset bakom dem är redo att fylla alla luckor som uppstår.

Baserat på parametrar operativ system och webbserverfunktionalitet kan följande allmänna tekniker för att skydda mot cyberattacker nämnas:

  • Installera inte onödiga komponenter. Varje komponent bär med sig ett separat hot; ju fler det finns, desto högre är den totala risken.
  • Håll ditt operativsystem och dina applikationer uppdaterade med säkerhetsuppdateringar.
  • Använd antivirus, slå på det automatisk installation uppdateringar och kontrollera regelbundet att de är korrekt installerade.

Vissa av dessa uppgifter kan verka svåra, men kom ihåg att det bara krävs ett enda säkerhetshål för att attackera. Potentiella risker i detta fall inkluderar stöld av data och trafik, svartlistning av serverns IP-adress, skada på organisationens rykte och instabilitet på webbplatsen.

Beroende på graden av kritik av sårbarheter finns det i regel 5 nivåer som bestämmer tillståndet för sårbarheten. det här ögonblicket det finns en webbresurs (tabell 1). Vanligtvis försöker angripare, baserat på sina mål och kvalifikationer, få fotfäste på den hackade resursen och dölja sin närvaro.

Ett sajthack kan inte alltid kännas igen av externa tecken (mobil omdirigering, skräppostlänkar på sidor, andras banners, försämring, etc.). Om webbplatsen äventyras kanske dessa yttre tecken inte finns. Resursen kan fungera normalt, utan avbrott, fel eller inkluderas i antivirussvarta listor. Men det betyder inte att sidan är säker. Problemet är att det är svårt att lägga märke till faktumet att hacka och ladda ner hackerskript utan att göra en säkerhetsgranskning, och själva webbskalen, bakdörrarna och andra hackerverktyg kan ligga kvar på webbhotellet under ganska lång tid och inte användas för deras avsedda ändamål. Men en dag kommer ett ögonblick när de börjar bli allvarligt utnyttjade av en angripare, vilket resulterar i problem för webbplatsägaren. För spam eller postning av nätfiskesidor blockeras webbplatsen på webbhotellet (eller en del av funktionaliteten är inaktiverad), och uppkomsten av omdirigeringar eller virus på sidorna är fylld med ett förbud mot antivirus och sanktioner från sökmotorer. I ett sådant fall är det nödvändigt att omedelbart "behandla" webbplatsen och sedan installera skydd mot hacking så att handlingen inte upprepar sig. Ofta känner standard antivirus inte igen vissa typer av trojaner och webbskal, orsaken till detta kan vara otidiga uppdateringar eller föråldrad programvara. När du kontrollerar en webbresurs för virus och skript bör du använda antivirusprogram av olika specialiseringar, i det här fallet kan en trojan som inte hittas av ett antivirusprogram upptäckas av ett annat. Figur 1 visar ett exempel på en skanningsrapport för antivirusprogram, och det är viktigt att notera att andra antivirusprogram inte kunde upptäcka skadlig programvara.

Trojaner som "PHP/Phishing.Agent.B", "Linux/Roopre.E.Gen", "PHP/Kryptik.AE" används av angripare för att fjärrkontroll dator. Sådana program kommer ofta in på en webbplats genom e-post, gratis programvara, andra webbplatser eller chattrum. För det mesta fungerar ett sådant program som en användbar fil. Det är dock en skadlig trojan som samlar in användarnas personliga information och överför den till angripare. Dessutom kan den automatiskt ansluta till vissa webbplatser och ladda ner andra typer av skadlig programvara till systemet. För att undvika upptäckt och borttagning kan "Linux/Roopre.E.Gen" inaktivera säkerhetsfunktioner. Detta trojanska program är utvecklat med hjälp av rootkit-teknik, vilket gör att det kan gömma sig inuti systemet.

  • "PHP/WebShell.NCL" är ett trojansk hästprogram som kan utföra olika funktioner, som att ta bort systemfiler, läser in skadlig programvara, dölj befintliga komponenter eller nedladdad personlig information och annan data. Detta program kan kringgå allmän antivirusskanning och komma in i systemet utan användarens vetskap. Det här programmet kan installera en bakdörr för fjärranvändare att ta kontroll över en infekterad webbplats. Med detta program kan en angripare spionera på en användare, hantera filer, installera ytterligare programvara och kontrollera hela systemet.
  • "JS/TrojanDownloader.FakejQuery. A" - ett trojanskt program, vars huvudmål är webbplatser som utvecklats med CMS "WordPress" och "Joomla". När en angripare hackar en webbplats kör de ett skript som simulerar installationen av WordPress eller Joomla plugins och sedan injicerar skadlig JavaScript-kod i filen header.php.
  • "PHP/small.NBK" - är en skadlig applikation som tillåter hackare att få fjärråtkomst till datorsystem, så att de kan ändra filer, stjäla personlig information och installera mer skadlig programvara. Dessa typer av hot, som kallas trojanska hästar, laddas vanligtvis ner av en angripare eller laddas ner av ett annat program. De kan också dyka upp på grund av installation av infekterade applikationer eller onlinespel, såväl som när du besöker infekterade webbplatser.

Tyvärr upptäcks inte hackerskript av externa tecken eller av externa skannrar. Därför kommer varken antivirusprogram för sökmotorer eller antivirusprogram installerade på webbansvarigas dator att rapportera säkerhetsproblem på webbplatsen. Om skript finns någonstans i webbplatsens systemkataloger (inte i roten eller bilderna) eller injiceras i befintliga skript, kommer de inte heller att märkas av misstag.

Figur 1. Exempel på en skanningsrapport för antivirusprogram

Därför kan följande rekommendationer vara nödvändiga åtgärder för att skydda webbresurser:

  1. Regelbunden säkerhetskopiering allt innehåll filsystem, databaser och händelseloggar (loggfiler).
  2. Regelbundet uppdatera innehållshanteringssystemet till den senaste stabila versionen av CMS (content management system).
  3. Använda komplexa lösenord. Lösenordskrav: Lösenordet måste innehålla minst åtta tecken, och versaler och gemener, samt specialtecken, måste användas när lösenordet skapas.
  4. Det är obligatoriskt att använda säkerhetstillägg eller plugins för att förhindra attacker som XSS-attack eller SQL-injektion.
  5. Användning och installation av tillägg (plugins, mallar eller tillägg) bör endast göras från pålitliga källor eller officiella utvecklarwebbplatser.
  6. Skanna filsystemet minst en gång i veckan med antivirusprogram och använda uppdaterade databassignaturer.
  7. Se till att CAPTCHA-mekanismen används för att skydda webbplatsen från hackning med brute-force-lösenord under auktorisering och inmatning av data i valfritt förfrågningsformulär (formulär respons, sök, etc.).
  8. Begränsa möjligheten att komma in administrativ panel webbplatskontroll efter ett visst antal misslyckade försök.
  9. Konfigurera webbplatsens säkerhetspolicy korrekt genom webbserverns konfigurationsfil, med hänsyn till parametrar som:
  • begränsa antalet IP-adresser som används av administratören för att komma åt den administrativa kontrollpanelen på webbplatsen för att förhindra åtkomst till den från obehöriga IP-adresser;
  • förhindra att taggar överförs på något annat sätt än textformatering (t.ex. p b i u) för att förhindra XSS-attacker.
  1. Flytta filer som innehåller information om databasåtkomst, FTP-åtkomst, etc. från standardkataloger till andra och sedan byta namn på dessa filer.

Även för en mindre erfaren hackare är det ganska lätt att hacka en Joomla-webbplats om du inte tillhandahåller skydd. Men tyvärr skjuter webbansvariga ofta upp att skydda sin webbplats från att hacka till senare, eftersom de anser att det är en icke väsentlig fråga. Att återställa åtkomsten till din webbplats kommer att ta mycket mer tid och ansträngning än att vidta åtgärder för att skydda den. Säkerheten för en webbresurs är inte bara en uppgift för utvecklaren och hostaren, som är skyldig att säkerställa maximal säkerhet för servrarna, utan också för webbplatsadministratören.

Introduktion

I modern verksamhet Webbteknik har vunnit enorm popularitet. De flesta webbplatser stora företagär en uppsättning applikationer som har interaktivitet, personaliseringsverktyg och sätt att interagera med kunder (onlinebutiker, fjärrkontroll banktjänster), och ofta - sätt att integrera med företagets interna företagsapplikationer.

Men när en webbplats väl blir tillgänglig på Internet blir den ett mål för cyberattacker. Mest på ett enkelt sätt attacker på en webbplats idag är att utnyttja sårbarheten hos dess komponenter. Och huvudproblemet är att sårbarheter har blivit ganska vanliga på moderna webbplatser.

Sårbarheter är ett överhängande och växande hot. De är till största delen resultatet av säkerhetsdefekter i webbapplikationskoden och felaktig konfiguration av webbplatskomponenter.

Låt oss ge lite statistik. Enligt data från rapporten om cyberhot för första halvåret 2016 släpper High-Tech Bridge webbsäkerhetstrender från första halvåret 2016, utarbetat av High-Tech Bridge:

  • över 60 % av webbtjänster eller API:er för mobilapplikationer innehålla minst en farlig sårbarhet som gör att databasen kan äventyras;
  • 35 % av webbplatser som är sårbara för XSS-attacker är också sårbara för SQL-injektioner och XXE-attacker;
  • 23 % av webbplatserna innehåller sårbarheten POODLE, och endast 0,43 % - Heartbleed;
  • fall av utnyttjande av farliga sårbarheter (till exempel tillåtande av SQL-injektion) under RansomWeb-attacker har ökat 5 gånger;
  • 79,9 % av webbservrarna har felkonfigurerade eller osäkra http-rubriker;
  • Dagens nödvändiga uppdateringar och korrigeringar installeras på endast 27,8 % av webbservrarna.

För att skydda webbresurser, specialister informationssäkerhet använda en annan uppsättning verktyg. Till exempel används SSL-certifikat för att kryptera trafik, och en webbapplikationsbrandvägg (WAF) installeras på omkretsen av webbservrar, som kräver seriös konfiguration och lång självinlärning. Ett lika effektivt sätt att säkerställa webbplatsens säkerhet är att regelbundet kontrollera säkerhetsstatusen (sök efter sårbarheter), och verktygen för att utföra sådana kontroller är webbplatssäkerhetsskannrar, som också nämns vi ska prata i denna recension.

Vår webbplats hade redan en recension dedikerad till webbapplikationssäkerhetsskannrar - "", som granskade produkter från marknadsledare. I den här recensionen kommer vi inte längre att beröra dessa ämnen, utan kommer att fokusera på en recension av kostnadsfria säkerhetsskannrar för webbplatser.

Ämnet fri programvara är särskilt relevant idag. På grund av den instabila ekonomiska situationen i Ryssland optimerar många organisationer (både kommersiell och offentlig sektor) för närvarande sina IT-budgetar, och det finns ofta inte tillräckligt med pengar för att köpa dyra kommersiella produkter för att analysera systemsäkerhet. Samtidigt finns det många gratis (gratis, öppen källkod) verktyg för att söka efter sårbarheter som folk helt enkelt inte känner till. Dessutom är vissa av dem inte sämre i funktionalitet till sina betalda konkurrenter. Därför kommer vi i den här artikeln att prata om de mest intressanta gratis webbsäkerhetsskannrarna.

Vad är webbplatssäkerhetsskannrar?

Webbplatssäkerhetsskannrar är mjukvaruverktyg (hårdvara och mjukvara) som söker efter defekter i webbapplikationer (sårbarheter) som leder till kränkning av systemets eller användardatas integritet, deras stöld eller att få kontroll över systemet som helhet.

Med hjälp av webbplatssäkerhetsskannrar kan du upptäcka sårbarheter i följande kategorier:

  • sårbarheter i kodningsstadiet;
  • sårbarheter i implementerings- och konfigurationsfasen av en webbapplikation;
  • sårbarheter i driftfasen av webbplatsen.

Sårbarheter i kodningsstadiet inkluderar sårbarheter i samband med felaktig bearbetning av in- och utdata (SQL-injektioner, XSS).

Sårbarheter i webbplatsimplementeringsstadiet inkluderar sårbarheter som är förknippade med felaktiga inställningar av webbapplikationsmiljön (webbserver, applikationsserver, SSL/TLS, ramverk, tredjepartskomponenter, närvaro av DEBUG-läge, etc.).

Sårbarheter i driftfasen av en webbplats inkluderar sårbarheter i samband med användning av föråldrad programvara, enkla lösenord, lagra arkiverade kopior på en webbserver i allmänhetens tillgång, tillgänglighet av allmänt tillgängliga tjänstemoduler (phpinfo), etc.

Hur webbplatssäkerhetsskannrar fungerar

I allmänhet är driftprincipen för en webbplatssäkerhetsskanner följande:

  • Insamling av information om föremålet som studeras.
  • Granskning av webbplatsprogramvara för sårbarheter med hjälp av sårbarhetsdatabaser.
  • Identifiera svagheter i systemet.
  • Bildande av rekommendationer för deras eliminering.

Kategorier av webbplatssäkerhetsskannrar

Webbplatssäkerhetsskannrar, beroende på deras syfte, kan delas in i följande kategorier (typer):

  • Nätverksskannrar - den här typen skannrar avslöjar tillgängliga nätverkstjänster, installerar deras versioner, bestämmer OS, etc.
  • Scanners för att söka efter sårbarheter i webbskript- den här typen av skanner söker efter sårbarheter som SQL inj, XSS, LFI/RFI, etc., eller fel (inte borttagna temporära filer, katalogindexering, etc.).
  • Utnyttja Finders- den här typen av skanner är designad för automatisk sökning efter exploateringar i programvara och manus.
  • Injektionsautomationsverktyg- Verktyg som specifikt handlar om att söka efter och utnyttja injektioner.
  • Debuggers- verktyg för att åtgärda fel och optimera kod i en webbapplikation.

Det finns också universella verktyg som inkluderar funktionerna för flera kategorier av skannrar samtidigt.

Nedan finns en kort översikt över kostnadsfria säkerhetsskannrar för webbplatser. Eftersom det finns många gratisverktyg ingår bara de mest populära gratisverktygen för att analysera säkerheten för webbteknologier i recensionen. När ett särskilt verktyg inkluderades i granskningen analyserades specialiserade resurser på ämnet webbteknologisäkerhet:

En kort recension av gratis webbplatssäkerhetsskannrar

Nätverksskannrar

Nmap

Skannertyp: nätverksskanner.

Nmap (Network Mapper) är ett gratis och öppen källkodsverktyg. Den är utformad för att skanna nätverk med valfritt antal objekt, bestämma tillståndet för objekt i det skannade nätverket, såväl som portar och deras motsvarande tjänster. För att göra detta använder Nmap många olika skanningsmetoder, såsom UDP, TCP connect, TCP SYN (halvöppen), FTP proxy (ftp breakthrough), Reverse-ident, ICMP (ping), FIN, ACK, Xmas tree, SYN och NULL-skanning.

Nmap stöder också ett brett utbud av ytterligare funktioner, nämligen: bestämma operativsystemet för en fjärrvärd med hjälp av TCP/IP-stackfingeravtryck, "osynlig" skanning, dynamisk beräkning av latens och paketåteröverföring, parallell skanning, identifiering av inaktiva värdar med hjälp av parallell ping-polling , skanning med falska värdar, upptäcka närvaron av paketfilter, direkt (utan att använda en portmapper) RPC-skanning, skanning med IP-fragmentering, samt godtycklig indikering av IP-adresser och portnummer för skannade nätverk.

Nmap har fått statusen Årets säkerhetsprodukt från tidningar och gemenskaper som Linux Journal, Info World, LinuxQuestions.Org och Codetalker Digest.

Plattform: Verktyget är plattformsoberoende.

Mer information från Nmap-skanner kan konsulteras.

IP-verktyg

Skannertyp: nätverksskanner.

IP Tools är en protokollanalysator som stöder filtreringsregler, filtreringsadapter, paketavkodning, protokollbeskrivning och mycket mer. Detaljerad information varje paket finns i ett stilträd, en högerklicksmeny låter dig skanna den valda IP-adressen.

Förutom paketsniffer, erbjuder IP Tools en komplett uppsättning av nätverksverktyg, inklusive statistikadapter, IP-trafikövervakning och mycket mer.

Du kan ta reda på mer om IP-Tools-skannern.

Skipfish

Plattformsövergripande webbsårbarhetsscanner Skipfish från programmeraren Michal Zalewski utför en rekursiv analys av en webbapplikation och dess ordboksbaserad kontroll, varefter den skapar en webbplatskarta med kommentarer om de upptäckta sårbarheterna.

Verktyget utvecklas internt av Google.

Skannern utför en detaljerad analys av webbapplikationen. Det är också möjligt att skapa en ordbok för efterföljande testning av samma applikation. Skipfishs detaljerade rapport innehåller information om upptäckta sårbarheter, webbadressen till resursen som innehåller sårbarheten och den skickade begäran. I rapporten sorteras den erhållna informationen efter svårighetsgrad och sårbarhetstyp. Rapporten är genererad i html-format.

Det är värt att notera att Skipfish webbsårbarhetsskanner genererar en mycket stor mängd trafik, och skanningen tar mycket lång tid.

Plattformar: MacOS, Linux, Windows.

Du kan ta reda på mer om Skipfish-skannern.

Wapiti

Skannertyp: skanner för att söka efter sårbarheter i webbskript.

Wapiti är ett konsolverktyg för granskning av webbapplikationer. Det fungerar enligt principen om "svart låda".

Wapiti fungerar enligt följande: först analyserar WASS-skannern webbplatsens struktur, söker efter tillgängliga skript och analyserar parametrar. Wapiti slår sedan på fuzzern och fortsätter att skanna tills alla sårbara skript hittas.

Wapiti WASS-skannern fungerar med följande typer av sårbarheter:

  • Filavslöjande (lokalt och fjärranslutet inkluderar/kräver, fopen, läsfil).
  • Databasinjektion (PHP/JSP/ASP SQL-injektioner och XPath-injektioner).
  • XSS (Cross Site Scripting)-injektion (reflekterad och permanent).
  • Detektering av kommandoexekvering (eval(), system(), passtru()...).
  • CRLF-injektion (HTTP-svarsdelning, sessionsfixering...).
  • XXE (XmleXternal Entity) injektion.
  • Användning av kända potentiellt farliga filer.
  • Svaga .htaccess-konfigurationer som kan kringgås.
  • Förekomst av säkerhetskopior som ger känslig information (avslöjande av källkod).

Wapiti ingår i verktygen för Kali Linux-distributionen. Du kan ladda ner källorna från SourceForge och använda dem på valfri distribution baserad på Linux-kärnan. Wapiti stöder GET och POST HTTP-begäransmetoder.

Plattformar: Windows, Unix, MacOS.

Du kan ta reda på mer om Wapiti-skannern.

Nessus

Nessus-skannern är ett kraftfullt och pålitligt verktyg som tillhör familjen nätverksskannrar, så att du kan söka efter sårbarheter i nätverkstjänster som erbjuds av operativsystem, brandväggar, filtreringsroutrar och andra nätverkskomponenter. För att söka efter sårbarheter används de som standardmedel testa och samla in information om nätverkets konfiguration och drift, och särskilda medel, som emulerar en angripares handlingar för att penetrera system som är anslutna till nätverket.

Du kan ta reda på mer om Nessus-skannern.

bsqlbf-v2

Skannertyp:.

bsqlbf-v2 är ett skript skrivet i Perl. Brute forcerare för blinda SQL-injektioner. Skannern fungerar med både heltalsvärden i URL:en och strängvärden.

Plattformar: MS-SQL, MySQL, PostgreSQL, Oracle.

Du kan ta reda på mer om bsqlbf-v2-skannern.

Debuggers

Burp Suite

Skannertyp: debugger.

Burp Suite är en samling relativt oberoende, plattformsoberoende applikationer skrivna i Java.

Kärnan i komplexet är Burp Proxy-modulen, som utför funktionerna hos en lokal proxyserver; de återstående komponenterna i setet är Spider, Intruder, Repeater, Sequencer, Decoder och Comparer. Alla komponenter är sammankopplade till en helhet på ett sådant sätt att data kan skickas till vilken del av applikationen som helst, till exempel från Proxy till Intruder för att utföra olika kontroller av webbapplikationen, från Intruder till Repeater för mer noggrann manuell analys av HTTP-rubriker.

Plattformar: plattformsoberoende programvara.

Du kan ta reda på mer om Burp Suite-skannern.

Fifflare

Skannertyp: debugger.

Fiddler är en felsökningsproxy som loggar all HTTP(S)-trafik. Verktyget låter dig undersöka denna trafik, ställa in en brytpunkt och "leka" med inkommande eller utgående data.

Funktionella egenskaper hos Fiddler:

  • Möjlighet att kontrollera alla förfrågningar, småkakor, parametrar som överförs av webbläsare.
  • Funktion för att ändra serversvar i farten.
  • Förmåga att manipulera rubriker och förfrågningar.
  • Funktion för att ändra kanalbredden.

Plattformar: plattformsoberoende programvara.

Du kan ta reda på mer om Fiddler-skannern.

N-Stalker Web Application Security Scanner X Free Edition

Skannertyp: skanner för att söka efter sårbarheter i webbskript, utnyttja sökverktyget.

Ett effektivt verktyg för webbtjänster är N-Stealth Security Scanner från N-Stalker. Företaget säljer en mer komplett version av N-Stealth, men det är gratis testversion ganska lämplig för enkel utvärdering. Den betalda produkten har mer än 30 tusen webbserversäkerhetstester, men också gratis version upptäcker mer än 16 tusen specifika luckor, inklusive sårbarheter i så allmänt använda webbservrar som Microsoft IIS och Apache. Till exempel letar N-Stealth efter sårbara Common Gateway Interface (CGI) och Hypertext Preprocessor (PHP) skript och använder attacker för att penetrera SQL Server, typiska scenarier över flera webbplatser och andra luckor i populära webbservrar.

N-Stealth stöder både HTTP och HTTP Secure (HTTPS - använder SSL), matchar sårbarheter mot ordboken Common Vulnerabilities and Exposures (CVE) och Bugtraq-databasen och genererar anständiga rapporter. N-Stealth används för att hitta de vanligaste sårbarheterna i webbservrar och hjälper till att identifiera de mest troliga attackvektorerna.

Naturligtvis, för en mer tillförlitlig bedömning av säkerheten för en webbplats eller applikationer, rekommenderas det att köpa en betalversion.

Du kan ta reda på mer om N-Stealth-skannern.

Slutsatser

Att testa webbplatser för att identifiera sårbarheter är en bra förebyggande åtgärd. För närvarande finns det många kommersiella och fritt tillgängliga säkerhetsskannrar för webbplatser. Samtidigt kan skannrar vara både universella (omfattande lösningar) och specialiserade, designade endast för att identifiera vissa typer av sårbarheter.

Vissa gratis skannrar är ganska kraftfulla verktyg och visar stort djup och bra kvalitet webbplatskontroller. Men innan du använder gratisverktyg för att analysera säkerheten på webbplatser måste du försäkra dig om deras kvalitet. Idag finns det redan många metoder för detta (till exempel Web Application Security Scanner Evaluation Criteria, OWASP Web Application Scanner Specification Project).

Endast heltäckande lösningar kan ge den mest kompletta bilden av säkerheten för en viss infrastruktur. I vissa fall är det bättre att använda flera säkerhetsskannrar.

1. Mål och mål

Syftet med arbetet är att utveckla algoritmer för att öka säkerheten för åtkomst till externa informationsresurser från företagens utbildningsnätverk, med hänsyn till deras karaktäristiska säkerhetshot, såväl som användarpopulationens egenskaper, säkerhetspolicyer, arkitektoniska lösningar och resursstöd.

Utifrån målet löses följande uppgifter i arbetet:

1. Gör en analys av de huvudsakliga hoten mot informationssäkerheten i utbildningsnätverk.

2. Utveckla en metod för att begränsa tillgången till oönskade informationsresurser i utbildningsnätverk.

3. Utveckla algoritmer som gör det möjligt att skanna webbsidor, söka efter direktanslutningar och ladda ner filer för ytterligare analys av potentiellt skadlig kod på webbplatser.

4. Utveckla en algoritm för att identifiera oönskade informationsresurser på webbplatser.

2. Ämnets relevans

Moderna intelligenta utbildningssystem är webbaserade och ger sina användare möjlighet att arbeta med olika typer lokala och avlägsna utbildningsresurser. Problem säker användning informationsresurser (IR) som läggs ut på Internet blir ständigt mer relevanta. En av metoderna som används för att lösa detta problem är att begränsa tillgången till oönskade informationsresurser.

Operatörer som tillhandahåller internetåtkomst till utbildningsinstitutioner måste säkerställa att tillgången till oönskad information begränsas. Begränsningen utförs genom filtrering av operatörer med hjälp av listor som uppdateras regelbundet i enlighet med det fastställda förfarandet. Med tanke på syftet och användarpubliken för utbildningsnätverk är det dock tillrådligt att använda ett mer flexibelt, självlärande system som dynamiskt känner igen oönskade resurser och skyddar användare från dem.

I allmänhet innebär tillgång till oönskade resurser följande hot: propaganda för illegala och asociala handlingar, såsom: politisk extremism, terrorism, drogberoende, distribution av pornografi och annat material; distrahera elever från att använda datornätverk för utbildningsändamål; svårt att komma åt Internet på grund av överbelastning av externa kanaler med begränsad bandbredd. Resurserna ovan används ofta för att injicera skadlig programvara och deras tillhörande hot.

Befintliga system för att begränsa åtkomsten till nätverksresurser har förmågan att kontrollera inte bara enskilda paket för överensstämmelse med specificerade begränsningar, utan också deras innehåll - innehåll som överförs via nätverket. För närvarande använder innehållsfiltreringssystem följande metoder för att filtrera webbinnehåll: efter DNS-namn eller specifik IP-adress, efter nyckelord inom webbinnehåll och efter filtyp. För att blockera åtkomst till en specifik webbplats eller grupp av webbplatser måste du ange flera webbadresser som innehåller olämpligt innehåll. URL-filtrering ger grundlig kontroll över nätverkssäkerhet. Det är dock omöjligt att i förväg förutse alla möjliga olämpliga webbadresser. Vissa webbplatser med tvivelaktigt innehåll fungerar dessutom inte med webbadresser, utan endast med IP-adresser.

Ett sätt att lösa problemet är att filtrera innehåll som tas emot via HTTP-protokollet. Nackdelen med befintliga innehållsfiltreringssystem är användningen av statiskt genererade åtkomstkontrollistor. För att fylla dem anställer utvecklare av kommersiella innehållsfiltreringssystem anställda som delar upp innehåll i kategorier och rangordnar poster i databasen.

För att eliminera bristerna i befintliga innehållsfiltreringssystem för utbildningsnätverk är det relevant att utveckla webbtrafikfiltreringssystem med dynamisk bestämning av kategorin för en webbresurs baserat på innehållet på dess sidor.

3. Upplevd vetenskaplig nyhet

En algoritm för att begränsa åtkomsten för användare av intelligenta inlärningssystem till oönskade resurser på webbplatser, baserad på dynamisk bildning av åtkomstlistor till informationsresurser genom deras fördröjda klassificering.

4. Planerade praktiska resultat

De utvecklade algoritmerna kan användas i system för att begränsa åtkomst till oönskade resurser i intelligenta datorinlärningssystem.

5. Genomgång av forskning och utveckling

5.1 Översikt över forskning och utveckling i ämnet på global nivå

Arbetet av sådana kända forskare som: H.H. är ägnat åt problemen med att säkerställa informationssäkerhet. Bezrukov, P.D. Zegzda, A.M. Ivashko, A.I. Kostogryzov, V.I. Kurbatov K. Lendver, D. McLean, A.A. Moldovyan, H.A. Moldovyan, A.A. Malyuk, E.A. Derbin, R. Sandhu, J.M. Carroll, och andra. Samtidigt, trots den överväldigande volymen av textkällor i företags- och öppna nätverk, inom området för utveckling av metoder och system för informationssäkerhet, forskning som syftar till att analysera säkerhetshot och studera begränsning av tillgången till oönskade resurser i datorutbildning med tillgång till webben .

I Ukraina är den ledande forskaren på detta område V.V. Domarev. . Hans avhandlingsforskning ägnas åt problemen med att skapa komplexa informationssäkerhetssystem. Författare till böckerna: ”Säkerhet informationsteknik. Metod för att skapa skyddssystem", "Säkerhet för informationsteknik. Systematisk tillvägagångssätt”, etc., författare till mer än 40 vetenskapliga artiklar och publikationer.

5.2 Genomgång av forskning och utveckling i ämnet på nationell nivå

Vid Donetsk National Technical University, utveckling av modeller och metoder för att skapa ett informationssäkerhetssystem företagsnätverk Khimka S.S. var involverad i företaget, med hänsyn till olika kriterier. . Skyddet av information i utbildningssystemen ockuperades av Yu.S. .

6. Problem med att begränsa tillgången till webbresurser i utbildningssystem

Utvecklingen av informationsteknologi tillåter oss för närvarande att tala om två aspekter av att beskriva resurser: Internetinnehåll och åtkomstinfrastruktur. Åtkomstinfrastrukturen förstås vanligtvis som en uppsättning hårdvara och programvara, tillhandahåller dataöverföring i IP-paketformatet, och innehåll definieras som en kombination av presentationsform (till exempel som en sekvens av tecken i en viss kodning) och innehåll (semantik) av information. Bland de karakteristiska egenskaperna för en sådan beskrivning bör följande markeras:

1. Innehållets oberoende från åtkomstinfrastrukturen.

2. Kontinuerliga kvalitativa och kvantitativa förändringar i innehåll;

3. uppkomsten av nya interaktiva informationsresurser ("live journals", sociala media, fria uppslagsverk, etc.), där användare direkt deltar i skapandet av onlineinnehåll.

När man löser problem med åtkomstkontroll till informationsresurser är frågorna om att utveckla säkerhetspolicyer, som löses i förhållande till egenskaperna hos infrastrukturen och nätverksinnehållet, av stor betydelse. Ju högre nivå av beskrivning av informationssäkerhetsmodellen är, desto mer fokuserar åtkomstkontrollen på nätverksresursernas semantik. Uppenbarligen, MAC- och IP-adresser (länk och nätverkslager interaktion) av nätverksenhetsgränssnitt kan inte kopplas till någon kategori av data, eftersom samma adress kan representera olika tjänster. Portnummer (transportlager) ger som regel en uppfattning om typen av tjänst, men karakteriserar inte kvalitativt informationen som tillhandahålls av denna tjänst. Det är till exempel inte möjligt att klassificera en viss webbplats i en av de semantiska kategorierna (media, affärer, underhållning, etc.) baserat enbart på information om transportlager. säkerhet informationssäkerhet på applikationsnivå kommer det nära begreppet innehållsfiltrering, dvs. åtkomstkontroll med hänsyn till nätverksresursernas semantik. Följaktligen, ju mer innehållsorienterat passersystemet är, desto mer differentierat tillvägagångssätt i förhållande till olika kategorier av användare och informationsresurser kan implementeras med dess hjälp. I synnerhet kan ett semantiskt orienterat kontrollsystem effektivt begränsa tillgången för studenter vid utbildningsinstitutioner till resurser som är oförenliga med inlärningsprocessen.

Möjliga alternativ för processen att skaffa en webbresurs presenteras i Fig. 1

Figur 1 - Processen att erhålla en webbresurs via HTTP-protokoll

För att säkerställa flexibel kontroll över användningen av Internetresurser är det nödvändigt att införa en lämplig policy för användningen av resurser av en utbildningsorganisation i operatörsföretaget. Denna policy kan implementeras antingen manuellt eller automatiskt. "Manuell" implementering innebär att företaget har en speciell personal som övervakar aktiviteten hos läroanstaltsanvändare i realtid eller med hjälp av loggar från routrar, proxyservrar eller brandväggar. Sådan övervakning är problematisk eftersom det kräver mycket arbete. För att ge flexibel kontroll över användningen av Internetresurser måste företaget förse administratören med ett verktyg för att implementera organisationens resursanvändningspolicy. Innehållsfiltrering tjänar detta syfte. Dess väsen ligger i nedbrytningen av informationsutbytesobjekt till komponenter, analys av innehållet i dessa komponenter, fastställande av överensstämmelsen med deras parametrar med den accepterade policyn för användning av Internetresurser och vidta vissa åtgärder baserat på resultaten av en sådan analys. I fallet med filtrering av webbtrafik avses föremålen för informationsutbyte vara webbförfrågningar, innehållet på webbsidor och filer som överförs på användarens begäran.

Användare av utbildningsorganisationen får tillgång till Internet uteslutande via en proxyserver. Varje gång du försöker få tillgång till en viss resurs kontrollerar proxyservern om resursen ingår i en speciell databas. Om en sådan resurs placeras i databasen över förbjudna resurser blockeras åtkomsten till den och användaren får ett motsvarande meddelande på skärmen.

Om den begärda resursen inte finns i databasen med förbjudna resurser, beviljas åtkomst till den, men ett besök på denna resurs registreras i en speciell tjänstelogg. En gång om dagen (eller vid andra intervall) genererar proxyservern en lista över de mest besökta resurserna (i form av en lista med webbadresser) och skickar den till experter. Experter (systemadministratörer), använder lämplig metodik, kontrollerar den resulterande listan över resurser och bestämmer deras karaktär. Om resursen är av icke-målkaraktär klassificerar experten den (porrresurs, spelresurs) och gör en ändring i databasen. Efter att ha gjort alla nödvändiga ändringar skickas den uppdaterade versionen av databasen automatiskt till alla proxyservrar som är anslutna till systemet. Filtreringsschemat för icke-målresurser på proxyservrar visas i fig. 2.

Figur 2 - Grundläggande principer för filtrering av icke-målresurser på proxyservrar

Problemen med att filtrera icke-målresurser på proxyservrar är följande. Med centraliserad filtrering krävs högpresterande utrustning för centralenheten, stor genomströmning kommunikationskanaler vid den centrala noden, fel i den centrala noden leder till fullständigt fel i hela filtreringssystemet.

Med decentraliserad filtrering "på fältet" direkt på organisationens arbetsstationer eller servrar är kostnaden för driftsättning och support höga.

När du filtrerar efter adress när du skickar en förfrågan, finns det ingen förebyggande reaktion på förekomsten av oönskat innehåll och svårigheter med att filtrera "maskerade" webbplatser.

När du filtrerar efter innehåll är det nödvändigt att bearbeta stora mängder information när du tar emot varje resurs, och komplexiteten i bearbetningsresurser som förbereds med hjälp av verktyg som Java, Flash.

7. Informationssäkerhet för webbresurser för användare av intelligenta lärsystem

Låt oss överväga möjligheten att kontrollera åtkomst till informationsresurser med hjälp av en gemensam lösning baserad på den hierarkiska principen att integrera åtkomstkontrollverktyg till Internetresurser (Fig. 3). Begränsning av åtkomst till oönskad IR från IOS kan uppnås genom en kombination av tekniker som brandvägg, användning av proxyservrar, analys av onormal aktivitet för att upptäcka intrång, bandbreddsbegränsning, filtrering baserad på innehållsanalys, filtrering baserad på åtkomstlistor. I det här fallet är en av nyckeluppgifterna att skapa och använda uppdaterade listor med åtkomstbegränsningar.

Filtrering av oönskade resurser utförs i enlighet med ström regleringsdokument baserat på listor som publicerats i enlighet med det fastställda förfarandet. Begränsning av tillgången till andra informationsresurser utförs på grundval av särskilda kriterier som utvecklats av operatören av utbildningsnätverket.

Användaråtkomst under den angivna frekvensen, även till en potentiellt oönskad resurs, är acceptabel. Endast efterfrågade resurser är föremål för analys och klassificering, det vill säga de för vilka antalet användarförfrågningar har överskridit en angiven tröskel. Skanning och analys utförs en tid efter att antalet förfrågningar överskrider tröskelvärdet (under perioden med minimal belastning på externa kanaler).

Det är inte bara enstaka webbsidor som skannas, utan alla resurser som är kopplade till dem (genom att analysera länkarna på sidan). Som ett resultat låter detta tillvägagångssätt dig bestämma förekomsten av länkar till skadlig programvara under resursskanning.

Figur 3 - Hierarki av åtkomstkontrollverktyg till Internetresurser

(animation, 24 bildrutor, 25 KB)

Automatisk klassificering av resurser utförs på klientens företagsserver - ägaren till systemet. Klassificeringstiden bestäms av den metod som används, som bygger på konceptet fördröjd resursklassificering. Detta förutsätter att användaråtkomst under en angiven frekvens, även till en potentiellt oönskad resurs, är acceptabel. Detta undviker kostsam klassificering under flygning. Endast efterfrågade resurser är föremål för analys och automatiserad klassificering, det vill säga resurser för vilka frekvensen av användarförfrågningar har överskridit en specificerad tröskel. Skanning och analys utförs en tid efter att antalet förfrågningar överskrider tröskelvärdet (under perioden med minimal belastning på externa kanaler). Metoden implementerar ett schema för att dynamiskt konstruera tre listor: "svart" (ChSP), "vit" (BSP) och "grå" (GSP). Resurser på den svarta listan är förbjudna att komma åt. Den vita listan innehåller verifierade tillåtna resurser. Den "grå" listan innehåller resurser som efterfrågades av användare minst en gång, men som inte klassificerats. Den initiala bildandet och ytterligare "manuella" justeringar av den "svarta" listan utförs på grundval av officiell information om adresserna till förbjudna resurser som tillhandahålls av det auktoriserade statliga organet. Det ursprungliga innehållet i den "vita" listan består av resurser som rekommenderas för användning. Varje begäran om en resurs som inte finns på den svarta listan beviljas. Om denna resurs inte finns på den "vita" listan placeras den på den "grå" listan, där antalet förfrågningar till denna resurs registreras. Om frekvensen av förfrågningar överstiger ett visst tröskelvärde, utförs en automatisk klassificering av resursen, baserat på vilken den ingår i den "svarta" eller "vita" listan.

8. Algoritmer för att bestämma informationssäkerheten för webbresurser för användare av intelligenta utbildningssystem

Åtkomstbegränsningsalgoritm. Restriktioner för åtkomst till oönskade resurser på webbplatser baseras på följande definition av begreppet risk för tillgång till oönskad IR i IOS. Risken för tillgång till den oönskade i-te IR-enheten, klassad som den k-te IR-klassen, kommer att vara ett värde som är proportionellt mot expertbedömningen av skadan orsakad av den oönskade IR-en för en given typ av IOS eller användarens identitet och antal åtkomster till denna resurs under en given tidsperiod:

I analogi med den klassiska definitionen av risk som produkten av sannolikheten för att ett hot realiseras och kostnaden för den orsakade skadan, tolkar denna definition risk som den matematiska förväntningen på mängden möjlig skada från tillgång till en oönskad IR. I det här fallet bestäms mängden förväntad skada av graden av påverkan av IR på användarnas personligheter, vilket i sin tur är direkt proportionell mot antalet användare som upplevt denna påverkan.

I processen för att analysera en webbresurs, ur synvinkeln av önskvärdheten eller oönskad tillgång till den, är det nödvändigt att överväga följande huvudkomponenter på var och en av dess sidor: innehåll, det vill säga text och annat (grafiskt, foto, video) information publicerad på denna sida; innehåll som publiceras på andra sidor på samma webbplats (du kan få interna länkar från innehållet på laddade sidor av vanliga uttryck); kopplingar till andra webbplatser (både när det gäller möjlig nedladdning virus och trojaner), och ur synvinkeln av förekomsten av oönskat innehåll. En algoritm för att begränsa åtkomst till oönskade resurser med hjälp av listor visas i fig. 4.

Figur 4 - Algoritm för att begränsa åtkomst till oönskade resurser

Algoritm för att identifiera oönskade webbsidor. För att klassificera innehåll - webbsidestexter - är det nödvändigt att lösa följande problem: ange klassificeringskategorier; extrahera information från källtexter som kan analyseras automatiskt; skapande av samlingar av sekretessbelagda texter; konstruktion och utbildning av en klassificerare som arbetar med de erhållna datamängderna.

Träningsuppsättningen av klassificerade texter analyseras och identifierar termer - de mest använda ordformerna i allmänhet och för varje klassificeringskategori separat. Varje källtext representeras som en vektor, vars komponenter är kännetecknen för förekomsten av en given term i texten. För att undvika vektorgleshet och minska deras dimension är det tillrådligt att reducera ordformer till sin ursprungliga form med hjälp av morfologiska analysmetoder. Efter detta bör vektorn normaliseras, vilket gör att vi kan uppnå ett mer korrekt klassificeringsresultat. För en webbsida kan två vektorer genereras: för informationen som visas för användaren och för texten som ges till sökmotorer.

Det finns olika tillvägagångssätt för att konstruera webbsidaklassificerare. De vanligaste är: Bayesisk klassificerare; neurala nätverk; linjära klassificerare; stöd för vektormaskin (SVM). Alla ovanstående metoder kräver utbildning på en träningssamling och testning på en testsamling. För binär klassificering kan du välja en naiv Bayes-lösning, som förutsätter att egenskaperna i vektorrummet är oberoende av varandra. Vi kommer att utgå från att alla resurser måste klassificeras som önskvärda och oönskade. Sedan är hela samlingen av webbsidetextexempel uppdelad i två klasser: C=(C1, C2) och den tidigare sannolikheten för varje klass är P(Ci), i=1,2. Med en tillräckligt stor samling av prover kan vi anta att P(Ci) är lika med förhållandet mellan antalet prover av klass Ci och det totala antalet prover. För vissa prov D som ska klassificeras, från den villkorliga sannolikheten P(D/Ci), enligt Bayes sats, kan värdet P(Ci /D) erhållas:

med hänsyn tagen till konstansen för P(D) får vi:

Om vi ​​antar att termer i vektorrymden är oberoende av varandra kan vi få följande relation:

För att mer exakt klassificera texter vars egenskaper liknar varandra (till exempel för att skilja mellan pornografi och fiktion som beskriver erotiska scener), bör viktningskoefficienter införas:

Om kn=k; om kn är mindre än k, kn.=1/|k|. Här är M frekvensen av alla termer i provdatabasen, L är antalet av alla sampel.

9. Anvisningar för att förbättra algoritmer

I framtiden är det planerat att utveckla en algoritm för att analysera länkar för att upptäcka införandet av skadlig kod i koden på en webbsida och jämföra den Bayesianska klassificeraren med stödvektormaskinen.

10. Slutsatser

En analys av problemet med att begränsa tillgången till webbresurser i utbildningssystem har genomförts. De grundläggande principerna för att filtrera icke-målresurser på proxyservrar väljs baserat på bildandet och användningen av aktuella listor med åtkomstbegränsningar. En algoritm har utvecklats för att begränsa åtkomsten till oönskade resurser med hjälp av listor, vilket gör det möjligt att dynamiskt generera och uppdatera åtkomstlistor till IR baserat på en analys av deras innehåll, med hänsyn till besöksfrekvensen och användarpopulationen. För att identifiera oönskat innehåll har en algoritm baserad på en naiv Bayes-klassificerare utvecklats.

Lista över källor

  1. Winter V. M. Global Security nätverkstekniker/ V. Zima, A. Moldovyan, N. Moldovyan. - 2:a uppl. - St Petersburg: BHV-Petersburg, 2003. - 362 s.
  2. Vorotnitsky Yu. I. Skydd mot tillgång till oönskade externa informationsresurser inom vetenskaplig och utbildning dator nätverk/ Yu. I. Vorotnitsky, Xie Jinbao // Mat. XIV Int. konf. "Omfattande informationsskydd." - Mogilev, 2009. - s. 70-71.

De bästa webbtjänsterna med vilka du kan undersöka webbplatser för sårbarheter. HP uppskattar att 80 % av alla sårbarheter orsakas av felaktiga webbserverinställningar, användning av föråldrad programvara eller andra problem som lätt kunde ha undvikits.

Tjänsterna i granskningen hjälper till att identifiera sådana situationer. Vanligtvis kontrollerar skannrar mot en databas med kända sårbarheter. Vissa av dem är ganska enkla och bara kontrollera öppna portar, medan andra arbetar mer noggrant och till och med försöker utföra SQL-injektion.

WebSAINT

SAINT är en välkänd sårbarhetsskanner, på grundval av vilken webbtjänsterna WebSAINT och WebSAINT Pro skapas. Som en godkänd skanningsleverantör utför tjänsten ASV-skanning av webbplatser för organisationer för vilka detta krävs enligt villkoren för PCI DSS-certifiering. Den kan arbeta enligt ett schema och utföra regelbundna kontroller och genererar olika rapporter baserat på skanningsresultat. WebSAINT skannar TCP- och UDP-portar på angivna adresser på användarens nätverk. Den "professionella" versionen lägger till pentests och webbapplikationsskanning och anpassade rapporter.

ImmuniWeb

Tjänsten ImmuniWeb från High-Tech Bridge använder ett lite annorlunda tillvägagångssätt för skanning: förutom automatisk skanning erbjuder den också manuella pentests. Förfarandet börjar vid den tidpunkt som kunden anger och tar upp till 12 timmar. Rapporten granskas av företagets anställda innan den skickas till kunden. Den specificerar minst tre sätt att eliminera varje identifierad sårbarhet, inklusive alternativ för att ändra källkoden för webbapplikationen, ändra brandväggsregler och installera en patch.

Du måste betala mer för mänskligt arbete än för automatisk kontroll. En fullständig skanning med ImmuniWeb pentests kostar $639.

BeyondSaaS

BeyondTrusts BeyondSaaS kommer att kosta ännu mer. Kunderna erbjuds ett abonnemang för $3 500, varefter de kan genomföra ett obegränsat antal revisioner under året. En engångsskanning kostar $700. Webbplatser kontrolleras för SQL-injektioner, XSS, CSRF och sårbarheter i operativsystemet. Utvecklarna uppger att sannolikheten för falska positiva resultat inte är mer än 1%, och i rapporterna anger de också alternativ för att korrigera problem.

BeyondTrust erbjuder andra verktyg för sårbarhetsskanning, inklusive den kostnadsfria Retina Network Community, som är begränsad till 256 IP-adresser.

Dell Secure Works

Dell Secure Works är kanske den mest avancerade av webbskannrarna som granskats. Den körs på QualysGuard Vulnerability Management-teknologi och kontrollerar webbservrar, nätverksenheter, applikationsservrar och DBMS både inom företagsnätverket och på molnhosting. Webbtjänsten uppfyller kraven PCI, HIPAA, GLBA och NERC CIP.




Topp