Escaneo para la seguridad de los recursos web. Cómo proteger una aplicación web: consejos básicos, herramientas, enlaces útiles. Supuesta novedad científica

mostró que más del 70% de los sitios web analizados estaban infectados con una o más vulnerabilidades.

Como propietario de una aplicación web, ¿cómo puede asegurarse de que su sitio esté protegido contra amenazas en línea? ¿O por filtración de información confidencial?

Si utiliza una solución de seguridad basada en la nube, es probable que el análisis periódico de vulnerabilidades forme parte de su plan de seguridad.

Sin embargo, si no es así, deberá realizar un análisis de rutina y tomar medidas. acciones necesarias para mitigar riesgos.

Hay dos tipos de escáner.

1.Comercial: le brinda la posibilidad de automatizar el escaneo para obtener seguridad, informes y alertas continuos. instrucciones detalladas sobre mitigación de riesgos, etc. Algunos de los nombres famosos en esta industria son:

acunetix
detectar
qualys

Código abierto/Gratis: puede descargar y ejecutar controles de seguridad a pedido.

No todos podrán cubrir una amplia gama de vulnerabilidades como la comercial.

Echemos un vistazo a los siguientes escáneres de vulnerabilidades de código abierto.

1. Aracnos

Arachni es un escáner de seguridad de alto rendimiento construido sobre Ruby para aplicaciones web modernas.

Está disponible en formato binario para Mac, Windows y Linux.

No solo es una solución para un sitio web estático o CMS básico, sino que Arachni también es capaz de integrarse con las siguientes plataformas.

Realiza controles activos y pasivos.

Windows, Solaris, Linux, BSD, Unix
Nginx, Apache, Tomcat, IIS, Embarcadero
Java, Ruby, Python, ASP, PHP
Django, Rails, CherryPy, CakePHP, ASP.NET MVC, Symfony

Algunas de las vulnerabilidades descubiertas:

NoSQL / Blind / SQL / Código / LDAP / Comando / Inyección XPath
Solicitar falsificación de secuencias de comandos entre sitios
Ruta de derivación
Incluyendo archivo local/remoto
Dividiendo la respuesta
secuencias de comandos entre sitios
Redirecciones DOM no definidas
Divulgación código fuente

2. XssPy

El escáner de vulnerabilidades XSS (Cross Site Scripting) basado en Python es utilizado por muchas organizaciones, incluidas Microsoft, Stanford, Motorola, Informatica, etc.

XssPy de Faizan Ahmad es una herramienta inteligente. En lugar de simplemente consultar la página de inicio o la página, verifica el enlace completo en los sitios web.

XssPy también verifica el subdominio.

3. w3af

w3af, un proyecto de código abierto iniciado a finales de 2006, está basado en Python y está disponible para los sistemas operativos Linux y Windows. w3af es capaz de detectar más de 200 vulnerabilidades, incluidas las 10 principales de OWASP.

Admite varios métodos de registro para generar informes. Ejemplo:

CSV
HTML
Consola
Texto
XML
Correo electrónico DIRECCIÓN

Está construido sobre una arquitectura de complementos y puede consultar todos los complementos disponibles.

4. Nikto

Un proyecto de código abierto patrocinado por Netsparker, tiene como objetivo encontrar configuraciones incorrectas, complementos y vulnerabilidades del servidor web en Internet.

5. Wfuzz

Wfuzz (Web Fuzzer) es una herramienta de evaluación de aplicaciones para pruebas de penetración.

Puede codificar los datos en la solicitud HTTP para cualquier campo para usar la aplicación web y validarla.

Wfuzz requiere Python en la computadora en la que desea ejecutar el análisis.

6. OWASP ZAP

ZAP (Zet Attack Proxy) es una de las famosas herramientas de prueba de penetración que cientos de voluntarios en todo el mundo actualizan activamente.

Es una herramienta Java multiplataforma que incluso puede ejecutarse en Raspberry Pi.

El ZIP se encuentra entre el navegador y la aplicación web para interceptar y verificar mensajes.

Vale la pena mencionar algunas de las siguientes características de ZAP.

fuzzer
Escáner automático y pasivo.
Admite múltiples lenguajes de secuencias de comandos
Vista forzada

7. Wapití

Wapiti rastrea las páginas web de un objetivo determinado y busca scripts y formularios de entrada de datos para ver si es vulnerable.

Esta no es una verificación de seguridad del código fuente, sino más bien una verificación de casilla negra.

Admite métodos HTTP GET y POST, proxies HTTP y HTTPS, autenticaciones múltiples, etc.

8.Vega

Vega es desarrollado por Subgraph, un software multiplataforma escrito en Java para encontrar XSS, SQLi, RFI y muchas otras vulnerabilidades.

Vega se puso cómoda GUI y es capaz de realizar un escaneo automático iniciando sesión en la aplicación con las credenciales proporcionadas.

Si es desarrollador, puede utilizar la API vega para crear nuevos módulos de ataque.

9. mapa SQL

Como puedes adivinar por el nombre, con él puedes realizar pruebas de penetración en una base de datos para encontrar fallas.

Funciona con Python 2.6 o 2.7 en cualquier sistema operativo. Si lo desea, sqlmap será más útil que nunca.

10. Agarrador

Esta pequeña herramienta basada en Python hace algunas cosas bastante bien.

Algunas de las características de Grabber:

Analizador de código fuente JavaScript
Secuencias de comandos entre sitios, inyección SQL, inyección SQL ciega
Prueba de aplicaciones PHP utilizando PHP-SAT

11. Golismero

Un marco para administrar y ejecutar algunas herramientas de seguridad populares como Wfuzz, DNS recon, sqlmap, OpenVas, robot analyser, etc.).

Golismero puede consolidar reseñas de otras herramientas y mostrar un resultado.

12. OWASP Xenotix XSS

Xenotix XSS OWASP es un marco avanzado para buscar y explotar secuencias de comandos entre sitios.

Tiene tres fusores inteligentes integrados para un escaneo rápido y mejores resultados.

13. Metaescaneo

Escáner para buscar vulnerabilidades de aplicaciones web de desarrolladores nacionales

Categoría: .
Autor: Maksadkhan Yakubov, Bogdan Shklyarevsky.

Este artículo analiza los problemas de la administración de recursos web, así como métodos, métodos y recomendaciones para una administración segura y protección contra piratería y ataques cibernéticos.

El primer paso para diseñar, crear u operar un sitio web seguro es garantizar que el servidor que lo aloja sea lo más seguro posible.

El componente principal de cualquier servidor web es el sistema operativo. Garantizar su seguridad es relativamente sencillo: basta con instalarlo a tiempo Últimas actualizaciones sistemas de seguridad.

Vale la pena recordar que los piratas informáticos también tienden a automatizar sus ataques mediante el uso de malware que recorre un servidor tras otro, buscando un servidor donde la actualización esté desactualizada o no haya sido instalada. Por lo tanto, se recomienda asegurarse de que las actualizaciones se instalen rápida y correctamente; Cualquier servidor que tenga instaladas versiones obsoletas de actualizaciones puede estar sujeto a ataques.

También debe actualizar a tiempo todo el software que se ejecuta en el servidor web. Cualquier software no relacionado con componentes necesarios(por ejemplo, un servidor DNS o herramientas de administración remota como VNC o Servicios de Escritorio remoto) deben desactivarse o eliminarse. Si se requieren herramientas de administración remota, tenga cuidado de no utilizar contraseñas predeterminadas o contraseñas que puedan adivinarse fácilmente. Esta nota se aplica no solo a las herramientas de administración remota, sino también a las cuentas de usuario, enrutadores y conmutadores.

Próximo punto importante es un software antivirus. Su uso es un requisito obligatorio para cualquier recurso web, independientemente de si se utiliza como plataforma Windows o Unix. Cuando se combina con un firewall flexible, el software antivirus se convierte en uno de los más formas efectivas protección contra ciberataques. Cuando un servidor web se convierte en el objetivo de un ataque, el atacante inmediatamente intenta descargar herramientas de piratería o software malicioso para aprovechar las vulnerabilidades de seguridad. En ausencia de un software antivirus de alta calidad, una vulnerabilidad de seguridad puede pasar desapercibida durante mucho tiempo y tener consecuencias indeseables.

lo mas la mejor opción Al proteger los recursos de información, existe un enfoque multinivel. En el flanco frontal están el firewall y el sistema operativo; el antivirus detrás de ellos está listo para llenar cualquier vacío que surja.

Basado en parámetros Sistema operativo y la funcionalidad del servidor web, se pueden citar las siguientes técnicas generales para protegerse contra ataques cibernéticos:

  • No instale componentes innecesarios. Cada componente conlleva una amenaza distinta; cuantos más haya, mayor será el riesgo total.
  • Mantenga su sistema operativo y aplicaciones actualizados con actualizaciones de seguridad.
  • Usa antivirus, actívalo instalación automática actualizaciones y comprobar periódicamente que estén instaladas correctamente.

Algunas de estas tareas pueden parecer difíciles, pero recuerde que solo se necesita un agujero de seguridad para atacar. Los riesgos potenciales en este caso incluyen robo de datos y tráfico, inclusión en listas negras de la dirección IP del servidor, daño a la reputación de la organización e inestabilidad del sitio web.

Según el grado de criticidad de las vulnerabilidades, por regla general, existen 5 niveles que determinan el estado de la vulnerabilidad. este momento existe un recurso web (Tabla 1). Normalmente, los atacantes, según sus objetivos y calificaciones, intentan afianzarse en el recurso pirateado y disfrazar su presencia.

Un hackeo de un sitio no siempre puede ser reconocido por señales externas (redireccionamiento móvil, enlaces spam en páginas, banners de otras personas, desfiguración, etc.). Si el sitio está comprometido, es posible que estos signos externos no estén presentes. El recurso puede funcionar con normalidad, sin interrupciones, errores o ser incluido en listas negras de antivirus. Pero esto no significa que el sitio sea seguro. El problema es que es difícil notar el hecho de piratear y descargar scripts de piratas informáticos sin realizar una auditoría de seguridad, y los shells web, puertas traseras y otras herramientas de piratas informáticos pueden permanecer en el alojamiento durante bastante tiempo y no usarse para sus fines. finalidad prevista. Pero un día llega un momento en que empiezan a ser explotados severamente por un atacante, lo que genera problemas al propietario del sitio. Para el spam o la publicación de páginas de phishing, el sitio se bloquea en el alojamiento (o parte de la funcionalidad está deshabilitada) y la aparición de redireccionamientos o virus en las páginas está plagada de prohibiciones por parte de antivirus y sanciones por parte de los motores de búsqueda. En tal caso, es necesario "tratar" urgentemente el sitio y luego instalar protección contra piratería para que la trama no se repita. A menudo, los antivirus estándar no reconocen algunos tipos de troyanos y shells web; la razón puede ser actualizaciones inoportunas o software desactualizado. Al comprobar un recurso web en busca de virus y scripts, debe utilizar programas antivirus de diferentes especializaciones, en este caso un troyano no encontrado por un programa antivirus puede ser detectado por otro. La Figura 1 muestra un ejemplo de un informe de análisis de software antivirus y es importante tener en cuenta el hecho de que otros programas antivirus no pudieron detectar el malware.

Los atacantes utilizan troyanos como “PHP/Phishing.Agent.B”, “Linux/Roopre.E.Gen”, “PHP/Kryptik.AE” para control remoto computadora. Estos programas suelen entrar en un sitio web a través de correo electrónico, software libre, otros sitios web o salas de chat. La mayoría de las veces, un programa de este tipo actúa como un archivo útil. Sin embargo, es un troyano malicioso que recopila información personal de los usuarios y la transfiere a los atacantes. Además, puede conectarse automáticamente a determinados sitios web y descargar otros tipos de malware en el sistema. Para evitar la detección y eliminación, "Linux/Roopre.E.Gen" puede desactivar las funciones de seguridad. Este programa troyano se desarrolla utilizando tecnología rootkit, lo que le permite esconderse dentro del sistema.

  • "PHP/WebShell.NCL" es un programa troyano que puede realizar varias funciones, como eliminar archivos del sistema, cargando malware, ocultar componentes existentes o información personal descargada y otros datos. Este programa puede eludir el análisis antivirus general e ingresar al sistema sin el conocimiento del usuario. Este programa es capaz de instalar una puerta trasera para que usuarios remotos tomen el control de un sitio web infectado. Con este programa, un atacante puede espiar a un usuario, administrar archivos, instalar software adicional y controlar todo el sistema.
  • "JS/TrojanDownloader.FakejQuery. A" - un programa troyano cuyo objetivo principal son los sitios desarrollados con los CMS “WordPress” y “Joomla”. Cuando un atacante piratea un sitio web, ejecuta un script que simula la instalación de complementos de WordPress o Joomla y luego inyecta código JavaScript malicioso en el archivo header.php.
  • "PHP/pequeño.NBK" - es una aplicación maliciosa que permite a los piratas informáticos obtener acceso remoto a sistema informático, permitiéndoles modificar archivos, robar información personal e instalar más software malicioso. Este tipo de amenazas, llamadas caballos de Troya, suelen ser descargadas por un atacante o por otro programa. También pueden aparecer debido a la instalación de aplicaciones o juegos en línea infectados, así como al visitar sitios infectados.

Desafortunadamente, los scripts de piratas informáticos no son detectados por señales externas ni por escáneres externos. Por lo tanto, ni los antivirus de los motores de búsqueda ni el software antivirus instalado en la computadora del webmaster informarán sobre problemas de seguridad del sitio. Si los scripts se encuentran en algún lugar de los directorios del sistema del sitio (no en la raíz ni en las imágenes) o se insertan en scripts existentes, tampoco se notarán accidentalmente.

Figura 1. Ejemplo de informe de análisis de software antivirus

Por lo tanto, las siguientes recomendaciones pueden ser medidas necesarias para proteger los recursos web:

  1. Regular respaldo todo el contenido sistema de archivos, bases de datos y registros de eventos (archivos de registro).
  2. Actualizar periódicamente el sistema de gestión de contenidos a la última versión estable del CMS (sistema de gestión de contenidos).
  3. Usar contraseñas complejas. Requisitos de contraseña: La contraseña debe contener al menos ocho caracteres y se deben utilizar caracteres en mayúsculas y minúsculas, así como caracteres especiales, al crear la contraseña.
  4. Es obligatorio utilizar complementos o complementos de seguridad para evitar ataques como el ataque XSS o la inyección SQL.
  5. El uso e instalación de complementos (complementos, plantillas o extensiones) sólo debe realizarse desde fuentes confiables o sitios web oficiales de desarrolladores.
  6. Escanear el sistema de archivos al menos una vez por semana con programas antivirus y utilizar firmas de bases de datos actualizadas.
  7. Proporcionar el uso del mecanismo CAPTCHA para proteger el sitio web contra la piratería mediante contraseñas de fuerza bruta durante la autorización y la introducción de datos en cualquier formulario de solicitud (formulario comentario, búsqueda, etc.).
  8. Restringir la capacidad de ingresar panel administrativo control del sitio web después de un cierto número de intentos fallidos.
  9. Configurar correctamente la política de seguridad del sitio web a través del archivo de configuración del servidor web, teniendo en cuenta parámetros como:
  • limitar el número de direcciones IP utilizadas por el administrador para acceder al panel de control administrativo del sitio web con el fin de evitar el acceso al mismo desde direcciones IP no autorizadas;
  • Evite que las etiquetas se transmitan por cualquier medio que no sea el formato de texto (por ejemplo, p b i u) para evitar ataques XSS.
  1. Mover archivos que contienen información sobre el acceso a bases de datos, acceso FTP, etc. de directorios predeterminados a otros y luego cambiar el nombre de estos archivos.

Incluso para un hacker menos experimentado, es bastante fácil hackear un sitio web Joomla si no proporciona protección. Pero, desafortunadamente, los webmasters a menudo posponen para más tarde la protección de su sitio contra la piratería, considerándolo un asunto no esencial. Restaurar el acceso a su sitio requerirá mucho más tiempo y esfuerzo que tomar medidas para protegerlo. La seguridad de un recurso web es tarea no sólo del desarrollador y del proveedor de alojamiento, que está obligado a garantizar la máxima seguridad de los servidores, sino también del administrador del sitio.

Introducción

EN negocio moderno Las tecnologías web han ganado una enorme popularidad. La mayoría de los sitios grandes compañias son un conjunto de aplicaciones que cuentan con interactividad, herramientas de personalización y medios de interacción con los clientes (tiendas online, tiendas remotas). servicios bancarios) y, a menudo, medios de integración con las aplicaciones corporativas internas de la empresa.

Sin embargo, una vez que un sitio web está disponible en Internet, se convierte en blanco de ataques cibernéticos. Mayoría de una manera sencilla Los ataques a un sitio web hoy en día consisten en explotar las vulnerabilidades de sus componentes. Y el principal problema es que las vulnerabilidades se han vuelto bastante comunes en los sitios web modernos.

Las vulnerabilidades son una amenaza inminente y creciente. Son, en su mayor parte, el resultado de defectos de seguridad en el código de la aplicación web y de una mala configuración de los componentes del sitio web.

Demos algunas estadísticas. Según datos del informe sobre ciberamenazas del primer semestre de 2016, High-Tech Bridge publica las tendencias de seguridad web del primer semestre de 2016, elaborado por High-Tech Bridge:

  • más del 60% de los servicios web o API para aplicaciones móviles contener al menos una vulnerabilidad peligrosa que permita comprometer la base de datos;
  • El 35% de los sitios vulnerables a ataques XSS también lo son a inyecciones SQL y ataques XXE;
  • El 23% de los sitios contienen la vulnerabilidad POODLE y sólo el 0,43%, Heartbleed;
  • los casos de explotación de vulnerabilidades peligrosas (por ejemplo, permitir la inyección de SQL) durante los ataques RansomWeb se han multiplicado por 5;
  • El 79,9% de los servidores web tienen encabezados http mal configurados o inseguros;
  • Las actualizaciones y correcciones necesarias actualmente se instalan en sólo el 27,8% de los servidores web.

Para proteger los recursos web, especialistas. seguridad de información utilice un conjunto diferente de herramientas. Por ejemplo, los certificados SSL se utilizan para cifrar el tráfico y se instala un firewall de aplicaciones web (WAF) en el perímetro de los servidores web, lo que requiere una configuración seria y un largo autoaprendizaje. Un medio igualmente eficaz para garantizar la seguridad de un sitio web es comprobar periódicamente el estado de seguridad (buscar vulnerabilidades), y las herramientas para llevar a cabo dichas comprobaciones son los escáneres de seguridad de sitios web, que también se mencionan. hablaremos en esta revisión.

Nuestro sitio web ya tenía una reseña dedicada a los escáneres de seguridad de aplicaciones web: “”, que revisaba productos de los líderes del mercado. En esta revisión, ya no tocaremos estos temas, sino que nos centraremos en una revisión de los escáneres de seguridad de sitios web gratuitos.

El tema del software libre es especialmente relevante hoy en día. Debido a la inestable situación económica en Rusia, muchas organizaciones (tanto del sector comercial como público) están optimizando actualmente sus presupuestos de TI y, a menudo, no hay suficiente dinero para comprar costosos productos comerciales para analizar la seguridad del sistema. Al mismo tiempo, existen muchas utilidades gratuitas (gratuitas y de código abierto) para buscar vulnerabilidades que la gente simplemente no conoce. Además, algunos de ellos no son inferiores en funcionalidad a sus competidores pagados. Por eso, en este artículo hablaremos de los escáneres de seguridad de sitios web gratuitos más interesantes.

¿Qué son los escáneres de seguridad de sitios web?

Los escáneres de seguridad de sitios web son herramientas de software (hardware y software) que buscan defectos en las aplicaciones web (vulnerabilidades) que conducen a la violación de la integridad del sistema o los datos del usuario, su robo o la obtención de control sobre el sistema en su conjunto.

Al utilizar escáneres de seguridad de sitios web, puede detectar vulnerabilidades en las siguientes categorías:

  • vulnerabilidades de la etapa de codificación;
  • vulnerabilidades en la fase de implementación y configuración de una aplicación web;
  • vulnerabilidades de la etapa de operación del sitio web.

Las vulnerabilidades en la etapa de codificación incluyen vulnerabilidades asociadas con el procesamiento incorrecto de datos de entrada y salida (inyecciones SQL, XSS).

Las vulnerabilidades en la etapa de implementación del sitio web incluyen vulnerabilidades asociadas con configuraciones incorrectas del entorno de la aplicación web (servidor web, servidor de aplicaciones, SSL/TLS, marco, componentes de terceros, presencia del modo DEBUG, etc.).

Las vulnerabilidades en la fase operativa de un sitio web incluyen vulnerabilidades asociadas con el uso de software obsoleto, contraseñas simples, almacenando copias archivadas en un servidor web en Acceso público, disponibilidad de módulos de servicio disponibles públicamente (phpinfo), etc.

Cómo funcionan los escáneres de seguridad de sitios web

En general, el principio de funcionamiento de un escáner de seguridad de sitios web es el siguiente:

  • Recopilación de información sobre el objeto en estudio.
  • Auditoría del software del sitio web en busca de vulnerabilidades utilizando bases de datos de vulnerabilidades.
  • Identificar debilidades del sistema.
  • Formación de recomendaciones para su eliminación.

Categorías de escáneres de seguridad de sitios web

Los escáneres de seguridad de sitios web, según su finalidad, se pueden dividir en las siguientes categorías (tipos):

  • Escáneres de red - este tipo Los escáneres revelan los servicios de red disponibles, instalan sus versiones, determinan el sistema operativo, etc.
  • Escáneres para buscar vulnerabilidades en scripts web- este tipo de escáner busca vulnerabilidades como SQL inj, XSS, LFI/RFI, etc., o errores (archivos temporales no eliminados, indexación de directorios, etc.).
  • Buscadores de exploits- este tipo de escáner está diseñado para la búsqueda automatizada de exploits en software y guiones.
  • Herramientas de automatización de inyección.- utilidades que se ocupan específicamente de buscar y explotar inyecciones.
  • Depuradores- herramientas para corregir errores y optimizar código en una aplicación web.

También existen utilidades universales que incluyen las capacidades de varias categorías de escáneres a la vez.

A continuación se muestra una breve descripción general de los escáneres de seguridad de sitios web gratuitos. Dado que hay muchas utilidades gratuitas, en la revisión solo se incluyen las herramientas gratuitas más populares para analizar la seguridad de las tecnologías web. Al incluir una utilidad particular en la revisión, se analizaron recursos especializados en el tema de seguridad de la tecnología web:

Una breve revisión de los escáneres de seguridad de sitios web gratuitos

Escáneres de red

Nmapa

Tipo de escáner: escáner de red.

Nmap (Network Mapper) es una utilidad gratuita y de código abierto. Está diseñado para escanear redes con cualquier cantidad de objetos, determinar el estado de los objetos de la red escaneada, así como los puertos y sus servicios correspondientes. Para hacer esto, Nmap utiliza muchos métodos de escaneo diferentes, como UDP, conexión TCP, TCP SYN (medio abierto), proxy FTP (avance de ftp), identificación inversa, ICMP (ping), FIN, ACK, árbol de Navidad, SYN. y NULL- escaneo.

Nmap también admite una amplia gama de características adicionales, a saber: determinación del sistema operativo de un host remoto usando huellas digitales de pila TCP/IP, escaneo "invisible", cálculo dinámico de latencia y retransmisión de paquetes, escaneo paralelo, identificación de hosts inactivos usando sondeo de ping paralelo , escaneo usando hosts falsos, detectando la presencia de filtros de paquetes, escaneo RPC directo (sin usar un mapeador de puertos), escaneo usando fragmentación de IP, así como indicación arbitraria de direcciones IP y números de puerto de las redes escaneadas.

Nmap ha recibido el estatus de Producto de seguridad del año de revistas y comunidades como Linux Journal, Info World, LinuxQuestions.Org y Codetalker Digest.

Plataforma: La utilidad es multiplataforma.

Más detalles de Escáner de mapas N se puede consultar.

Herramientas de propiedad intelectual

Tipo de escáner: escáner de red.

IP Tools es un analizador de protocolos que admite reglas de filtrado, adaptadores de filtrado, decodificación de paquetes, descripción de protocolos y mucho más. Información detallada Cada paquete está contenido en un árbol de estilos, un menú contextual le permite escanear la dirección IP seleccionada.

Además del rastreador de paquetes, IP Tools ofrece un conjunto completo de herramientas de red, incluido adaptador de estadísticas, monitoreo de tráfico IP y mucho más.

Puede obtener más información sobre el escáner IP-Tools.

saltador

El escáner de vulnerabilidades web multiplataforma Skipfish del programador Michal Zalewski realiza un análisis recursivo de una aplicación web y su verificación basada en diccionario, después de lo cual crea un mapa del sitio con comentarios sobre las vulnerabilidades detectadas.

La herramienta está siendo desarrollada internamente por Google.

El escáner realiza un análisis detallado de la aplicación web. También es posible crear un diccionario para pruebas posteriores de la misma aplicación. El informe detallado de Skipfish contiene información sobre las vulnerabilidades detectadas, la URL del recurso que contiene la vulnerabilidad y la solicitud enviada. En el informe, los datos obtenidos se clasifican por nivel de gravedad y tipo de vulnerabilidad. El informe se genera en formato html.

Vale la pena señalar que el escáner de vulnerabilidades web Skipfish genera una gran cantidad de tráfico y el escaneo lleva mucho tiempo.

Plataformas: MacOS, Linux, Windows.

Puede obtener más información sobre el escáner Skipfish.

Wapití

Tipo de escáner: escáner para buscar vulnerabilidades en scripts web.

Wapiti es una utilidad de consola para auditar aplicaciones web. Funciona según el principio de "caja negra".

Wapiti funciona de la siguiente manera: primero, el escáner WASS analiza la estructura del sitio, busca scripts disponibles y analiza los parámetros. Luego, Wapiti enciende el fuzzer y continúa escaneando hasta encontrar todos los scripts vulnerables.

El escáner Wapiti WASS funciona con los siguientes tipos de vulnerabilidades:

  • Divulgación de archivos (inclusión/requisito local y remoto, fopen, readfile).
  • Inyección de Bases de Datos (Inyecciones PHP/JSP/ASP SQL e Inyecciones XPath).
  • Inyección XSS (Cross Site Scripting) (reflejada y permanente).
  • Detección de ejecución de comandos (eval(), system(), passtru()…).
  • Inyección CRLF (división de respuesta HTTP, fijación de sesión...).
  • Inyección XXE (XmleXternal Entity).
  • Uso de archivos conocidos potencialmente peligrosos.
  • Configuraciones .htaccess débiles que se pueden omitir.
  • Presencia de archivos de respaldo que brindan información confidencial (divulgación del código fuente).

Wapiti está incluido en las utilidades de la distribución Kali Linux. Puede descargar las fuentes de SourceForge y utilizarlas en cualquier distribución basada en el kernel de Linux. Wapiti admite los métodos de solicitud HTTP GET y POST.

Plataformas: Windows, Unix, MacOS.

Puede obtener más información sobre el escáner Wapiti.

Neso

El escáner Nessus es una herramienta poderosa y confiable que pertenece a la familia escáneres de red, permitiéndole buscar vulnerabilidades en los servicios de red ofrecidos por sistemas operativos, firewalls, enrutadores de filtrado y otros componentes de la red. Para buscar vulnerabilidades, se utilizan como medios estándar probar y recopilar información sobre la configuración y el funcionamiento de la red, y medios especiales, emulando las acciones de un atacante para penetrar los sistemas conectados a la red.

Puede obtener más información sobre el escáner Nessus.

bsqlbf-v2

Tipo de escáner: herramienta de automatización de inyección.

bsqlbf-v2 es un script escrito en Perl. Fuerza bruta para inyecciones SQL ciegas. El escáner funciona tanto con valores enteros en la URL como con valores de cadena.

Plataformas: MS-SQL, MySQL, PostgreSQL, Oracle.

Puede obtener más información sobre el escáner bsqlbf-v2.

Depuradores

Suite de eructos

Tipo de escáner: depurador.

Burp Suite es una colección de aplicaciones multiplataforma relativamente independientes escritas en Java.

El núcleo del complejo es el módulo Burp Proxy, que realiza las funciones de un servidor proxy local; los componentes restantes del conjunto son Spider, Intruder, Repetidor, Secuenciador, Decodificador y Comparador. Todos los componentes están interconectados en un solo todo de tal manera que los datos se pueden enviar a cualquier parte de la aplicación, por ejemplo, desde Proxy hasta Intruder para realizar varias comprobaciones en la aplicación web, desde Intruder hasta Repetidor para un análisis manual más completo de Encabezados HTTP.

Plataformas: software multiplataforma.

Puede obtener más información sobre el escáner Burp Suite.

Violinista

Tipo de escáner: depurador.

Fiddler es un proxy de depuración que registra todo el tráfico HTTP(S). La herramienta le permite examinar este tráfico, establecer un punto de interrupción y "jugar" con los datos entrantes o salientes.

Características funcionales de Fiddler:

  • Capacidad para controlar todas las solicitudes, galletas, parámetros transmitidos por los navegadores de Internet.
  • Función para cambiar las respuestas del servidor sobre la marcha.
  • Capacidad para manipular encabezados y solicitudes.
  • Función para cambiar el ancho del canal.

Plataformas: software multiplataforma.

Puede obtener más información sobre el escáner Fiddler.

N-Stalker Web Application Security Scanner X Edición gratuita

Tipo de escáner: escáner para buscar vulnerabilidades en scripts web, herramienta de búsqueda de exploits.

Una herramienta eficaz para servicios web es N-Stealth Security Scanner de N-Stalker. La empresa vende una versión con más funciones de N-Stealth, pero es gratuita. versión de prueba Muy adecuado para una evaluación sencilla. El producto pago cuenta con más de 30 mil pruebas de seguridad de servidores web, pero también versión gratuita detecta más de 16 mil brechas específicas, incluidas vulnerabilidades en servidores web tan utilizados como Microsoft IIS y Apache. Por ejemplo, N-Stealth busca scripts vulnerables de interfaz de puerta de enlace común (CGI) y preprocesador de hipertexto (PHP) y utiliza ataques para penetrar servidor SQL, escenarios típicos entre sitios y otras lagunas en los servidores web populares.

N-Stealth admite HTTP y HTTP Secure (HTTPS, usando SSL), compara vulnerabilidades con el diccionario de vulnerabilidades y exposiciones comunes (CVE) y la base de datos Bugtraq, y genera informes decentes. N-Stealth se utiliza para encontrar las vulnerabilidades más comunes en servidores web y ayuda a identificar los vectores de ataque más probables.

Por supuesto, para una evaluación más fiable de la seguridad de un sitio web o de una aplicación, se recomienda adquirir una versión paga.

Puede obtener más información sobre el escáner N-Stealth.

conclusiones

Probar sitios web para identificar vulnerabilidades es una buena medida preventiva. Actualmente, existen muchos escáneres de seguridad de sitios web comerciales y de libre acceso. Al mismo tiempo, los escáneres pueden ser tanto universales (soluciones integrales) como especializados, diseñados únicamente para identificar ciertos tipos de vulnerabilidades.

Algunos escáneres gratuitos son herramientas bastante potentes y muestran una gran profundidad y buena calidad comprobaciones del sitio web. Pero antes de utilizar utilidades gratuitas para analizar la seguridad de los sitios web, es necesario asegurarse de su calidad. Hoy en día ya existen muchos métodos para esto (por ejemplo, Criterios de evaluación del escáner de seguridad de aplicaciones web, Proyecto de especificación del escáner de aplicaciones web OWASP).

Sólo las soluciones integrales pueden proporcionar la imagen más completa de la seguridad de una infraestructura particular. En algunos casos, es mejor utilizar varios escáneres de seguridad.

1. Meta y objetivos

El objetivo del trabajo es desarrollar algoritmos para aumentar la seguridad del acceso a sitios externos. recursos de información de las redes educativas corporativas, teniendo en cuenta sus amenazas de seguridad características, así como las características de la población de usuarios, políticas de seguridad, soluciones arquitectónicas y soporte de recursos.

En base al objetivo, en el trabajo se resuelven las siguientes tareas:

1. Realizar un análisis de las principales amenazas a la seguridad de la información en las redes educativas.

2. Desarrollar un método para limitar el acceso a recursos de información no deseados en las redes educativas.

3. Desarrollar algoritmos que permitan escanear páginas web, buscar conexiones directas y descargar archivos para un mayor análisis de códigos potencialmente maliciosos en los sitios.

4. Desarrollar un algoritmo para identificar recursos de información no deseados en sitios web.

2. Relevancia del tema

Los sistemas de formación inteligentes modernos están basados ​​en la Web y ofrecen a sus usuarios la posibilidad de trabajar con varios tipos Recursos educativos locales y remotos. Problema uso seguro Los recursos de información (RI) publicados en Internet son cada vez más relevantes. Uno de los métodos utilizados para solucionar este problema es limitar el acceso a recursos de información no deseados.

Los operadores que brindan acceso a Internet a instituciones educativas deben garantizar que el acceso a información no deseada sea limitado. La restricción se realiza mediante filtrado por operadores mediante listas que se actualizan periódicamente de acuerdo con el procedimiento establecido. Sin embargo, dado el propósito y la audiencia de usuarios de las redes educativas, es aconsejable utilizar un sistema de autoaprendizaje más flexible que reconozca dinámicamente los recursos no deseados y proteja a los usuarios de ellos.

En general, el acceso a recursos no deseados conlleva las siguientes amenazas: propaganda de acciones ilegales y asociales, tales como: extremismo político, terrorismo, drogadicción, distribución de pornografía y otros materiales; distraer a los estudiantes del uso de redes informáticas con fines educativos; dificultad para acceder a Internet debido a la sobrecarga de canales externos con ancho de banda limitado. Los recursos enumerados anteriormente se utilizan a menudo para inyectar malware y sus amenazas asociadas.

Los sistemas existentes para restringir el acceso a los recursos de la red tienen la capacidad de verificar no solo que los paquetes individuales cumplan con las restricciones especificadas, sino también su contenido, el contenido transmitido a través de la red. Actualmente, los sistemas de filtrado de contenidos utilizan los siguientes métodos para filtrar el contenido web: por nombre DNS o dirección IP específica, por palabras clave dentro del contenido web y por tipo de archivo. Para bloquear el acceso a un sitio web o grupo de sitios específico, debe especificar varias URL que contengan contenido inapropiado. El filtrado de URL proporciona un control exhaustivo sobre la seguridad de la red. Sin embargo, es imposible predecir de antemano todas las posibles URL inapropiadas. Además, algunos sitios web con contenido dudoso no funcionan con URL, sino exclusivamente con direcciones IP.

Una forma de solucionar el problema es filtrar el contenido recibido a través del protocolo HTTP. La desventaja de los sistemas de filtrado de contenidos existentes es el uso de listas de control de acceso generadas estáticamente. Para llenarlos, los desarrolladores de sistemas de filtrado de contenido comercial contratan empleados que dividen el contenido en categorías y clasifican los registros en la base de datos.

Para eliminar las deficiencias de los sistemas de filtrado de contenidos existentes para redes educativas, es relevante desarrollar sistemas de filtrado de tráfico web con determinación dinámica de la categoría de un recurso web en función del contenido de sus páginas.

3. Novedad científica percibida

Un algoritmo para restringir el acceso de los usuarios de sistemas de aprendizaje inteligentes a recursos no deseados en sitios de Internet, basado en la formación dinámica de listas de acceso a recursos de información mediante su clasificación retardada.

4. Resultados prácticos previstos

Los algoritmos desarrollados se pueden utilizar en sistemas para restringir el acceso a recursos no deseados en sistemas de aprendizaje informático inteligentes.

5. Revisión de la investigación y el desarrollo.

5.1 Panorama general de la investigación y el desarrollo sobre el tema a nivel global

El trabajo de científicos tan famosos como: H.H. está dedicado a los problemas de garantizar la seguridad de la información. Bezrukov, P.D. Zegzda, A.M. Ivashko, A.I. Kostogrizov, V.I. Kurbatov K. Lendver, D. McLean, A.A. Moldovia, H.A. Moldovyan, A.A. Malyuk, E.A. Derbin, R. Sandhu, J.M. Carroll y otros. Al mismo tiempo, a pesar del abrumador volumen de fuentes de texto en redes corporativas y abiertas, en el campo del desarrollo de métodos y sistemas para la seguridad de la información, se están realizando investigaciones dirigidas a analizar las amenazas a la seguridad y estudiar la limitación del acceso a recursos no deseados en la formación informática con acceso a la Web. .

En Ucrania, el principal investigador en este ámbito es V.V. Domarev. . Su investigación de tesis está dedicada a los problemas de la creación de sistemas complejos de seguridad de la información. Autor de los libros: “Seguridad tecnologías de la información. Metodología para la creación de sistemas de protección”, “Seguridad de las tecnologías de la información. Enfoque sistemático”, etc., autor de más de 40 artículos y publicaciones científicas.

5.2 Revisión de la investigación y desarrollo sobre el tema a nivel nacional

En la Universidad Técnica Nacional de Donetsk, desarrollo de modelos y métodos para crear un sistema de seguridad de la información. red corporativa Khimka S.S. participó en la empresa teniendo en cuenta varios criterios. . La protección de la información en los sistemas educativos estuvo a cargo de Yu.S. .

6. Problemas de restringir el acceso a los recursos web en los sistemas educativos

El desarrollo de las tecnologías de la información actualmente nos permite hablar de dos aspectos de la descripción de recursos: el contenido de Internet y la infraestructura de acceso. La infraestructura de acceso suele entenderse como un conjunto de hardware y software, proporciona transmisión de datos en formato de paquete IP, y el contenido se define como una combinación de la forma de presentación (por ejemplo, como una secuencia de caracteres en una determinada codificación) y el contenido (semántica) de la información. Entre las propiedades características de dicha descripción, cabe destacar las siguientes:

1. independencia del contenido de la infraestructura de acceso;

2. cambios continuos cualitativos y cuantitativos en el contenido;

3. la aparición de nuevos recursos de información interactivos (“revistas en vivo”, medios de comunicación social, enciclopedias libres, etc.), en las que los usuarios participan directamente en la creación de contenidos online.

A la hora de resolver problemas de control de acceso a los recursos de información, son de gran importancia las cuestiones de desarrollo de políticas de seguridad, que se resuelven en relación con las características de la infraestructura y el contenido de la red. Cuanto mayor sea el nivel de descripción del modelo de seguridad de la información, más se centra el control de acceso en la semántica de los recursos de la red. Obviamente, las direcciones MAC e IP (enlace y capa de red interacción) de las interfaces de dispositivos de red no pueden vincularse a ninguna categoría de datos, ya que la misma dirección puede representar diferentes servicios. Los números de puerto (capa de transporte), por regla general, dan una idea del tipo de servicio, pero no caracterizan cualitativamente la información proporcionada por este servicio. Por ejemplo, no es posible clasificar un sitio web concreto en una de las categorías semánticas (medios, negocios, entretenimiento, etc.) basándose únicamente en la información de la capa de transporte. Seguridad seguridad de información a nivel de aplicación se acerca al concepto de filtrado de contenidos, es decir, control de acceso teniendo en cuenta la semántica de los recursos de la red. En consecuencia, cuanto más orientado al contenido esté el sistema de control de acceso, más diferenciado será el enfoque en relación con las diferentes categorías de usuarios y recursos de información que se podrán implementar con su ayuda. En particular, un sistema de control orientado semánticamente puede limitar efectivamente el acceso de los estudiantes en instituciones educativas a recursos que son incompatibles con el proceso de aprendizaje.

Las posibles opciones para el proceso de obtención de un recurso web se presentan en la Fig. 1.

Figura 1: El proceso de obtención de un recurso web a través del protocolo HTTP.

Para garantizar un control flexible sobre el uso de los recursos de Internet, es necesario introducir una política adecuada para el uso de los recursos por parte de una organización educativa en la empresa operadora. Esta política se puede implementar de forma manual o automática. La implementación "manual" significa que la empresa cuenta con personal especial que monitorea la actividad de los usuarios de la institución educativa en tiempo real o utilizando registros de enrutadores, servidores proxy o firewalls. Este seguimiento es problemático porque requiere mucho trabajo. Para proporcionar un control flexible sobre el uso de los recursos de Internet, la empresa debe proporcionar al administrador una herramienta para implementar la política de uso de recursos de la organización. El filtrado de contenidos sirve para este propósito. Su esencia radica en descomponer los objetos de intercambio de información en componentes, analizar el contenido de estos componentes, determinar el cumplimiento de sus parámetros con la política aceptada para el uso de los recursos de Internet y tomar determinadas acciones con base en los resultados de dicho análisis. En el caso de filtrado del tráfico web, se entiende por objetos de intercambio de información las solicitudes web, los contenidos de las páginas web y los archivos transferidos a petición del usuario.

Los usuarios de la organización educativa obtienen acceso a Internet exclusivamente a través de un servidor proxy. Cada vez que intenta obtener acceso a un recurso en particular, el servidor proxy verifica si el recurso está incluido en una base de datos especial. Si dicho recurso se coloca en la base de datos de recursos prohibidos, se bloquea el acceso al mismo y el usuario recibe el mensaje correspondiente en la pantalla.

Si el recurso solicitado no está en la base de datos de recursos prohibidos, se concede acceso a él, pero se registra la visita a este recurso en un registro de servicio especial. Una vez al día (o en otros intervalos), el servidor proxy genera una lista de los recursos más visitados (en forma de lista de URL) y la envía a los expertos. Los expertos (administradores de sistemas), utilizando la metodología adecuada, verifican la lista de recursos resultante y determinan su naturaleza. Si el recurso no es de naturaleza objetivo, el experto lo clasifica (recurso porno, recurso de juego) y realiza un cambio en la base de datos. Después de realizar todos los cambios necesarios, la versión actualizada de la base de datos se envía automáticamente a todos los servidores proxy conectados al sistema. El esquema de filtrado para recursos no objetivo en servidores proxy se muestra en la Fig. 2.

Figura 2: Principios básicos del filtrado de recursos no objetivo en servidores proxy

Los problemas con el filtrado de recursos no objetivo en servidores proxy son los siguientes. Con filtración centralizada, se requiere un equipo de alto rendimiento de la unidad central, grandes rendimiento canales de comunicación en el nodo central, la falla del nodo central conduce al fallo total de todo el sistema de filtración.

Con el filtrado descentralizado "en el campo" directamente en las estaciones de trabajo o servidores de la organización, el costo de implementación y soporte es alto.

Al filtrar por dirección en la etapa de envío de una solicitud, no hay ninguna reacción preventiva ante la presencia de contenido no deseado y existen dificultades para filtrar sitios web "enmascarados".

Al filtrar por contenido, es necesario procesar grandes cantidades de información al recibir cada recurso, y la complejidad de procesar recursos preparados utilizando herramientas como Java, Flash.

7. Seguridad de la información de los recursos web para usuarios de sistemas de aprendizaje inteligentes

Consideremos la posibilidad de controlar el acceso a los recursos de información utilizando una solución común basada en el principio jerárquico de integrar herramientas de control de acceso a los recursos de Internet (Fig. 3). La restricción del acceso a IR no deseados desde IOS se puede lograr mediante una combinación de tecnologías como firewall, uso de servidores proxy, análisis de actividad anómala para detectar intrusiones, limitación de ancho de banda, filtrado basado en análisis de contenido, filtrado basado en listas de acceso. En este caso, una de las tareas clave es la formación y utilización de listas de restricción de acceso actualizadas.

El filtrado de recursos no deseados se lleva a cabo de acuerdo con las normas vigentes. documentos reglamentarios sobre la base de listas publicadas de acuerdo con el procedimiento establecido. La restricción del acceso a otros recursos de información se lleva a cabo sobre la base de criterios especiales desarrollados por el operador de la red educativa.

El acceso de usuarios por debajo de la frecuencia especificada, incluso a un recurso potencialmente no deseado, es aceptable. Solo están sujetos a análisis y clasificación los recursos en demanda, es decir, aquellos para los cuales el número de solicitudes de los usuarios ha superado un umbral específico. El escaneo y el análisis se llevan a cabo algún tiempo después de que el número de solicitudes excede el valor umbral (durante el período de carga mínima en canales externos).

No se escanean sólo páginas web individuales, sino todos los recursos asociados con ellas (mediante el análisis de los enlaces de la página). Como resultado, este enfoque le permite determinar la presencia de enlaces a malware durante el análisis de recursos.

Figura 3 - Jerarquía de herramientas de control de acceso a recursos de Internet

(animación, 24 fotogramas, 25 KB)

La clasificación automatizada de recursos se lleva a cabo en el servidor corporativo del cliente, el propietario del sistema. El tiempo de clasificación está determinado por el método utilizado, el cual se basa en el concepto de clasificación retardada de recursos. Esto supone que el acceso de los usuarios por debajo de una frecuencia especificada, incluso a un recurso potencialmente no deseado, es aceptable. Esto evita una costosa clasificación sobre la marcha. Solo los recursos en demanda están sujetos a análisis y clasificación automatizada, es decir, recursos para los cuales la frecuencia de las solicitudes de los usuarios ha excedido un umbral específico. El escaneo y el análisis se llevan a cabo algún tiempo después de que el número de solicitudes excede el valor umbral (durante el período de carga mínima en canales externos). El método implementa un esquema para construir dinámicamente tres listas: "negra" (ChSP), "blanca" (BSP) y "gris" (GSP). Se prohíbe el acceso a los recursos de la lista negra. La lista blanca contiene recursos permitidos verificados. La lista "gris" contiene recursos que los usuarios demandaron al menos una vez, pero que no fueron clasificados. La formación inicial y el posterior ajuste "manual" de la lista "negra" se llevan a cabo sobre la base de información oficial sobre las direcciones de los recursos prohibidos proporcionada por el organismo gubernamental autorizado. El contenido inicial de la lista “blanca” consta de recursos recomendados para su uso. Se concede cualquier solicitud de un recurso que no esté en la lista negra. Si este recurso no está en la lista "blanca", se coloca en la lista "gris", donde se registra el número de solicitudes a este recurso. Si la frecuencia de las solicitudes excede un cierto valor umbral, se lleva a cabo una clasificación automatizada del recurso, en función de la cual se incluye en la lista "negra" o "blanca".

8. Algoritmos para determinar la seguridad de la información de los recursos web para usuarios de sistemas de formación inteligentes.

Algoritmo de restricción de acceso. Las restricciones de acceso a recursos no deseados en sitios de Internet se basan en la siguiente definición del concepto de riesgo de acceso a IR no deseado en IOS. El riesgo de acceso a la i-ésima IR no deseada, clasificada como k-ésima clase de IR, será un valor proporcional a la valoración pericial del daño causado por la IR no deseada de un determinado tipo de IOS o a la identidad del usuario y la Número de accesos a este recurso durante un período de tiempo determinado:

Por analogía con la definición clásica de riesgo como el producto de la probabilidad de que se realice una amenaza y el costo del daño causado, esta definición interpreta el riesgo como la expectativa matemática de la cantidad de daño posible por el acceso a un IR no deseado. En este caso, la cantidad de daño esperado está determinada por el grado de impacto del IR en la personalidad de los usuarios, que a su vez es directamente proporcional al número de usuarios que experimentaron este impacto.

En el proceso de análisis de cualquier recurso web, desde el punto de vista de la conveniencia o indeseabilidad del acceso al mismo, es necesario considerar los siguientes componentes principales de cada una de sus páginas: contenido, es decir, texto y otros (gráficos, foto, video) información publicada en esta página; contenido publicado en otras páginas del mismo sitio web (puede obtener enlaces internos del contenido de las páginas cargadas visitando expresiones regulares); conexiones a otros sitios (tanto en términos de posible descarga virus y troyanos), y desde el punto de vista de la presencia de contenidos no deseados. En la figura 1 se muestra un algoritmo para restringir el acceso a recursos no deseados mediante listas. 4.

Figura 4: Algoritmo para restringir el acceso a recursos no deseados

Algoritmo para identificar páginas web no deseadas. Para clasificar contenidos (textos de páginas web) es necesario resolver los siguientes problemas: especificar categorías de clasificación; extraer información de textos fuente que pueda analizarse automáticamente; creación de colecciones de textos clasificados; construcción y entrenamiento de un clasificador que trabaje con los conjuntos de datos obtenidos.

Se analiza el conjunto de entrenamiento de textos clasificados, identificando términos: las formas de palabras más utilizadas en general y para cada categoría de clasificación por separado. Cada texto fuente se representa como un vector, cuyos componentes son las características de aparición de un término determinado en el texto. Para evitar la escasez de vectores y reducir su dimensión, es aconsejable reducir las formas de las palabras a su forma inicial utilizando métodos de análisis morfológico. Después de esto, el vector debe normalizarse, lo que nos permite lograr un resultado de clasificación más correcto. Para una página web, se pueden generar dos vectores: para la información que se muestra al usuario y para el texto proporcionado a los motores de búsqueda.

Existen varios enfoques para construir clasificadores de páginas web. Los más utilizados son: clasificador bayesiano; Redes neuronales; clasificadores lineales; máquina de vectores de soporte (SVM). Todos los métodos anteriores requieren capacitación en una colección de capacitación y pruebas en una colección de prueba. Para la clasificación binaria, puede elegir una solución ingenua de Bayes, que supone que las características en el espacio vectorial son independientes entre sí. Supondremos que todos los recursos deben clasificarse en deseables e indeseables. Luego, toda la colección de muestras de texto de páginas web se divide en dos clases: C=(C1, C2) y la probabilidad previa de cada clase es P(Ci), i=1,2. Con una colección de muestras suficientemente grande, podemos suponer que P(Ci) es igual a la relación entre el número de muestras de clase Ci y el número total de muestras. Para clasificar alguna muestra D, a partir de la probabilidad condicional P(D/Ci), según el teorema de Bayes, se puede obtener el valor P(Ci/D):

teniendo en cuenta la constancia de P(D) obtenemos:

Suponiendo que los términos en el espacio vectorial son independientes entre sí, podemos obtener la siguiente relación:

Para clasificar con mayor precisión los textos cuyas características son similares (por ejemplo, para distinguir entre pornografía y ficción que describe escenas eróticas), conviene introducir coeficientes de ponderación:

Si kn=k; si kn es menor que k, kn.=1/|k|. Aquí M es la frecuencia de todos los términos en la base de datos de muestra, L es el número de todas las muestras.

9. Instrucciones para mejorar los algoritmos.

En el futuro, está previsto desarrollar un algoritmo de análisis de enlaces para detectar la introducción de código malicioso en el código de una página web y comparar el clasificador bayesiano con la máquina de vectores de soporte.

10. Conclusiones

Se ha realizado un análisis del problema de restringir el acceso a los recursos web en los sistemas educativos. Los principios básicos para filtrar recursos no específicos en servidores proxy se seleccionaron en función de la formación y el uso de listas de restricción de acceso actuales. Se ha desarrollado un algoritmo para restringir el acceso a recursos no deseados mediante listas, que permite generar y actualizar dinámicamente listas de acceso a IR en función de un análisis de su contenido, teniendo en cuenta la frecuencia de visitas y la población de usuarios. Para identificar contenido no deseado, se ha desarrollado un algoritmo basado en un clasificador Bayes ingenuo.

Lista de fuentes

  1. Invierno V. M. Seguridad global. tecnologías de red/ V. Zima, A. Moldovyan, N. Moldovyan. - 2ª ed. - San Petersburgo: BHV-Petersburgo, 2003. - 362 p.
  2. Vorotnitsky Yu. I. Protección contra el acceso a recursos de información externos no deseados en el ámbito científico y educativo. Red de computadoras/ Yu.I. Vorotnitsky, Xie Jinbao // Mat. XIV Int. conf. "Protección integral de la información". - Mogilev, 2009. - págs.70-71.

Los mejores servicios web con los que puede examinar sitios en busca de vulnerabilidades. HP estima que el 80% de todas las vulnerabilidades son causadas por configuraciones incorrectas del servidor web, uso de software desactualizado u otros problemas que podrían haberse evitado fácilmente.

Los servicios de la revisión ayudan a identificar tales situaciones. Normalmente, los escáneres comparan una base de datos de vulnerabilidades conocidas. Algunos de ellos son bastante simples y sólo verifican puertos abiertos, mientras que otros trabajan con más cuidado e incluso intentan realizar una inyección SQL.

WebSANTO

SAINT es un conocido escáner de vulnerabilidades a partir del cual se crean los servicios web WebSAINT y WebSAINT Pro. Como proveedor de escaneo aprobado, el servicio realiza escaneo ASV de sitios web de organizaciones para las cuales esto es requerido según los términos de la certificación PCI DSS. Puede funcionar según un cronograma y realizar comprobaciones periódicas, y genera varios informes basados ​​en los resultados del escaneo. WebSAINT escanea puertos TCP y UDP en direcciones específicas en la red del usuario. La versión “profesional” agrega pentests y escaneo de aplicaciones web e informes personalizados.

InmuniWeb

El servicio ImmuniWeb de High-Tech Bridge utiliza un enfoque de escaneo ligeramente diferente: además del escaneo automático, también ofrece pentests manuales. El trámite comienza a la hora especificada por el cliente y dura hasta 12 horas. El informe es revisado por empleados de la empresa antes de ser enviado al cliente. Especifica al menos tres formas de eliminar cada vulnerabilidad identificada, incluidas opciones para cambiar el código fuente de la aplicación web, cambiar las reglas del firewall e instalar un parche.

Hay que pagar más por el trabajo humano que por verificación automática. Un escaneo completo con los pentests de ImmuniWeb cuesta $639.

Más allá de SaaS

BeyondSaaS de BeyondTrust costará aún más. A los clientes se les ofrece una suscripción por 3.500 dólares, después de la cual pueden realizar un número ilimitado de auditorías durante todo el año. Un escaneo único cuesta $700. Los sitios web se comprueban en busca de inyecciones SQL, XSS, CSRF y vulnerabilidades del sistema operativo. Los desarrolladores afirman que la probabilidad de falsos positivos no supera el 1% y en los informes también indican opciones para corregir los problemas.

BeyondTrust ofrece otras herramientas de escaneo de vulnerabilidades, incluida la Retina Network Community gratuita, que está limitada a 256 direcciones IP.

Trabajos seguros de Dell

Dell Secure Works es quizás el más avanzado de los escáneres web analizados. Se ejecuta con la tecnología QualysGuard Vulnerability Management y verifica los servidores web, dispositivos de red, servidores de aplicaciones y DBMS tanto dentro de la red corporativa como en alojamiento en la nube. El servicio web cumple con los requisitos PCI, HIPAA, GLBA y NERC CIP.




Arriba