Visitas por bots, tiran el servidor - Joomla! Forum - community, help and support
hola todos
bueno les vengo platicar lo que me pasa y si alguien sabe una solución, lo que pasa es que
detectamos que cada fin de mes, entran al servidor alrededor de 30,000 visitas en pocos segundos
checando los logs, nos manda ip`s de rusia y paices asi, quisiera saber si alguien sabe del tema, que puedo hacer, y también para no bloquearme sólito, porque hay soluciones como el robot.txt pero también estaría bloqueando google y demás buscadores.
gracias por su atención.
bueno les vengo platicar lo que me pasa y si alguien sabe una solución, lo que pasa es que
detectamos que cada fin de mes, entran al servidor alrededor de 30,000 visitas en pocos segundos
checando los logs, nos manda ip`s de rusia y paices asi, quisiera saber si alguien sabe del tema, que puedo hacer, y también para no bloquearme sólito, porque hay soluciones como el robot.txt pero también estaría bloqueando google y demás buscadores.
gracias por su atención.
hola buzando
¡bienvenido al foro! lo primero que debes hacer es identificar estos bots en tu log de accesos. una vez identificados necesitas saber su agente de usuario o user agent. una vez que lo tengas puedes optar por evitar que te indexen con estas líneas en el robot.txt:
en este caso son para los agentes sitebot y ahrefsbot.
pero esto puede no ser efectivo ya que robots.txt no impide realmente el acceso, simplemente les pide esos bots que no te indexen. para evitar realmente que puedan acceder tu sitio lo mejor es añadir estas líneas tu fichero .htaccess:
aquí tienes las líneas necesarias para bloquear los agentes curl y wget.
¡bienvenido al foro! lo primero que debes hacer es identificar estos bots en tu log de accesos. una vez identificados necesitas saber su agente de usuario o user agent. una vez que lo tengas puedes optar por evitar que te indexen con estas líneas en el robot.txt:
code: select all
user-agent: ahrefsbot
disallow: /
user-agent: sitebot
disallow: /
en este caso son para los agentes sitebot y ahrefsbot.
pero esto puede no ser efectivo ya que robots.txt no impide realmente el acceso, simplemente les pide esos bots que no te indexen. para evitar realmente que puedan acceder tu sitio lo mejor es añadir estas líneas tu fichero .htaccess:
code: select all
rewriteengine on
rewritecond %{http_user_agent} curl [nc,or]
rewritecond %{http_user_agent} wget [nc]
rewriterule !^robots\.txt$ - [f]
aquí tienes las líneas necesarias para bloquear los agentes curl y wget.
Comments
Post a Comment