Se Protéger des aspirations ?

5 réponses
AuteurMessage

MultiNetWorks |
Membre

Photo de MultiNetWorks

Inscrit le : 13/05/2005

# Le 11/08/2005 à 17:47

Slt à tous !
Quel système utilisez vous pour protégez vos sites des aspirations ?
Quel est la meilleur métode ? Celle qui est moins gourmande en ressource système ?

Merci d'avance ;)

Damien...

mirage | Vincent
Modérateur

Photo de mirage

Inscrit le : 04/05/2005

# Le 11/08/2005 à 17:50

J'utilise çaOuvrir dans une nouvelle fenetre . Tu as aussi d'autres méthodes comme l'image cachée cliquable en 0*0px cliquée uniquement par les aspirateurs, dans la page de redirection tu blacklistes en session ou via mySQL.

Sinon y a une solution qui te tue un serveur : stocker dans mySQL le nombre de pages vues par ip, par minute... Jamais testé et je ne pense pas tester un jour

webibao |
Anonyme

 

Inscrit le : 09/05/2005

# Le 11/08/2005 à 17:57

Héhéhé

merci du lien ca pourra m'aider pour un de mes futurs sites!

merci encore

Moi et après tout pourquoi pas!

MultiNetWorks | Damien
Membre

Photo de MultiNetWorks

Inscrit le : 13/05/2005

# Le 11/08/2005 à 17:59

Ouai je suis pas trop trop convaincu de ton système là car les logiciels aspirateurs permettent de changer le user-agent donc...

Quand à l'image cliquable, le système est bien vu.

Néanmoins, je serai plus pour une solution basé sur les IP et bloquer des IP temporairement direct sur le serveur.

mirage a dit :Sinon y a une solution qui te tue un serveur : stocker dans mySQL le nombre de pages vues par ip, par minute... Jamais testé et je ne pense pas tester un jour


Ca, c'est de la solution

Damien...

Bool | Olivier
Modérateur

Photo de Bool

Inscrit le : 09/05/2005

# Le 11/08/2005 à 18:23

éternelle question.... et après on fait un débat sur "pourquoi empecher l'aspiration ?"


J'utilise ces trois techniques :
1) filtre via Apache sur le UserAgent (méthodes différente de celle de Sivit, mais le principe est le même)

2) lien caché "trappe" (couplé à une déclaration dans robots.txt), qui déclenche un ban sur IP, controlé sur chaque page via PHP.

3) contrôle de la vitesse de consultation des pages, uniquement en session, et à partir de plusieurs centaines (sinon on a vite fait de bannir inutilement).

*************************

Méthode 1 : permet surtout de bloquer ceux qui ne savent pas se servir d'un aspirateur, et qui risquent donc d'aspirer tout le site (y compris le forum par exemple) alors qu'au départ ils voulaient juste récup les 5 pages d'un article pour pouvoir le consulter hors ligne...
L'inconvénient, c'est que si on est trop large, on va bloquer trop de trucs.... du genre wget.


Méthode 2 : bloque la plupart des aspirations... ainsi que les robots collecteurs d'email. L'inconvénient c'est qu'on bloque également les moteurs de recherche qui ne respectent pas le robots.txt, les curieux, ainsi que ceux qui ont un navigateur rudimentaire qui affichera le lien (WAP...).
Inconvénient : il faut mettre une "trappe" dans chaque dossier du site pour que ce soit efficace.


Méthode 3 : résultats très aléatoires... on peut très bien tomber sur un exité du refresh, ou un aspirateur configuré pour prendre son temps. Bref, consomme un max de ressources pour pas grand chose.
Perso j'ai désactivé ce système sur mon site.


Méthode 4 (que je n'ai toujours pas mise en place) : utiliser un module Apache comme mod_throttle, qui même s'il ne va pas empecher l'aspiration du site, va faire en sorte que le serveur ne souffre pas de l'aspiration. Le gars arrivera a aspirer le site, mais ça lui prendra plus de temps.



Perso je préfère les méthodes 2 et 4 : la méthode 2 je l'a met en place uniquement à la racine pour bloquer les "bourrins" et les collecteurs de mail ; et la méthode 4 pour ne pas que le serveur soit rallenti.

daevel : infogérance et conseilOuvrir dans une nouvelle fenetre || moiOuvrir dans une nouvelle fenetre

devtribu | Olivier
Modérateur

Photo de devtribu

Inscrit le : 16/06/2005

# Le 11/08/2005 à 18:57

Bonne question

Ma protection contre l'aspiration est surtout faite pour protéger le serveur... Un aspirateur qui bourrine fait du deni de service
donc je compte le nombre de hit par IP et au dela d'une limite, je die() la page sans rien afficher
ca protege bien le serveur
je controle regulierement les ip bannies pour affiner la limite (google a par exemple vraiment accelerer la cadence)

Février 2019, mon futur livre Tout JavaScript chez Dunod https://amzn.to/2PoLd0fOuvrir dans une nouvelle fenetre

Répondre

Vous ne pouvez pas participer au forum, car votre inscription n'a pas été validée. Pour vous faire valider en tant que Membre, cliquez ici.

© MHN - Tous droits réservés | CNIL N°844440 | 23/11/2024 19:07:53 | Généré en 11.76ms | Contacts | Mentions légales |