FILTRES QUI RIPOSTENT
OriginalAoût 2003
Nous pourrions améliorer la précision des filtres anti-spam bayésiens en les faisant suivre des liens pour voir ce qui les attend de l'autre côté. Richard Jowsey de death2spam fait maintenant cela dans des cas limites et rapporte que cela fonctionne bien.
Pourquoi le faire uniquement dans des cas limites ? Et pourquoi le faire seulement une fois ?
Comme je l'ai mentionné dans Will Filters Kill Spam?, suivre toutes les URL dans un spam aurait un effet secondaire amusant. Si les clients de messagerie populaires faisaient cela pour filtrer le spam, les serveurs des spammeurs subiraient un coup sérieux. Plus j'y pense, plus cela semble être une bonne idée. Ce n'est pas seulement amusant ; il serait difficile d'imaginer une contre-attaque plus parfaitement ciblée contre les spammeurs.
Je voudrais donc suggérer une fonctionnalité supplémentaire à ceux qui travaillent sur des filtres anti-spam : un mode "punir" qui, s'il est activé, explorerait chaque URL dans un spam suspect n fois, où n pourrait être défini par l'utilisateur. [1]
Comme beaucoup de gens l'ont noté, l'un des problèmes avec le système de messagerie actuel est qu'il est trop passif. Il fait ce que vous lui dites. Jusqu'à présent, toutes les suggestions pour résoudre le problème semblent impliquer de nouveaux protocoles. Celui-ci ne le ferait pas.
S'il était largement utilisé, les filtres anti-spam auto-récupérateurs feraient rebondir le système de messagerie. Le volume énorme de spam, qui a jusqu'à présent joué en faveur des spammeurs, travaillerait maintenant contre eux, comme une branche qui se redresse dans leur visage. Les filtres anti-spam auto-récupérateurs feraient grimper les coûts des spammeurs et feraient chuter leurs ventes : leur utilisation de bande passante exploserait, et leurs serveurs s'arrêteraient sous la charge, ce qui les rendrait indisponibles pour les personnes qui auraient répondu au spam.
Envoyez un million d'emails par heure, obtenez un million de visites par heure sur vos serveurs.
Nous voudrions nous assurer que cela ne soit fait que pour des spams suspects. En règle générale, toute URL envoyée à des millions de personnes est susceptible d'être une URL de spam, donc soumettre chaque requête http dans chaque email fonctionnerait presque tout le temps. Mais il y a quelques cas où ce n'est pas vrai : les URL en bas des mails envoyés depuis des services de messagerie gratuits comme Yahoo Mail et Hotmail, par exemple.
Pour protéger de tels sites et prévenir les abus, l'auto-récupération devrait être combinée avec des listes noires de sites spammés. Seuls les sites sur une liste noire seraient explorés, et les sites seraient mis sur liste noire uniquement après avoir été inspectés par des humains. La durée de vie d'un spam doit être d'au moins plusieurs heures, donc il devrait être facile de mettre à jour une telle liste à temps pour interférer avec un spam promouvant un nouveau site. [2]
L'auto-récupération à haut volume ne serait pratique que pour les utilisateurs sur des connexions à large bande, mais il y en a suffisamment pour causer de sérieux problèmes aux spammeurs. En effet, cette solution reflète parfaitement le problème. Le problème avec le spam est que pour atteindre quelques personnes crédules, le spammeur envoie des mails à tout le monde. Les destinataires non crédules ne sont que des dommages collatéraux. Mais la majorité non crédules ne cessera pas de recevoir du spam tant qu'ils ne peuvent pas arrêter (ou menacer d'arrêter) les crédules de répondre à celui-ci. Les filtres anti-spam auto-récupérateurs leur offrent un moyen de le faire.
Cela tuerait-il le spam ? Pas tout à fait. Les plus gros spammeurs pourraient probablement protéger leurs serveurs contre les filtres auto-récupérateurs. Cependant, la manière la plus simple et la moins coûteuse pour eux de le faire serait d'inclure des liens de désinscription fonctionnels dans leurs mails. Et cela serait une nécessité pour les petits spammeurs et pour les sites "légitimes" qui embauchent des spammeurs pour les promouvoir. Donc, si les filtres auto-récupérateurs devenaient répandus, ils deviendraient des filtres de désinscription automatique.
Dans ce scénario, le spam deviendrait, comme les plantages de systèmes d'exploitation, les virus et les pop-ups, l'une de ces plaies qui n'affligent que les personnes qui ne prennent pas la peine d'utiliser le bon logiciel.
Notes
[1] Les filtres auto-récupérateurs devront suivre les redirections et devraient dans certains cas (par exemple, une page qui dit juste "cliquez ici") suivre plus d'un niveau de liens. Assurez-vous également que les requêtes http sont indiscernables de celles des navigateurs Web populaires, y compris l'ordre et le référent.
Si la réponse ne revient pas dans un délai x, par défaut à une probabilité de spam assez élevée.
Au lieu de rendre n constant, il pourrait être judicieux d'en faire une fonction du nombre de spams qui ont été vus mentionnant le site. Cela ajouterait un niveau supplémentaire de protection contre les abus et les accidents.
[2] La version originale de cet article utilisait le terme "liste blanche" au lieu de "liste noire". Bien qu'ils devaient fonctionner comme des listes noires, je préférais les appeler listes blanches car cela pourrait les rendre moins vulnérables à une attaque légale. Cela semble juste avoir confondu les lecteurs, cependant.
Il devrait probablement y avoir plusieurs listes noires. Un point de défaillance unique serait vulnérable à la fois aux attaques et aux abus.
Merci à Brian Burton, Bill Yerazunis, Dan Giffin, Eric Raymond et Richard Jowsey d'avoir lu des brouillons de ceci.