BdD des Sciences d’Information

Accueil du site > Technologies de l’Information et de la Communication (NTIC) > Internet- Intranet > Internet au bureau : filtrage par mots-clés ou par URL ?

Internet au bureau : filtrage par mots-clés ou par URL ?

Par José diz , ZDNet France

mercredi 25 mai 2005, par Collecte CND R.L

Solution simple, l’analyse des mots-clés de requêtes ralentit le trafic et mobilise des ressources.

Le filtrage par URL est plus performant et limite les lenteurs. Explications.


Pour contrôler la navigation des salariés, une entreprise peut faire le choix d’une solution qui analyse les sites visités.

Généralement installée derrière le coupe-feu, elle intercepte les requêtes des utilisateurs pour déterminer si le site demandé respecte sa politique d’utilisation d’internet.

Dans ce cas, l’utilisateur ne perçoit aucune différence. Si la page web demandée est "hors-la-loi", un message en avise l’utilisateur.

Au passage, le logiciel enregistre toutes ces actions dans des fichiers journaux (logs) analysables par la suite.

Ces solutions sont développées de manière à entretenir un bon fonctionnement avec les autres logiciels de sécurité (antivirus, antispam, etc.).

Le filtrage par mots-clés source de ralentissements Pour établir sa politique de filtrage, l’entreprise définit des règles basées sur diverses technologies.

La solution qui semble la plus simple consiste à filtrer les adresses (URL) et les pages web à partir de mots-clés. « Cela ralentit sensiblement le trafic.

Mais cette possibilité existe pour les entreprises souhaitant la mettre en oeuvre, en toute connaissance de cause.

D’ailleurs, certains fournisseurs d’accès pour entreprises le proposent en travaillant efficacement sur l’équilibrage de charge », rapporte Éric Beaurepaire, responsable marketing chez Symantec.<?xml :namespace prefix = o ns = "urn :schemas-microsoft-com :office :office" /> « Sur demande du client, nous pouvons intégrer une recherche de mots-clés sensibles sur les adresses (URL) ou les en-têtes.

En effet, ces derniers, appelés aussi "metatags" et non visibles sur une page web affichée, sont souvent utilisés pour faciliter le classement prioritaire sur les moteurs de recherche.

Toutefois, nous évitons d’aller jusqu’à l’analyse des mots-clés sur les pages, vraiment trop lente et pénalisante », renchérit Yves Berson, directeur technique chez Webwasher.

Le filtrage par mots-clés est d’autant plus délicat qu’il se doit d’être multilingue, et fait donc appel à de multiples thésaurus linguistiques.

Des bases d’URL mises à jour par les éditeurs Le principe le plus populaire reste le recours à une liste noire ou une liste blanche.

La première regroupe les adresses interdites, tandis que la liste blanche précise les seules adresses web autorisées. Une bonne combinaison des deux donne d’excellents résultats.

Bien entendu, maintenir à jour ces listes nécessite un temps de travail important, tant pour resserrer l’étau que pour ouvrir plus le web. C’est là que réside l’intérêt des solutions de filtrage ; leurs éditeurs apportent une aide précieuse en maintenant à jour des bases de données d’adresses web (URL).

Le filtrage d’URL classées par catégories concerne des millions d’adresses, et donne d’excellents résultats en termes de performances.

D’autant que les bases de données sont installées chez le client et mises à jour régulièrement.

Une fois les catégories permises et/ou interdites définies, chaque requête de l’utilisateur passe par ce tamis avant même de partir.

« De plus, le protocole ICAP (Internet Content Adaptation Protocol - permet de personnaliser du contenu sur un réseau, Ndlr) utilisé permet une optimisation intelligente des échanges et améliore fortement la gestion des caches.

Résultat, il faut compter seulement 5% de temps en plus entre la requête et l’affichage de la page », souligne Christophe Rey, directeur commercial chez Webwasher.


Suivre la vie du site RSS 2.0 | Plan du site | Espace privé | SPIP | squelette