Comment lire vos fichiers journaux pour étudier le trafic de votre site web

Pas tous les visiteurs de votre site Web est un être humain, et ce sont les humains que vous souhaitez les données sur - et non les robots. Lorsque vous étudiez les fichiers journaux de votre site, il ya certaines choses que vous devez rechercher dans ces fichiers pour vous assurer que vos chiffres sont exacts:

  • Spiders des moteurs de recherche. Les moteurs de recherche utilisent des programmes communément appelés araignées ou des robots qui viennent sur votre site et “ lire ” pour aider le moteur de recherche pour analyser votre site. Vous pouvez vérifier et voir si le fichier robots.text a été demandé (ce qui est la façon dont vous déterminez si votre site a été spidered ou non).

    Lorsque vous reconnaissez une araignée, saisir l'adresse IP et laissez le logiciel d'analyse d'ignorer sait résultats provenant de cette adresse. La plupart des bons analyseurs de logs inverse IP lookup l'adresse IP pour trouver les araignées et les ignorer pour vous.




  • Adresses IP masquées. Non chaque adresse IP représente un utilisateur individuel. Les sociétés, les universités, et même les utilisateurs d'AOL peuvent montrer votre serveur une adresse IP unique, alors qu'en fait beaucoup de gens ont visité votre site. Regardez pour le trafic élevé à partir d'une seule adresse IP pour voir si vous avez plus de visiteurs que votre fichier journal suggère.

  • Biscuits. Ne vous attendez pas les chiffres précis de visiteurs de cookies. Beaucoup de gens mis leurs navigateurs de ne pas accepter les cookies. Les cookies peuvent également pas distinguer plusieurs utilisateurs sur le même ordinateur (comme une bibliothèque ou un ordinateur de l'école). Les fichiers journaux, cependant, ne contiennent pas d'informations de cookie.

  • Busting caches. Le cache est ce qui arrive quand il ya une copie de sauvegarde de votre site Web. Il jette vos numéros d'analyse parce que vous pouvez travailler accidentellement d'une vieille copie de votre page. (javascript ne pas mettre en cache, de sorte que vous ne devez pas vous inquiéter à ce sujet si vous utilisez balises javascript.)

    Une manière de résoudre ce problème est de créer une page dynamique. UN dynamique est une page qui est construit à la volée à partir de la base de données en utilisant des scripts. Vous pouvez également configurer votre serveur pour en empêcher la mise en cache si vous avez assez de bande passante.

  • Connaissez votre auditoire. Certains sites ne traquer les utilisateurs qui se connectent à partir de la maison ou du travail ces sites filtrer les utilisateurs venant de bibliothèques et les écoles à l'aide de terminaux publics. En général, cela signifie qu'ils ont besoin d'une connexion ou un cookie persistant, qui terminaux publics ne sont pas susceptibles de permettre.

Analytics est pas seulement à propos de la collecte de données. Il est tout de savoir ce que vous voulez à partir de votre site Web et ensuite être capable de lire la pile de données que vous avez acquis dans le but de voir si ces objectifs sont atteints, et ce que vous devez faire différemment pour obtenir un taux plus élevé de la conversion.


» » » » Comment lire vos fichiers journaux pour étudier le trafic de votre site web