Toutes les notes

Aujourd’hui, je suis tombé par hasard sur un article qui m’a interpelé et qui m’a amené à faire deux trois recherches sur ce mécanisme appelé en anglais link prefetching. Ce système permet d’indiquer au navigateur de télécharger des images ou des documents et de les mettre en cache une fois la page chargée. L’utilisateur peut alors avoir rapidement accès à ces documents qui ont été mis en cache par le navigateur. D’après les lectures que j’ai pu faire le link prefetching en html5 serait actuellement possible uniquement avec Firefox. On imagine aisément toutes les utilisations qui pourraient en être faites…

Le navigateur active ce mécanisme lorsqu’il trouve une balise HTML link ou un lien http: header avec un type de relation next ou prefetch.

Exemples :

<link rel="prefetch" href="/images/monimage.jpeg">
Link: </images/big.jpeg>; rel=prefetch

Plus d’informations sur le sujet :

16 commentaires

Poster un commentaire

Flux RSS des commentaires de cet article

Nico : Tu parles du problème qu’a eu Google Web Accelerator à sa sortie, qui téléchargeait également les liens « Supprimer ce post » sur les systèmes de forums ou autres mal conçus ?

Ce genre de faille est de toute façon exploitable avec un élément <img/>, en utilisant l’attribut src pour télécharger la ressource voulue. Les formulaires, c’est pas fait pour les chiens ;-)

Quoi qu’il en soit, c’est évidemment à utiliser avec la plus grande prudence : il est assez hasardeux d’anticiper pour l’utilisateur ce que sera la prochaine page qu’il visitera.

Il faut également bien garder à l’esprit que la bande passante (pas forcément illimitée) de l’utilisateur est sollicitée, peut-être pour rien. Pas très « Green Computing » :-)

Le 22 Sep. 2010 à 18h09 par Pierre Bertet

Philippe a tout à fait bien résumé ma pensée.

Qui plus est, je (me) répète ce que j’explique dans mon tuto sur la balise video sur Alsacréations : je trouve dommage d’imposer à l’utilisateur et à sa bande passante un choix… autant le laisser libre d’en décider.

Le 23 Sep. 2010 à 20h29 par Nico

« Ce n’est pas parce qu’une possibilité existe qu’elle sera forcément mal utilisée. »
Dans le monde du SEO un peu noir, il y aura un paquet de référenceurs qui vont profiter de l’aubaine. Pour gonfler des stats par exemple : comment les outils d’analyse statistiques vont-ils pouvoir savoir si une page du cache a été lue ou non ?
Ce n’est qu’un exemple.

Le 25 Sep. 2010 à 10h22 par Philippe @ créations sites HTML5

Philippe : Je ne comprends pas bien, tu parles de gonfler les logs d’Apache par exemple ? Quelle incidence sur le SEO ? La distinction est relativement aisée de toute façon, un header spécifique est envoyé pour distinguer ces requêtes des autres.

Au final, je ne vois vraiment pas ce qui peut être exploité avec cette technique, et qui ne peut pas l’être avec l’attribut src d’une image ou d’une iframe.

Le 25 Sep. 2010 à 15h00 par Pierre Bertet

« Les outils d’analyses statistiques évoluent non ? (…) »
oui, mais toujours très très en retard.
Et si ceux basés sur du JS ne seront pas touchés, les outils d’analyse côté serveur le seront…
car (et pour répondre à Pierre) il faudra qu’ils intègrent l’HTTP header, X-moz: prefetch pour détecter que la page n’est que dans le cache et n’a pas encore été lue.
Me trompé-je ?

Le 25 Sep. 2010 à 15h44 par Philippe @ créations sites normandie

Tout à fait d’accord pour les outils d’analyse de logs, il faut le prendre en compte, mais quel rapport avec le SEO ? Tu peux décrire un exemple ?

Désolé d’insister, je suis de nature très curieuse comme tu le vois :-)

Le 25 Sep. 2010 à 16h26 par Pierre Bertet

« Désolé d’insister, je suis de nature très curieuse comme tu le vois :-) »
C’est une preuve de bonne santé intellectuelle !

Pour faire du SEO il faut des référenceurs et ils ne sont pas tous honnêtes. Par exemple, ceux qui font du blackhat sont des joueurs avant tout qui utilisent des failles pour faire monter une page dans les SERPs pour faire accroître le trafic vers cette page ou carrément faire descendre les pages concurrentes à celles-ci pour éliminer un concurrent.

Et puis il y a des référenceurs sans scrupules qui, sans faire pour autant de blackhat (souvent parce qu’ils en sont pas capables) magouillent leurs chiffres de visites avec de fausses stats qu’ils agitent sous le nez de leurs clients pour encaisser leur facture. C’est à ceux-là que je pensais.

Le 25 Sep. 2010 à 17h57 par Philippe @ réalisations sites web normandie

Je comprends, je pensais qu’il était question de tromper l’algorithme utilisé par Google par exemple. Si ce n’est que pour tromper le client, c’est beaucoup de peine pour pas grand chose, les chiffres peuvent aussi s’inventer ;-)

Le 25 Sep. 2010 à 18h03 par Pierre Bertet

Hello Pierre,
c’est aussi pour tromper les moteurs…
nombre de blackhat seo font référencer les stats de leurs clients par les moteurs. Toutes les pages des stats possèdent des référents (les sources de trafic) qui sont autant de backlinks pour les moteurs.
En générant de fausses visites issues de prefetching sur les pages de stats avec des faux référents on peut se retrouver très vite avec un nombre impressionnant de BL.

Quel monde !

Le 30 Sep. 2010 à 09h38 par Philippe @ réalisations sites web normandie

Publiez un commentaire en remplissant les champs ci-dessous.
Les champs marqués d'une astérisque (*) sont obligatoires.

Les commentaires peuvent utiliser HTML ; seuls ces éléments sont autorisés : <a href="" title=""> <abbr title=""> <blockquote cite=""> <cite> <code> <em> <q cite=""> <s> <strong> <pre>