Laurent Denis a écrit :
. . . . En effet, on ne peut pas avoir à la fois un Web soumis au bon vouloir d'un moteur de recherche monopolistique indifférent aux standards autant qu'aux utilisateurs, et un Web soucieux de qualité.. . . .
On peut voir ce moteur de recherche de 2 façons (au moins) : une entreprise qui tente (et y parvient peut-être) de s'arroger une position quasi monopolistique, et une machine à trouver des mots.
C'est le second point qui m'intéresse pour que des pages soient faciles à trouver : la machine est probablement l'une des plus efficaces à bien des points de vue, et ma solution permet d'obtenir un surcroît d'efficacité.
Cela conduit à considérer le terme "qualité" sous un autre angle : la qualité que tu évoques concerne ici la conformité de l'url à la définition du W3C, la qualité que je tente d'obtenir néglige peut-être celle-ci, mais elle est d'un autre ordre.
En effet un site de bonne qualité aura cette qualité qu'il sera affiché en bonne place pour des requêtes pertinentes vis à vis de son contenu.
L'ensemble des mesures prises pour parvenir à cette fin, si elles ne constituent pas des entorses flagrantes à un certain nombre de "bonnes règles", confèrera donc au site un surplus de qualité.
Tu me répondras peut-être que je fais une "entorse flagrante" au principe d'opacité, ce en quoi nous ne serons pas d'accord :
W3C a écrit :
L'éditeur est libre d'assigner des identifiants et de définir comment ils sont servis.
.
Rien n'interdit donc de définir des identifiants fournissant une représentation de la ressource.
Mais
W3C a écrit :
L'état d'une ressource peut évoluer dans le temps. Exiger d'un propriétaire d'URI de publier un nouvel URI pour chaque changement d'état de la ressource conduirait à un nombre significatif de références cassées.
, et alors si le contenu de ma ressource devait changer au point qu'il ne correspondrait plus aux identifiants mon souci de cohérence me conduirait à supprimer cette ressource pour en créer une nouvelle, ce qui ne donnerait pas de références cassées, puisque le première ressource n'aurait plus de raison d'exister en tant que telle dans la globalité "contenu / identifiant" qu'elle avait.
Le système que j'utilise permet ce genre de manoeuvre avec une grande facilité puisque tous les liens internes au sites sont générés automatiquement, ce qui interdit les références cassées.
Maintenant un petit retour sur l'aspect monopolistique de Google : il est en grande partie imputable à la grande efficacité de la chose.
J'ai souvenir il y a 7 - 8 ans d'un grand nombre de moteurs aujourd'hui tombée en stagnation, il fallait en utiliser 5 - 6 au moins en parallèle (ou plusieurs méta moteurs) pour faire le tour d'un sujet, et Google a notablement restreint ce besoin de faire appel à un grand nombre de moteurs du simple fait de ses performances plutôt supérieures.
Ce matin même j'ai écrit à un certain moteur sur lequel mon site est référencé depuis longtemps, mais qui n'a pas scanné mes pages depuis ... un certain temps.
Ce n'est pas, de mon point de vue, un moteur d'une qualité comparable à Google, qui a pris en compte mes nouvelles pages en plus ou moins une semaine.
La meilleure façon de lutter contre le monopole en devenir consisterait pour la concurrence à savoir fournir un niveau de qualité au moins égal.
Et si la concurrence ne sait pas faire cela le monopole se renforcera...
Modifié par jcm (17 Nov 2005 - 14:25)