numéro cent-un ( #101 ) le jeudi 13 janvier 2004
Sommaire
Espace publicitaire
annuaires, moteurs de recherche et métamoteurs
- votre publicité lue par 27.000 personnes ! -
Éditorial

MoteurZine 101

par Chris Hédé
Enfin et Moteurzine d'un côté, Développement et Référencement d'un autre.

Christophe Hédé




Le temps, le temps est un gros problème et je n'arrive pas à comprendre ceux qui s'ennuient et qui ne savent pas quoi faire de leurs journées. Ca fait plusieurs années que je prie tous les soirs pour avoir des journées de 48h. Mais à priori, il y a des problèmes plus important que le mien.

D'ailleurs, à propos de prière, suite à la dernière déclaration du gouvernement américain qui est que la guerre en Irak a été faite uniquement pour renverser un dictateur et apporter la paix aux minorités (ou majorités) opprimés, de nombreux pays et surtout énormément de population sur cette planète ont enfin une lueur d'espoir... le Tibet va enfin retrouver sa liberté, les amérindiens qui ont été massacrés et chassés de chez eux vont enfin récupérer les terres de leurs ancêtres, l'Ecosse qui dénonce l'occupation anglaise, la Corse et la Bretagne aussi.... Quoi ??? Ils n'ont pas de pétrole pour payer... m'enfin, les américains ne sont pas comme ça !!

On va encore se plaindre que je fais trop de politique !

Pour ceux qui ne l'ont pas remarqué, Enfin.fr vient de faire une mise à jour majeure. Enfin est passé du stade annuaire en html à celui de moteur de recherche indexant intégralement les pages de garde des outils de recherche et référenceurs présent dans la base. Aujourd'hui, il y a 2845 sites présent dans la base. L'objectif a moyen terme est de faire la même chose avec les outils de langue anglaise et ensuite, avec tous les outils de recherche, quelque soit le pays et sa langue ! Un gros projet... mais vraiment très passionant.

Pour ceux qui se posent la question, Enfin n'est pas rentable... mais, tout n'est pas une question de sou... enfin, pour certains !

Bonne lecture...

La page des moteurs

Etablir des relations (partie 1)

par Gilbert Wayenborgh
Science, Politique, Défis, Aventure, Art, Impossible, Communication, Dialogue, Humour, Expertise.

Gilbert Wayenborgh



Chaque moteur de recherche dispose de ses propres habitudes et mais tous fonctionnent techniquement de la même manière. Ils suivent des liens, il suffit d'un "href" et le lien est suivi.

Mais, certains webmasters ont tendance, souvent, à "cacher" ces liens. Et vous, cacheriez-vous aussi vos liens ? Je vous sens déjà rougir ... Si si vous cher lecteur, mais pas forcement volontairement ni pour "priver" les moteurs, mais simplement parce que la technique graphique vous l'impose. Vous utilisez flash, les MAP, les javascripts... Vous pouvez décidement rougir.

Aucun moteur ne va découvrir ces liens, ni pouvoir les lire, et encore moins les suivre. Ce n'est pas dramatique me direz vous, je vous l'accorde, néanmoins vous privez d'autres outils de la bonne lecture de votre site. Les outils d'interpretation html pour les personnes mal ou non voyantes qui pourtant aimeraient aussi pouvoir naviguer sur votre site.

Vous me direz sans doute "flute", ils représentent une population "pas très importantes" en terme de chiffre, un peu comme les utilisateurs de Macintosh ou de Linux. C'est vrai, néanmoins, ils existent aussi, alors une petite pensée à eux ne vous fera pas de mal. Du coup pour vous remercier, non seulement cette population pourra lire votre site, mais aussi le trouver plus facilement, grâce à l'indexation des moteurs.

Les entreprises et les outils de recherche

Etude de cas : Relais informatique international Diffusion

par Jean-Claude Benard
Directeur commercial de QuadraMultiMedia et créateur de Slovar - Partenaire Officiel de Espotting et Overture.

Jean-Claude Benard



Lors de notre chronique de rentrée, nous avons évoqué le rôle prépondérant du catalogage et des catalogueurs dans le fonctionnement des annuaires de recherche

Le catalogueur est une personne qui reçoit les demandes d'indexations et les référence en fonction de critères établis.

Saviez-vous toutefois que le métier de catalogueur a été créé bien avant l'arrivée des outils de recherche ?

Saviez-vous que beaucoup d'internautes ont utilisé sans le savoir des outils de recherche de façon régulière alors que l'on ne parlait pas encore de navigateur Internet ?

Mais où me direz vous ?

Tout simplement dans un endroit que la majorité d'entre nous a fréquenté durant ses études : une bibliothèque municipale informatisée.

Nous avons décidé d'interroger La société Relais Informatique International Diffusion l'un des plus anciens éditeur français de logiciel de gestion de bibliothèque de lecture publique pour en savoir plus.

Le Relais informatique international Diffusion plus souvent appelée RIID est basé en banlieue parisienne à Rosny Sous Bois (93) Créée il y a plus de quinze ans, cette entreprise a mis au point un ensemble de solutions de gestion pour les bibliothèques et médiathèques.

RIID est un des leaders européens de la gestion de bibliothèques. Si le marché principal de RIID est la France, il se démarque de ses concurrents par le fait d'avoir très tôt misé sur la présence hors du territoire national.


Ainsi la plus forte implantation hors France se situe dans l'ex URSS où plus de 150 bibliothèques utilisent quotidiennement ses solutions. Le progiciel, qui a été traduit et adapté pour fonctionner en cyrillique fonctionne dans des bibliothèques universitaires, municipales académiques telles : la bibliothèque historique de MOSCOU, l'institut des aciers, le réseau universitaire de la région de KEMEROVO (Sibérie), la bibliothèque nationale du KAZAHKSTAN, ...

Une important présence de RIID en Afrique du nord a donné lieu à une version arabisée dont un certain nombre de site tunisiens sont les utilisateurs.

Les solutions de RIID sont aujourd'hui présentes sur quatre continents. Et ont été traduites en 5 langues.

Genèse d'un outil de recherche

Pour les plus jeunes d'entre nous, il est difficile d'imaginer que l'informatisation des bibliothèques était tout à fait marginale il y a une vingtaine d'années. Et oui, toutes les opérations, de la recherche au prêt en passant par l'indexation ou la rédaction de fiches de lecture étaient effectuées manuellement.

Les « outils de recherche » étaient les bibliothécaires qui étaient en mesure d'aider les usagers à trouver au travers des thèmes, auteurs, éditeurs, périodes, les ouvrages qui souhaitaient consulter mais aussi de tenir à jour « à la main » toutes les opérations de gestion.

Etonnant non ? Si un certain nombre d'entre nous peut trouver que cette situation semble plus conviviale, il ne faut pas oublier qu'elle concernait de petites bibliothèques mais aussi des bibliothèques qui pouvaient détenir de 300 000 à 8 000 000 (Bibliothèque Lénine à MOSCOU) ouvrages de tous types !!!

Le premier logiciel élaboré par RIID a pris le curieux nom de « LIBER » Ce nom fut choisi par son créateur en référence à l'une des couches de l'écorce des arbres qui était autrefois récupérée et traitée pour fabriquer les parchemins.

Le logiciel LIBER avait pour vocation d'utiliser la puissance de calcul et de stockage des ordinateurs de l'époque afin de décharger les bibliothécaires de charges longues et fastidieuses.

L'ordinateur ne devait pas remplacer l'homme mais lui permettre de consacrer le plus possible à son métier de bibliothécaire.

Il faut se rappeler que dans les années 80, l'offre en termes de systèmes informatiques était aux antipodes de ce que nous connaissons aujourd'hui.

L'idée des créateurs de LIBER était de créer un produit souple et simple d'utilisation. Après divers essais et tentatives, ce fut le Système PICK nouvellement arrivé en France qui fut choisi et deviendra pendant de nombreuses années le support de création et de développement du logiciel.

La base de données PICK étant totalement orientée « gestion » et intégrant : des index, un langage de requête naturel et un compilateur. Elle permit de créer une application de recherche particulièrement performante pour l'époque. De plus elle permettait de travailler en « multipostes et multi taches» Ainsi il était possible de travailler simultanément à plusieurs utilisateurs.

Pour l'anecdote, à la fin des années 80, plus de 60 % des bibliothèques informatisées dans le monde fonctionnaient sous Système PICK.

Si les premières versions étaient plus destinées aux professionnels gérant le fonctionnement de la bibliothèque, très vite, l'idée de mettre des terminaux ( Ah ! Les fameux écrans à fond noir et couleur de police orange) de consultation à disposition des usagers fit son chemin.

Ainsi il était devenu possible aux usagers des bibliothèques informatisées de rechercher par critères ou thèmes ou de « surfer » (merci le pavé numérique du clavier)

Nous verrons dans la prochaine chronique comment quelques 15 ans plus tard, ces logiciels se sont totalement intégrés dans l'espace du Web.

Mesurer la visibilité

Utilisations possibles du robots.txt

par Damien Guigue
Responsable technique chez Aldeis éditrice de Yooda.com et de seeUrank (logiciel de suivi de référencement).

Damien Guigue



Aujourd'hui nous allons étudier les utilisations possibles du robots.txt. Pour rappel, le robots.txt est un fichier permettant d'interdire l'indexation de pages de votre site. Pour cela nous avons analysé les « interdictions » de crawlage par la commande Disallow sur 5000 robots.txt.

Afin d'avoir une base documentaire suffisante pour nous permettre d'analyser, nous avons récupéré les répertoires interdits par disallow dans 5000 fichiers robots.txt.

Ce qu'il ne faut pas faire

Plus de 10% des robots.txt interdisent l'indexation d'un répertoire /admin ou apparenté ! Ce qui en soit est plutôt inquiétant. En effet, les robots d'indexation ne peuvent indexer un répertoire protégé par un .htacess (par exemple). Si tel est le cas, inutile de le préciser dans le robots.txt . De plus il faut que le robot d'indexation suive un lien pour qu'il découvre une nouvelle page. Il est clair que dans le cas présent, le danger ne vient pas d'un robot, mais plutôt d'un bipède mal intentionné?. Dont le premier réflexe sera d'aller lire dans le robots.txt ce que vous souhaitez cacher.

On retrouve de la même manière des interdictions vers des répertoires /stats/ , /beta/, /backoffice / , etc. . Les recommandations ci-dessus s'appliquent à ce même type de répertoire.

Une autre erreur fréquente consiste à ne pas tenir compte de la case. Ainsi si vous souhaitez interdire l'indexation du répertoire /AcheteR/ ne mettez pas : « Disallow : /acheter/ ». Les robots dans la majorité des cas font la différence entre majuscule et minuscule.

N'utilisez pas des caractères « joker » pour écrire les interdictions dans vos fichiers robots.txt. Nous avons trouvé des interdictions aussi variées et inexactes que :

/*.gif$ ou /*/print/ ou encore /*.doc$

Aucun caractère joker (* , $ ) n'existe pour l'écriture du robots.txt ! Dans le cas de /*.gif$ il est clair que l'objectif était d'empêcher l'indexation des images du site. La solution la plus logique aurait été de créer un dossier /images/ puis d'interdire ce dernier.

A quoi peut vous servir le robots.txt

Utilisé intelligemment, le fichier robots.txt peut vous éviter bien des tracas.

Le plus gros risque consiste en une indexation inutile et consommatrice en ressources serveur. Dans les robots.txt analysées, nous avons trouvé un grand nombre d'interdiction vers des formulaires de recherche. Chose plutôt utile si votre page de résultats propose 20 termes connexes.

Imaginez le nombre de pages que les robots penseront trouver sur votre site?. Un autre exemple d'interdiction intelligent est le blocage des dossiers /cgi-bin/. Nous avons trouvé cette interdiction dans 20% des robots.txt analysées. Le dossier /cgi-bin/ contenant des scripts appelés avec des paramètres il existe un risque important d'indexation superflu.

Certaines pages d'un site ne vous apportent rien en terme de visiteurs. Il est donc inutile de les faire indexer par un robot ! Le cas des forums en est l'exemple même. Ces derniers interdisent fréquemment les pages de profil, postage d'un nouveau message, liste des utilisateurs connectés, etc. En effet la même page pouvant être appelé avec des paramètres différents elle risque d'être indexé un grand nombre de fois. L'intérêt d'une telle indexation est quant à lui nul.

Conclusion

Maintenant que nous connaissons les piéges à éviter et les utilisations possibles, nous pourrons finir la prochaine fois cette étude par une analyse des robots couramment désignés dans les robots.txt. Histoire de connaître ceux à éviter ;)

Humour et Internet

Le bel informaticien

par Frédéric Lepage
« Un crayon, un ordinateur et des idées... Plein d'idées ! »

Frédéric Lepage

Le bel informaticien

Référencement de A à Z

Analyse de notoriété

par Marie Pourreyron
Consultante indépendante en référencement et promotion de site internet et gérante d'Altitude Référencement.

Marie Pourreyron
e-mail
site



On entend souvent parler de notoriété d'un site internet ou de sa popularité. Plus un site est populaire, plus il a de visibilité et donc de chances d'être trouvé et visité par les internautes.

Nous allons voir ce qu'est la notoriété et ce qu'elle apporte à un site Internet

Nous allons reprendre notre site d'exemple : logos-sonneries.biz et analyser sa notoriété grâce à la nouvelle version du logiciel SeeUrank de Yooda.

Définition :
Notoriété : (nom féminin) - Caractère de ce qui est notoire. Renommée.

Dans le secteur Internet la notoriété d'un site est fonction du nombre de liens pointant vers un site et de la qualité de ces liens.

Mais que veut dire "qualité des liens"?

Nous allons répondre par l'exemple : un lien depuis la page d'accueil de Moteurzine (site très connu) est de plus grande qualité qu'un lien depuis un site perso sur l'enfance du chien de votre voisin.

Ce n'est pas tout, si votre site traite du référencement (au hasard ;-)), un lien depuis la page d'accueil d'Abondance sera de plus grande qualité qu'un lien depuis la page d'accueil d'un très grand portail féminin car le traffic drainé sera beaucoup plus ciblé.

Bref, de nombreux paramètres sont à prendre en compte pour vos échanges de liens.

Pourquoi analyser sa notoriété?

Cette analyse permet d'identifier les liens pointants vers votre site (et découvrir éventuellement que des webmasters ont fait un lien spontanément vers votre site) et de suivre le réseau de partenaire que vous avez créé. Cette notoriété permet aussi d'améliorer son classement dans les outils de recherche qui en tiennent compte (c'est le cas de Google et de son fameux Page Rank (c) qui mesure cette notoriété). Enfin, cette analyse permet aussi d'identifier les sites faisant un lien vers vos concurrents, sites succeptibles donc de faire un lien vers votre propre site.

Analyse de la notoriété de http://www.logos-sonneries.biz :

1 - Liste des les URLS référente relevées sur les outils de recherche

Url(s) analysée(s)http://www.logos-sonneries.biz
Outil(s) de recherche -Com- All The Web -Com- Altavista -Com- Google -Com- Hotbot

Liste des les URLS référente relevées sur les outils de recherche

-Com- Altavista

http://www.logos-sonneries.biz
Url: http://www.moteurzine.com/archives/2003/moteurzine89.html
Url: http://www.moteurzine.com/index.html
Url: http://www.topvilles.com/OOsortieW/http://www.moteurzine.com
Url: http://www.ultranet.ee/works/

-Com- Google

http://www.logos-sonneries.biz
Url: http://www.ultranet.ee/works/

-Com- Hotbot

http://www.logos-sonneries.biz
Url: http://www.moteurzine.com/archives/2003/moteurzine89.html
Url: http://www.ultranet.ee/works

Dans ce tableau nous avons la liste des pages référentes (ou back-links) qui ont fait un lien vers le site Logos-Sonneries. C'est utile pour voir si les liens avec qui vous avez échangé un lien l'ont bien mis en place. Attention, le système ne relève que les sites qui sont eux-même présents dans les outils de recherche!

2 - Tableau de synthèse de la notoriété

Url(s) analysée(s)http://www.logos-sonneries.biz
Outil(s) de recherche -Com- All The Web   -Com- Altavista   -Com- Google   -Com- Hotbot   


Tableau de synthèse de la notoriété

Outil de recherche

http://www.logos-sonneries.biz

-Com- All The Web
0
-Com- Altavista
4
-Com- Google
1
-Com- Hotbot
2
Total7
Total Unique5

Moteur par moteur nous voyons le nombre de liens pointant vers notre site. Actuellement le moteur le plus en vogue étant Google, nous voyons que nos échanges de liens sont insuffisants puisque Google ne recense qu'un seul lien pointant vers notre site.

Comment améliorer sa notoriété?

En échangeant des liens, avec des sites partenaires, complémentaires ou dans le même secteur de préférence.

Comment trouver des sites avec qui faire des liens??

Vous pouvez visiter les sites qui font un lien vers vos concurrents directs et demander un échange de liens si cela s'y prête.

Vous avez aussi la possibilité de vous référencer dans les nombreux annuaires thématiques existants. Pour trouver ces outils thématiques, visitez le site Enfin.

Comment identifier les sites concurrents aux miens?

En faisant des requêtes sur vos mots clefs dans les outils de recherche et en visitant les sites les mieux positionnés.

Un logiciel peut vous aider dans cette tâche et la prochaine fois nous identifierons les concurrents directs de Logos-Sonneries.

Enfin, les informations

Vous êtes le responsable d'un moteur ou d'un annuaire ? Vous travaillez dans le référencement ? Communiquez et insérez gratuitement votre actualité ici.

AUJOURD'HUI
ou le monde impitoyable du référencement et des outils de recherche

19/01/2004 : "DeepIndex sur les chapeaux de roue en 2004"
« DeepIndex se lance à l'assault des baromètres et continue sa progression.
Lancé en 2002, le moteur de recherche français progresse de plus en plus rapidement. Plus de 4.000.000 de requetes de recherche ont été réalisé dans le dernier trimestre 2003, et ce malgré les inondations Arlésienne dont le bunker de DeepIndex a été victime par deux fois.
Le mois de janvier est très prometteur d'après les statistiques des 15 premiers jours de cette année 2004, nous escomptons près de 1.500.000 de requetes ce mois, sur l'ensemble de notre Datacenter (10 serveurs) et nous commencons sereinement notre année, malgré un planning de déploiement très chargé dont notament une collaboration avec Misterbot qui doit ce concrètiser ce trimestre.
Dans la foulé Deepindex devrait également augmenter sensiblement sa visibilité internationale dans le 1er semestre avec une indexation dirigé vers les pays anglophones. Nous avons dans notre file d'indexation quelques 18.000.000 de sites internationaux. »
19/01/2004 : "Le référencement : 1ère source de trafic pour les sites Internet, pourquoi ?"
« A mesure que les taux d'abonnement à Internet progressent - l'ART vient de rappeler à ce sujet que le haut débit comptait en France 3,5 million d'abonnés contre 1,7 millions fin 2002 - le potentiel de visite des sites s'accroît aussi sensiblement. Ces visites proviennent de plus en plus de l'extérieur, la popularité de certains sites n'étant pas toujours immédiate.
La revue du référencement a révélé ainsi que pour la première fois de l'histoire du baromètre @position/Mediamétrie-eStat, les accès depuis les moteurs de recherche sont en première position devant les accès par liens et les accès directs. En décembre dernier, les accès provenant des moteurs de recherches (dont les sites Google.fr et Google.com accaparent à eux seuls près de 65 % des visites) ont représenté 34,98 % des visites des sites, les liens externes 34,48 %, et les accès directs 30,54 %. (...) »
18/01/2004 : "Lancement de la Boussole version 2"
La Boussole, un grand classique parmi les annuaires de langue française, vient de sortir sa nouvelle version. Cette nouvelle version utilise le programme de gestion d'annuaire de Netref, de plus, La Boussole propose désormais une recherche geolocalisée (essayer de chercher sur votre département comme (75) sans oublier les parenthèses !), un moteur de recherche interne et aussi une identification de la langue du site.
17/01/2004 : "Sezane, un rajeunissement de la charte graphique"
Sezane.com vient de se voir doter d'une nouvelle charte graphique. Ce design remplace la précédente version, triste, et donne ainsi une nouvelle forme beaucoup plus attractive à cet annuaire généraliste.
Sezane se veut être un annuaire généraliste gratuit destiné aux jeunes et moins jeunes du réseau Internet francophone.
16/01/2004 : "Les blogs à leur tour pollués par le spam"
« Les spammeurs se tournent vers les blogs pour les inonder de messages publicitaires. Un véritable calvaire pour les créateurs de ces journaux personnels, contraints dans certains cas de fermer leur espace de commentaires.
Plusieurs blogueurs viennent de faire l'expérience douloureuse du spamming de leurs sites personnels. Mardi 13 janvier, certains blogs ont reçu plusieurs milliers de commentaires « bidons », composés de textes dénués de sens, mais aussi - et surtout - de liens pointant vers des sites à caractère pornographique ou vendeurs de produits « miracles ».
Le spam de commentaires est apparu à la fin de l'année dernière, dans la foulée de la popularité grandissante des blogs. Mais ces derniers jours indiquent clairement que la méthode est envisagée sinon comme une alternative du moins comme un complément au spam par e-mail. (...) »
16/01/2004 : "Bagarre de moteurs en vue sous le capot d'Internet"
« Pour Google, l'archi-populaire outil de recherche sur Internet, 2004 doit être l'année de son introduction en Bourse. Elle devrait aussi marquer la fin de sa domination sans partage sur le secteur.
On surfe de moins en moins sans moteur. Une récente étude du cabinet a montré cette semaine que les outils de recherche ont été l'origine d'un gros tiers des visites sur la toile au mois de décembre en France. Les moteurs type Google sont même désormais la première des trois grandes sources d'acquisition de trafic sur Internet, dominant légèrement le recours aux liens externes et les accès directs (saisie directe de l'adresse, favoris, liens contenus dans des courriels). (...) »
16/01/2004 : "Lycos France boucle sa réorganisation"
« Après plusieurs semaines de flottement, Lycos France parachève sa nouvelle organisation. Le portail a traversé un dernier trimestre 2003 plutôt mouvementé : Alexandre Roos et Christophe Schaming, deux des trois co-fondateurs de Caramail (qui occupaient respectivement les fonctions de directeur général et directeur technique de Lycos France), ont quitté la société. A ces départs ont succédé des arrivées : celle de Fabrice Leclerc, au poste de directeur commercial, a été officialisée la semaine dernière. Alexandre Dreyfus, fondateur du city guide Webcity (revendu à CityVox), a, lui, pris les fonctions de directeur du portail. Orianne Garcia, la seule rescapée de l'équipe "historique" de Caramail, garde en revanche les commandes du marketing. »
15/01/2004 : "Google : plus de 50% du trafic généré par les recherches au Québec en 2003"
« En 2003, Google a généré 52% des visites sur des sites québécois provenant d'outils de recherche. Les autres outils les plus générateurs de trafic ont été MSN et Yahoo! (17% chacun), suivis de la Toile du Québec (5%) et Sympatico (4%).
Ces chiffres sont tirés du nouvel IndiceDr, lancé aujourd'hui par les firmes montréalaises Marigny Solutions Internet et Rebelles.com. L'IndiceDr vise à identifier d'où vient le trafic des sites québécois généré par des outils de recherche. Il est mesuré à partir des statistiques compilées par Marigny sur plus de 100 sites québécois utilisant son outil D-stat. (...) »
15/01/2004 : "Le rachat d'Overture booste les résultats de Yahoo"
« En intégrant Overture à ses comptes, le groupe internet Yahoo affiche un bénéfice et un chiffre d'affaire trimestriels en hausse respectivement de 62% et 132 %
Près de 10 ans après sa création par Jerry Yang et David Filo, Yahoo n'a décidemment plus rien d'une start-up. Désormais dirigée par Terry Semel, le groupe internet affiche une bénéfice de 75 M$ et un chiffre d'affaire trimestriels de 663,9 M$, en hausse respectivement de 62% et 132 % par rapport au quatrième trimestre de l'année précédente. (...) »
13/01/2004 : "Les mots-clés les plus tapés en 2003"
« Le classement des mots-clés les plus demandés sur MSN, Google et Yahoo France, sur l'ensemble de l'année 2003, gomme logiquement les requêtes les plus saisonnières. Sur le portail MSN, le classement annuel apparaît ainsi plus généraliste qu'à l'accoutumée avec beaucoup de noms communs comme "météo, "immobilier" et "emploi". Sur Google, le moteur le plus utilisé en France, les noms communs et les thèmes saisonniers laissent au contraire la place à six noms d'entreprises, deux noms propres, un titre de film et un titre d'émission télévisée. (...) »
13/01/2004 : "Les moteurs de recherche, 1ère source d'acquisition de trafic sur internet"
« Les moteurs de recherche ont été à l'origine de 35% des visites de sites internet en décembre 2003, devenant la première des trois grandes sources d'acquisition de trafic sur internet, selon le panorama mensuel Médiamétrie-eStat et @position publié lundi.
Le trafic généré par les moteurs de recherche a augmenté de 3 points en décembre 2003 par rapport à novembre 2003, ont annoncé Médiamétrie-eStat et @position dans un communiqué.
"La forte progression du trafic généré via les moteurs de recherche leur permet de passer en première position" du classement des trois grandes sources d'acquisition de trafic sur internet, selon Médiamétrie-eStat et @position.
Après les moteurs de recherche, les deux autres principales sources d'acquisition de trafic sur internet sont les liens externes, à l'origine de 34,5% des visites en décembre, et les accès directs (saisie directe de l'adresse internet, favoris et les visites générées à partir d'un lien sur un e-mail), qui ont généré 30% des visites en décembre. (...) »
12/01/2004 : "Internet à l'âge de la croissance"
« (...) Depuis quelques mois, la rumeur agite la Silicon Valley : selon le Financial Times, Google aurait prévu son entrée en Bourse pour le printemps. Le moteur de recherche qui réalise 75 % des requêtes sur le Net serait valorisé entre 15 et 25 milliards de dollars. Soit 30 à 50 fois son chiffre d'affaires (estimé) ! Impensable pour une société d'à peine 5 ans ? Pas tant que ça au regard des valorisations boursières des autres stars du Net Made in USA. L'e-commerçant Amazon vaut plus de 21 milliards de dollars au Nasdaq - donc plus que PPR ; le portail Yahoo ! dépasse 24 milliards ; et le site d'enchères eBay, champion toutes catégories, atteint 35 milliards de valorisation - plus que Carrefour ! (...) »

LES ARCHIVES
ou il y a un an, l'actualité du moment

09/01/2003 : "Tim Koogle, l'ancien PDG de Yahoo!, échoue dans sa reconversion"
Tim Koogle, l'ancien PDG de Yahoo!, a rejoint la société Entise Systems, créé en octobre 2001. Cette société a pour objectif de construire des serveurs ultra rapide autour de Java. Différents fonds d'investissement américains ont mis pour 14,7 millions de dollars dans Entise Systems en février 2002. En novembre 2002, après avoir dépensé 3 à 4 millions de dollars, Entise Systems a licencié ses 26 employés et s'est séparé de ses bureaux, en Californie. Comme dit un des fondateurs, "Officiellement, la société existe toujours. Il y a juste personne qui travaille pour elle."
Les outils de recherche francophones
Conclusion

ATTENTION
La liste des abonnés n'est pas disponible. Nous ne la donnons ni ne la revendons à personne. En revanche, vous pouvez sponsoriser notre lettre d'information : contactez-nous pour discuter des modalités.

 
 

Abonnement gratuit à « Moteurzine »


 
 
 
 
 

Désinscription de « Moteurzine »


 
 
 
© 1999 à 2004 par IDF.net