Google acquiert l'outilleur de programmation PeakStream

Google a acquis PeakStream, une mise en train qui vend des outils pour l'inscription du logiciel qui peut tirer profit des processeurs multinucléaires aussi bien que des graphiques et des morceaux de jeu.

De plus nouveaux ordinateurs contiennent les processeurs avançés, mais c'est souvent un défi pour écrire le logiciel qui peut ouvrir cette puissance. PeakStream et concurrent RapidMind travaillent sur juste ce problème.

Le logiciel le plus souvent est conçu pour fonctionner d'une mode linéaire sur un noyau de traitement simple, mais les morceaux multinucléaires peuvent manipuler deux ou plus charge simultanément. En même temps, des morceaux de graphiques approprié de plus en plus pas simplement à dessiner des scènes raffinées de jeu vidéo ou des renderings architecturaux, mais également à la programmation d'usage universel aussi bien.

Et des ordinateurs ordinaires peuvent être parés vers le haut avec des morceaux de jeu tels que le morceau à bande large de moteur de cellules codéveloppé par IBM, Sony et Toshiba. Une telle programmation charge sont difficile ; IBM a libéré un projet de recherche appelé Octopiler pour essayer de faciliter la cellule de programmation, par exemple.

L'intérêt de Google pour une telle technologie est logique. La compagnie court des milliers de serveurs et est préoccupée par obtenir l'utilisation maximum hors de chacun. Intel a conçu des serveurs en fonction du client pour satisfaire des demandes rigoureuses de puissance-efficacité, par exemple. Google emploie également les nombreux programmeurs qui ont un intérêt pour des sujets tels que les compilateurs qui convertissent le code source écrit par des humains en instructions binaires un ordinateur comprend.

Le cadre supérieur Neil Knox de PeakStream a autrefois couru le x86 des microsystèmes du soleil et les affaires de serveur de Sparc de bas-extrémité.

Comme Google et soleil, PeakStream a également des racines d'université de Stanford. Son logiciel a commencé comme projet de ruisseau chez Stanford par professeur Pat Hanrahan, le co-fondateur de la compagnie et scientifique en chef. L'autre co-fondateur de compagnie est le dirigeant en chef Papakipos mat, qui de technologie était architecte de fil pour GeForce de Nvidia 6 séries de morceaux de graphiques, également connues sous le nom de produits de NV4X. Varun Mehta, autrefois d'appareil de réseau, est vice-président de la technologie.

Les limites de l'affaire n'ont pas été révélées.



source : ZDNET.COM

pinger les moteurs et en particulier google et yahoo

Comment referencer un site grace aux pings?


qu'est que le ping?

Le ping est une facon, en gros de dire a un moteur que vous avez publier quelque chose d'interessant pour etre referencer un peu plus vite.

En d'autre termes, si vous diffusez des flux RSS sur votre site ou encore sur un blog, il est bon de prevenir les moteurs que vous venez de rajouter du contenu!

Vous vous ferez indexé sur yahoo en 48H si vous suivez cette methode:
-vous creez une page perso yahoo!!!! en vous enregistrant et creant votre compte
-vous ajouter un flux RSS a votre site ou vous creez un blog 'par exemple blogger.com

il vous est possible sur votre page yahoo d'integrer un flux RSS portant sur differents thèmes!
ici nous allons soumettre notre flux ou celui de notre blog sur notre page perso yahoo!
les liens vers vos messages seront presents sur votre page yahoo

faites de même avec Google

y êtes vous?

bon
sur votre blog a present:

ecrivez un message en y mettant un lien vers votre site!

ensuite utilisez ces deux adresse ci-dessous et faites savoir que votre blog ou site contient un nouveau message.

Yahoo :

http://api.my.yahoo.com/rss/ping?u=http://votre site.com

Google :

http://blogsearch.google.com/ping (inscrivez l'adresse de votre site dans le rectangle)

bon vous avez fait votre première requete pour les moteurs!

Vous souhaitez etre indexé en 48 H sur Yahoo!

et bien publier un message toute les 3 Heures pendant deux jours en y faisant des requetes sur les moteurs a chaque fois!

il n'est pas essentiel de pinger les moteurs toutes les deux secondes, votre requete sera d'ailleurs rejetée par les moteurs!

ps: laissez des liens trainaient dans vos messages vers votre site.

Voila votre site devrait etre present dans yahoo en 2 jours maxi

Titom

Les publicités de Google bientôt dans les fils RSS de FeedBurner

En reprenant l'agrégateur de flux RSS, l'ogre du Web entend augmenter la visibilité de son offre publicitaire sur blogs et podcasts.

Philippe Crouzillacq , 01net., le 05/06/2007 à 18h20

Et une start-up de plus dans la hotte de Google ! Après le rachat monstre du spécialiste de la publicité en ligne DoubleClick au mois d'avril, après l'acquisition en l'espace d'une semaine de Panoramio (site de partage de photos), de GreenBorder Technologies et de 23andMe (analyse de l'ADN), l'ogre de l'Internet s'offre cette fois FeedBurner.

Cette société créée à Chicago en 2003 était rapidement devenue l'une des références en matière d'agrégation de flux RSS (Really Simple Syndication). Cette technologie, aujourd'hui très répandue chez les blogueurs et disponible sur la plupart des grands sites d'information, permet aux internautes de se tenir au courant en temps réel des mises à jour postées sur un site Web, un podcast ou un blog.

Près de 67 millions d'utilisateurs

Au début du mois de mai, FeedBurner, en icône du Web 2.0, accueillait les flux de plus de 400 000 éditeurs de contenus en ligne et revendiquait près de 67 millions d'utilisateurs. Pour Google, son acquisition revêt un intérêt multiple. Le groupe de Mountain View s'ouvre ainsi un grand boulevard pour diffuser les publicités contextuelles de son service Google AdWords dans les flux RSS, les blogs et les podcasts.

Pour les annonceurs, à moyen terme, ce nouveau périmètre de diffusion de leurs publicités est la garantie d'une meilleure visibilité, et côté Google, cet ajout d'importance devrait logiquement entraîner une augmentation significative de son chiffre d'affaires.

« Nous voulons donner aux annonceurs qui passent par AdWords une plus grande diffusion pour une audience encore plus large », confirme Susan Wojcicki, vice-présidente de Google, sur son blog. Selon le site spécialisé TechCrunch, le montant du rachat avoisinerait les 100 millions de dollars.

google et les noms de domaine

Le site Abondance vient de sortir une étude nommée "Nom de Domaine et référencement", disponible au format PDF, dont la première partie a été conçue pour répondre à de nombreuses questions sur la meilleure façon de choisir son nom de domaine et ses intitulés d'urls (nom de domaine, sous-domaine, répertoire, nom de fichier) dans le cadre d'une stratégie de référencement efficace. L'ambition de cette étude est de répondre aux questions suivantes :
- Faut-il opter pour un .fr, un .com ou un .info ?
- Faut-il séparer des noms composés par un tiret dans un nom de domaine ?
- Est-il risqué d'acheter de nombreux noms de domaines pour son référencement ?
- Quelle est l'importance de la présence d'un mot clé dans l'url pour les moteurs ?
- Pourquoi les sous-domaine (motclé.votresite.com) sont-ils si importants pour la visibilité d'un site dans les résultats des moteurs actuels ?
- Comment créer des sous-domaines ?
- Le choix de l'hébergeur est-il primordial ?
- Quid des noms de domaine accentués (IDN) ?
- Comment changer de nom de domaine pour son site sans perdre les acquis de référencement ?
- Etc.

La deuxième partie présente une étude statistique basée sur l'analyse de plus de 5 000 liens renvoyés par chacun des trois moteurs majeurs (Google, Yahoo!, Microsoft Live Search) pour obtenir des informations chiffrées fiables sur l'importance de la présence de mots clés de recherche dans les urls (noms de domaine, sous-domaine, nom de répertoire, nom de fichier) de façon isolée (exemple : immobilier-paris.com) ou concaténée (immobilierparis.com).

Cette étude statistique montre par exemple de façon claire l'importance de la présence du mot clé dans le nom de domaine d'un site, notamment pour des requêtes sur un mot clé générique :




Ainsi, sur ce type de requête, un tiers des résultats contiennent le terme demandé dans le nom de domaine sur Google et plus de 45% sur Microsoft Live Search ! Une paille !

De la même façon, la présence dans le nom de fichier (exemple : www.votresite.com/repertoire-1/repertoire-2/nom-de-fichier-contenant-un-mot-cle.html) du ou des mots clés composant la requête semble très prisée des moteurs :




Les résultats sur un seul mot clé ci-dessus sont quasi-similaire sur les requêtes à deux mots clés. Là encore, on voit bien l'intérêt de définir au mieux ses urls, depuis le nom de domaine jusqu'au nom de fichier...

Google continue les améliorations de son moteur de recherche

Plus le temps passe, et plus Google se montre surprenant, tant dans les initiatives qu’il prend, que dans les rachats qu’il effectue. De Google Earth à la copie numérique de livres, en passant par la modélisation de Madison Avenue, ou la diffusion de vidéos, Google est sur tous les terrains, essayant par ailleurs de stopper la domination logicielle de Microsoft avec sa suite d’outils gratuits Google Docs & Spreadsheets.

Et pourtant, Google reste un moteur de recherche. Ses pages de recherche, ses hyperliens bleus réglés sur un doux fond blanc, ont fait de lui le site le plus visité, le plus profitable et indiscutablement l'entreprise la plus puissante d’Internet. Google est l’outil d’aide par excellence, capable de donner des réponses improbables à des millions d’utilisateurs dans le monde en un clin d’œil.

Mais parfois, l’utilisateur ne parvient pas à trouver ce qu’il recherche exactement. C’est pourquoi des centaines d’ingénieurs de chez Google triturent constamment le moteur de recherche afin qu’il puisse répondre au mieux aux demandes des utilisateurs. Ainsi, le géant de Mountain View est devenu le champion du « search quality » (qualité de la recherche, ndlr), un endroit qui compte des milliards de données classées que Google conserve comme un secret d’Etat. Très peu de personnes non habilitées sont autorisées à rentrer dans cette partie cruciale pour Google.

« La première valeur ajoutée de Google est son classement » explique John Battelle, le président de Federated Media, un réseau de blogs, et auteur de « The Search », un livre consacré au géant de la recherche. « Google est devenu le souffle vital d’Internet » continue John Battelle, « chacun se doit d’y appartenir ».

Ainsi, Google continue son évolution concernant la recherche, améliorant de jour en jour son outil.



Publié le lundi 4 juin 2007 (Archivé le mercredi 4 juillet 2007)
Ecrit par Emilien Ercolani

Google rachète le spécialiste des fils RSS FeedBurner

Le géant internet met la main sur FeedBurner ce qui lui permettra de pouvoir placer des publicités sur des blogs, podcasts et fils d'informations en continu. Selon la presse spécialisée Google aurait dépensé 100 millions de dollars pour cette nouvelle opération de croissance externe.

Google multiplie les acquisitions ces derniers jours. Jeudi, il a annoncé jeudi le rachat du site espagnol de partage de photos Panoramio, qui étiquette des centaines de milliers de photos réalisées par les internautes avec leurs coordonnées géographiques exactes. Mercredi, c'était le rachat de du spécialiste des logiciels de sécurité GreenBorder Technologies, pour développer ses services antivirus et antilogiciels espions fournis aux internautes.La semaine dernière, il a investi dans une start-up spécialisée dans l'analyse de l'ADN 23andMe. Sans oublier, à la mi-avril l'opération à 3,1 milliards de dollars pour racheter la société de publicité en ligne DoubleClick, raflée à Microsoft qui était aussi sur les rangs

En fin de semaine Google a remis le couvert: il a annoncé vendredi le rachat de Feedburner, ce qui lui permettra de pouvoir placer des publicités sur des blogs, podcasts et fils d'informations en continu. FeedBurner, groupe créé en 2004 et basé à Chicago, permet aux créateurs de contenus --blogs, podcasts, sites d'informations-- de publier sous le format RSS (Really Simple Syndication).

FeedBurner, dont les fils d'informations en continu RSS ont des millions de lecteurs, offre aussi la possibilité aux annonceurs d'utiliser pour leurs publicités ce nouveau type de support, de plus en plus utilisé sur internet. "Nous recherchons constamment des moyens d'identifier et d'offrir de nouveaux outils aux créateurs de contenus et éditeurs de site", a commenté la vice-présidente de Google chargée des produits, Susan Wojcicki, cité dans un communiqué.

"Egalement, nous voulons donner aux annonceurs qui passent par Adwords (système de vente de mots-clés pour placer des publicités contextuelles, ndlr) une plus grande diffusion pour une audience encore plus large", a-t-elle ajouté sur le blog officiel du groupe. Aucun détail financier n'a été dévoilé, mais selon la presse spécialisé, le prix pourrait tourner autour de 100 millions de dollars.

latribune.fr

Google m'explique

Qui n'a pas eu la chance d'avoir un employé de google pour lui repondre!

je dois etre un des rares a qui ils ont pris le temps de repondre, ne serait ce que brievement!


  • puces
  • ancres
  • balises h au lieu de mettre en gras
  • balise keywords
autant d'elements a prendre en consideration lorsqu'on veut optimiser son site web!

j'ai eu la chance de recevoir une reponse a un message que j'avais envoyé a google

on peut dire que j'ai eu de la chance!

dementi

beaucoup de pro du referencement diront que la fameuse balise keywords n'est plus utilisée par le moteur de recherche favori

c'est faux, seulement, il y a des precautions a prendre pour que ce soit lu et retenu par le moteur

google s'ameliore et compte les virgules dans la balise qui separe les mots clé!

les petits crawls sont aujourd'hui a jour et compte jusqu'a 5 mots clés!

si vous en mettez plus, le moteur l detecte et ne prends donc pas en consideration votre balise!

sachant qu'un site doit faire plusieurs pages, il fait aussi un rapport sur les mots clés des autres pages

alors attention a ne pas faire de copier/coller!

les puces ci dessu sont elles aussi très prise en consideration mais la je ne vous apprend rien!

du contenu, encore du contenu et toujours du contenu

Titom

Choisir un prestataire de référencement

Le site Abondance vient de sortir une étude nommée "Choisir son prestataire de Référencement", disponible au format PDF, dont la première partie a été conçue pour répondre à de nombreuses questions sur la meilleure façon de mener à bien un projet de référencement. L'ambition de cette étude est de répondre aux questions suivantes :
- Faut-il internaliser ou sous-traiter un projet de référencement ?
- Que puis-je faire en interne et que vaut-il mieux externaliser ?
- Combien coûte un référencement ?
- La sous-traitance est-elle plus rentable que l'internalisation de l'activité ?
- Où trouver un prestataire dans ma région ?
- Un référencement gratuit est-il intéressant ?
- Quels sont les critères de choix d'un prestataire de référencement ?
- Quelles garanties un référenceur peut-il proposer ?
- Existe-t-il des chartes de déontologie et si oui, quelles sont-elles ?
- Etc.

La deuxième partie présente un contrat-type de référencement entre une société cliente et un prestataire. Ce contrat, commenté pour mieux vous aider à le comprendre et à l'adapter, a été conçu par Murielle Cahen, avocate et éditrice du site www.murielle-cahen.com. Il ne vous restera plus qu'à adapter ce contrat à vos besoins et attentes pour avoir en quelques instants un document prêt-à-l'emploi...

Un descriptif détaillé (présentation, FAQ, sommaire, etc.) de l'étude est disponible à l'adresse :
http://etudes.abondance.com/prestataire-referencement.html
Elle peut être commandée sur la Boutique Abondance, au prix de 24,90 euros HT.

Les chiffres du jour

Les chiffres du jour

StumbleUpon confirmé acheté par eBay: rumeur à $75M, pas cher au regard de l'audience et des investisseurs initiaux comme Ram Shiram (il était dans Google dès 1998 le monsieur).

NewsCorp rachète PhotoBucket pour $250M, un peu cher pour un site qui permet notamment à ses utilisateurs de publier des clichés et des vidéos en ligne puis de les afficher sur un autre site en quelques clics. 60% du trafic du site vient de MySpace, fallait bien s'assurer de garder en main la source pour le propriétaire de MySpace. Photobucket aurait 15 millions de visiteurs uniques par mois.

CBS rachète LastFM pour $280M, un site qui permet de partager ses goûts musicaux et videos. 15 millions d'utilisateurs actifs, ça fait 18 dollars le user.

Alors...quand est-ce que vous montez votre start-up mes amis ! au lieu de perdre du temps à lire mon blog ;-)

un nouvel annuaire

Bonjour a ceux qui vont me lire!

nous savons tous qu'un bon referencement passe par les backlinks ( ces liens des autres sites vers le notre)

j'ai un projet de site de contenu divers avec des liens sur des mots clé afin de creer une sorte d'annuaire avec du contenu et des liens textes!

si vous avez des commentaires a donner n'hesitez pas a poster je suis preneur de toute solution

a savoir que rediger du contenu va etre long et un site sur plusieurs thematique peut amener une certine confusion aux moteurs de recherche!

Titom

Que peut faire Microsoft pour contrer Google ?


L'éditeur que chacun redoutait il y a encore dix ans semble avoir trouvé plus malin et plus vivace que lui : Google. Le moteur de recherche est devenu un géant et menace de s'emparer du gâteau publicitaire d'Internet. Pourtant, le numéro un du logiciel conserve bien des atouts. Il s'apprêterait à passer à l'offensive en s'offrant Yahoo.


Durant les années 1990, un chercheur américain nommé Karl Sims avait réalisé une étonnante simulation de l'évolution. Des formes de vie créées de manière aléatoire venaient à s'affronter, chaque génération tentant de synthétiser le meilleur des survivantes. Une scène avait frappé de nombreux spectateurs de la démonstration projetée au festival Imagina. L'une des formes, quasi invincible, était devenue si énorme qu'elle écrasait de sa masse tout opposant éventuel. Mais ce gigantisme avait fini par atteindre ses limites en rendant difficile ses mouvements. Le titan s'était alors retrouvé confronté à une petite créature sautillante, suffisamment rapide pour qu'on ne puisse l'anéantir en se renversant dessus. La bestiole espiègle avait alors entrepris d'épuiser le géant par des attaques si véloces que le molosse ne parvenait pas à se défendre.
Nous avons là une étonnante métaphore de la situation que subit actuellement Microsoft. Fort de sa domination implacable dans les domaines du système d'exploitation et de la bureautique, la société de Bill Gates a longtemps paru insurmontable. Si un concurrent se mettait sur son chemin, même s'il avait pour nom Lotus, Novell ou Netscape, Microsoft était en mesure de le réduire à néant.

La menace de l'arme Windows

Comme l'a dévoilé le fameux procès de 1998 intenté par le gouvernement américain, Microsoft usait notamment d'une arme efficace : la menace d'une rupture du contrat de licence de Windows. En juin 1996, le constructeur Compaq, qui désirait remplacer Internet Explorer par Netscape Navigator sur ses ordinateurs Presario, s'était ainsi vu rappeler à l'ordre. Idem pour Gateway et autres Micron. Et pourtant... Microsoft avait finalement échappé aux sanctions judiciaires. En octobre 2001, la juge Colleen Kollar-Kotely avait opté pour un accord à l'amiable, conformément aux souhaits de la nouvelle administration au pouvoir. À cette époque, il pouvait sembler que rien ne pourrait terrasser le n°1 du software.

Le géant a pourtant pris de l'embonpoint et il est devenu vulnérable aux assauts d'un moucheron qui depuis trois ans, le harcèle sans relâche. Né en 1998, Google n'a aucunement inquiété Microsoft durant son ascension discrète mais efficace des années 2000-2003, une période marquée par un e-krach qui avait terni l'image des start-up d'Internet.

google domine toujours les moteurs

Le géant américain annonce que son moteur a réalisé 3.8 milliards de recherches pour le mois d'avril, soit une progression de 42% par rapport aux résultats de l'an dernier

Publicité

D'après une étude publiée par Nielsen/NetRatings, Google peut revendiquer 55% des recherches sur le Net aux Etats-Unis.

Son principal rival, Yahoo! est assez loin derrière, avec 1.5 milliard de recherches.

A eux deux, ils occupent largement le marché de la recherche: sur le mois d'avril, ils ont généré pas moins des trois quarts des recherches lancées depuis leurs sites.

Du côté de Microsoft, le bilan est moins gai. Son service MSN/Windows Live arrive en troisième position de ce classement avec 612 millions de recherches.

Un résultat qui confirme bien que la part de marché de Microsoft s'effondre littéralement depuis plusieurs mois. Début janvier la direction de Microsoft a d'ailleurs vivement critiqué en interne cette mauvaise performance et pris des mesures en conséquence.

Ce 18 mai 2007, Google s'est donné les moyens de renforcer encore sa domination du marché de la recherche en présentant une nouvelle évolution de son moteur baptisé 'Google Universal Search'. Avec ce service l'internaute retrouvera sur une seule page les résultats des sites Web, des actualités, des livres, des vidéos et des images.

Ce changement va permettre au géant américain du "search" de générer plus de trafic vers son site d'agrégation d'actualités: Google News. Rappelons que Google détient également YouTube.

D'après Marissa Mayer, vice-président de la recherche et de l'expérience utilisateur chez Google, "le but ultime du moteur de recherche universel et d'apporter une réponse rapide à un maximum de questions."

Récemment Google a revisité son service de personnalisation de sa page d'accueil avec le service iGoogle. Un lancement qui a malheureusement été marqué par un incident sérieux, ayant provoqué une importante perte de données.

adieu les spammdexeurs, fini la triche

Les équipes de développement de Google portent une partie de leurs efforts sur des outils logiciels permettant au moteur de recherche de scruter chaque page à la recherche de malwares en tous genres, et de lui affecter un score de dangerosité.

L’outil en question, MapReduce applique d’abord une analyse heuristique en vue d’identifier les pages essayant d’utiliser des failles connues. Le Javascript est interprété, les iframes suivies et tout accès à un site déjà connu pour héberger des malwares vient augmenter le degré de suspicion. Sur plusieurs milliards de pages à analyser, MapReduce permet ainsi de n’en garder que quelques millions.

Sur ces quelques millions d’URL suspectes, Google applique la deuxième étape : des navigateurs exécutés sur des machines virtuelles vont les visiter automatiquement. Il est alors facile d’y détecter l’exécution de nouveaux processus, des accès à la base de registre ou au système de fichiers. Ces comportements, vraisemblablement occasionnés par des malwares installés par des sites testés, selon la méthode dite du « drive-by-download » augmentent ainsi le score de dangerosité attribué à l’URL visitée.

L’utilisation de ces outils permet d’ores et déjà d’identifier dix à trente mille URL dangereuses chaque jour.

Paternalisme, prévention ou délation ?

Difficile de se faire un avis, mais ce qui est sûr c’est que la mention « site potentiellement dangereux » aura à coup sûr de effets dévastateurs sur la popularité d’un site, qui se retrouverait non seulement pointé du doigt mais certainement de facto mis au ban. Il s’agit maintenant de ne pas produire de faux positifs ...

seminaire google

le 31 mai 2007
Google souhaite aider les développeurs à toujours construire de meilleures applications. C’est dans cet esprit que nous avons créé les APIs et les outils qui vous permettent d'optimiser rapidement vos applications, de les intégrer avec des produits Google et ainsi d'atteindre des millions d'utilisateurs.

Et c'est également pour cette raison que nous organisons le Google Developer Day. Pour vous développeurs, le Google Developer Day représente l’opportunité de rencontrer les équipes d’ingénieurs et de développeurs à l’origine des produits Google. Elle sera également l'occasion d'acquérir de nouvelles connaissances, en vous initiant, par exemple, aux données Gdata ou en vous immergeant dans le format KML.

Que vous vous soyez déjà attelé à l'écriture d'une application AJAX avec les outils Google Web Toolkit, à l'intégration de services Google par le biais de GData ou à la création d'applications géospatiales à l'aide de Google Maps, nous sommes sûrs que vous découvrirez, lors du Google Developer Day, de nouveaux outils utiles à vos futurs projets.

Agenda
Notre programme nous promet à tous de passionnantes discussions techniques au cours de cette journée.
13:00 - 14:00 Accueil et inscription aux sessions d’ateliers
14:00 - 14:30 Discours d’introduction
14:30 - 15:30 Session d’ateliers – 1
15:30 - 16:30 Session d’ateliers – 2
16:30 - 17:00 Pause Café
17:00 - 18:00 Session d’ateliers – 3
18:00 - 19:00 Session d’ateliers - 4
19:00 - 20:00 Vidéoconférence mondiale avec Mountain View (Californie)
20:00 - 21:00 Cocktail de clôture

Information sur le contenu des sessions
Nous travaillons en ce moment même sur le contenu détaillé de nos ateliers, mais nous pouvons déjà vous assurer qu’ils vont satisfaire votre curiosité. Nous aurons entre autres des sessions avec les équipes de Google Maps, Google Earth (KML), GData APIs, Gadgets, AJAX APIs, Google Mobile.

Lieu
Encore secret...!

Google aborde la recherche universelle

Google a annoncé la mise en place d’une nouvelle version de son célèbre moteur de recherche baptisé « Universal Search ». Une fonction qui regroupera côte à côte pages web, articles de presse, vidéos, livres, images ou encore informations à caractère local.

« Universal Search » se résume en fait à regrouper les recherches sur tous les services et sites indexés par Google. Ainsi, une recherche donnera accès aux résultats issus de YouTube, Google Video ou encore de sites indépendants tels que Metacafe.com par exemple. Mais aussi les services de cartographie (Google Maps), les blogs, photos, livres (via Google Book Search) et donner tous les résultats sur une seule et même page.

Pour le moment, seule la version américaine du moteur est équipée de cette nouvelle fonctionnalité, mais devrait être prochainement généralisé par le géant de la recherche sur le Web.

Google a également annoncé l'introduction sur l'ensemble de ses pages de nouveaux onglets de navigation permettant aux utilisateurs de passer rapidement d'un service à un autre।

Publié le vendredi 18 mai 2007 (Archivé le lundi 18 juin 2007)
Ecrit par Emilien Ercolani

Un moteur qui mange tout

Vous rêviez d'une page d'accueil simple, qui regroupe à la fois Google, YouTube, MetaCafe, Google Earth, Google Video, etc. ? Google l'a fait. Cela s'appelle Universal Search. Et cela pourrait marquer la fin du «search engine marketing».

«Recherche universelle» : l'expression, aussi ambitieuse qu'elle paraisse, résume bien l'intention des deux fondateurs de Google. Sergey Brin et Larry Page viennent en effet de connecter leur groupe entier sur une même page d'accueil. Les résultats de chaque recherche se déclinent désormais en sites Web, images, vidéos, actualités, cartes, e-mail (Gmail), blogs, livres, calendriers, etc.

Bref, après plus de deux ans de travail, la «pieuvre Google» a rassemblé ses tentacules sur www.google.com. Pour certains analystes, la démarche n'est pas qu'une évolution naturelle (et pour tout dire prévisible) du n° 1 mondial des moteurs de recherche. En agissant ainsi, «Google n'a pas fait de ravages que parmi les internautes et les sites Web, mais aussi dans l'industrie marketing de la recherche en ligne», écrit ainsi la consultante Donna Bogatin sur son blog.

Elle voit, dans l'Universal Search de Google, une sorte de dilution des résultats de recherche। Car - et elle cite Eric Schmidt, le CEO de Google himself - le géant de la recherche on-line admet déjà ne pas forcément fournir les résultats de recherche les plus fiables possible. Même si Schmidt nuance aussitôt : «Je ne suis pas certain qu'il existe une grosse confusion à ce propos. La plupart des gens avec qui je discute comprennent que Google n'est pas une 'machine de vérité' et ne prétend pas l'être. Nous faisons du mieux que nous pouvons.»

Or, avec un moteur de recherche qui s'étend de plus en plus, englobant désormais les espaces personnels de MySpace, les vidéos de Google Video, les cartes de Google Earth, les blogs de Blogger, etc., le risque est grand, pour Donna Bogatin, de voir imploser un modèle de recherche basé sur la pertinence. A ses yeux, la question se pose en termes simples : comment peut-on encore prétendre donner des résultats fiables lorsque tant de données aussi disparates se mélangent ? Et d'appeler, carrément, les webmasters à se passer de Google...

Si ses propos paraissent sans doute un peu catastrophistes, ils méritent qu'on s'y attarde quelque peu. En attendant, peut-être, que Yahoo! et Microsoft lancent leurs propres Yahoo! Universal et MSN Universal.

Vincent Degrez

google et sa première page!!

Une étude récemment dévoilée par Jupiter Research / iProspect indique une forte évolution, depuis plusieurs années, dans le comportement des internautes lors d'une recherche d'information.
En novembre 2002, ils étaient 48% à s'arrêter à la première page de résultats (les 10 premiers liens proposés) fournis par les moteurs. En avril 2006, ils seraient 62%, soit une augmentation de 14% ! De même, les utilisateurs qui ne regardent que la partie haute de cette page (celle qui est "au dessus de la ligne de flottaison") est passée de 16% à 23% dans le même laps de temps. Enfin, seuls 10% des internautes vont au delà de la 3ème page de résultats alors qu'ils étaient 19% il y a quatre ans...
L'étude indique également que, lorsqu'il ne trouve pas une réponse à sa recherche initiale, l'usager du moteur rajoute des mots à sa requête dans 82% des cas (68% en 2002)... Seuls 13% changent de moteur. Et à la question "le fait qu'une société soit listée parmi les premiers résultats signifie qu'elle est l'un des leaders du secteur", seuls 25% des sondés ne sont pas d'accord... L'étude complète est disponible au format PDF à l'adresse :

http://www.iprospect.com/premiumPDFs/WhitePaper_2006_SearchEngineUserBehavior.pdf

google analytic remodelé

Nouvelle version de Google Analytics

Google Analytics a été remodelé pour vous permettre d'en apprendre encore davantage sur vos visiteurs, sur leur provenance et leur comportement sur votre site.

Découvrez. Partagez. Agissez.

La nouvelle mouture de Google Analytics vous ouvre la voie pour améliorer vos résultats sur Internet. Grâce à ce service, rédigez des annonces efficaces, renforcez vos initiatives marketing et créez des sites Web générateurs de nombreuses conversions. Google Analytics est un service gratuit pour tous les annonceurs, les éditeurs et les propriétaires de sites.

google groups

Le site Google Groupes, qui permet d'effectuer des recherches dans les groupes de diffusion Usenet dispose maintenant d'un système de profils et de notation (de 1 à 5 étoiles) des messages postés par les internautes. Le tout dans une interface qui rappelle de plus en plus celle de Gmail...

Google recrute sa première bibliothèque francophonepar Karine Solovieff, 01net.


Le projet de bibliothèque numérique du moteur de recherche va s'enrichir de 100 000 titres en français, allemand et italien grâce à un partenariat avec la bibliothèque de Lausanne.

La culture européenne prend de l'importance dans le projet de numérisation de livres Google Book Search. La bibliothèque cantonale et universitaire de Lausanne (Suisse) vient en effet de signer un partenariat avec le géant du Net, visant à numériser une large partie de sa collection. Après Oxford et Madrid, entre autres, il s'agit de la cinquième bibliothèque d'Europe à rejoindre le projet, mais c'est la première de langue française.

Quelque 100 000 volumes publiés entre le XVIIe et le XIXe siècle vont être numérisés, puis mis en ligne. Ces titres étant libres de droit, ils seront non seulement consultables en intégralité, mais également téléchargeable au format PDF.

comment faire connaitre un site

creation et referencement de site internet

de la formation en creation de site , d'optimisation de pages et de referencement,ce blog est fait a titre d'information pour les personnes qui souhaitent tout faire par eux même

Vous souhaitez creer un site internet, ou simplement faire connaitre votre site?

vous saurez sur ce site et au fil des jours, comment creer et referencer un site pour qu'il soit vu par tous.