Est-ce que cela marche? Les créateurs le disent. On peut être sceptique sur les résultats effectifs. Disons que c'est un peu comme le bulletin astrologique, tout le monde le regarde, au cas où.
L'intérêt réside plutôt dans la démarche, qui intéresse les scientifiques, et qui permet l'association de l'inconscient individuel et collectif aux évènements majeurs qui impactent le monde dans lequel nous vivons.
Le principe du projet WEB BOT est de lancer un tas de « robots » ( on appele ça des spiders) passant le web au peigne fin. En gros, c’est un programme qui fait de l’extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues…
Les concepteurs ont fait le paris suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l’inconscient collectif, et par la même occasion, une vision de l’avenir. Cet outil est censé pouvoir de prévoir l’avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations.
L'articleLes WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux. Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami à frappé en décembre 2004. La coupure de courant général sur la côte ouest des États-Unis en 2003, les ravages de l’ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains.
Aucun commentaire:
Enregistrer un commentaire