Web bot Explication

Explication le web bot

 Pour y voir un peu plus clair,

 

 

(Un peu de lecture en vidéo)

 

 

Explication le web bot

Il existe actuellement 2 projets différents pour analyser la fluctuation de l’émotion globale de l’humanité à l’aide d’ordinateurs.

- le “Global Consciousness Project” qui tire des conclusions en fonction de l’analyse des flux de nombres aléatoires
-le projet WebBot qui scanne la “conscience” (ou “l’inconscient collectif”) de l’humanité sur le Web.

A l’origine projet WEB BOT, qui a été lancé pour prédire les cours de la bourse, à fait parlé de lui. Les données recueillies auprès des WebBot ont été utilisées à l’origine sur les marchés financiers où la cupidité et la peur des masses est appelé à conduire la volatilité des prix. Le principe du projet WEB BOT est de lancer un tas de « robots » passant le web au peigne fin. Les concepteurs ont fait le paris suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l’inconscient collectif, et par la même occasion, une vision de l’avenir.
Cet outil est censé pouvoir de prévoir l’avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations

    Le WebBot conceptualise un futur modèle de comportement sur la base des nouvelles récentes et psychologique des requêtes des masses. cela peut pour certains ressembler être un type de l’IA (intelligence artificielle). Les WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux.
Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami à frappé en décembre 2004. La coupure de courant général sur la cote ouest des États-Unis en 2003, les ravages de l’ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains. En Septembre, deux avions frappent les deux tours jumelles du World Trade Center. Pour l’avenir, les Web bots nous prévoient une guerre nucléaire de courte portée courant 2008-2009 …
Comment fonctionne cette machine ? Le ‘Webbot’ est une des techniques pour faire du “Web Scraping” (il y en a d’autres). En gros, c’est un programme qui fait de l’extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues…
Le WebBot se concentre sur certains mots et à partir de ce point central, il met se mot en corrélation avec l’information universelle afin de quantifier ce mot par rapport à d’autres mots. Si la machine ne fait que se programmer elle-même, d’après les informations sur le Web alors comment ces décisions peuvent prendre effet effet la société car comme nous le savons l’Internet est remli d’erreur.
Peut-être que dans un monde futur Internet ne sera plus un domaine public, ou peut-être le domaine public ne seront pas disponibles à une machine qui est capable de programmer lui-même.
Comment de fait devrait être l’information pour le robot pour faire une saine des décisions sans avoir une saine programmeur en charge. Il a ses moments de brillance, mais en fin de compte, il est déjà corrompu avec moins de données précises.
Pour ceux que ça intéresse sachez que le développement des droits à la technologie du Web Bot a été vendu à une société a été vendu à une société du nom de EbrainSpeed…
Les données recueillies à l’occasion approchent les 100 Go la taille des échantillons et nous pourrions ont utilisé des téraoctets. Les données recueillies a ensuite été filtrée, l’utilisation d’au moins 7 couches de traitement linguistique en langage Prolog. (le langage de l’intelligence artificielle)
Les données recueillies sont ensuite filtrées et ramené à des numéros et puis en résulte une série de carte de dispersion des parcelles sur de multiples couches IntelliCAD puis on analyse sur une période de temps donnée, le diagramme de dispersion des points et la tendance de ces derniers à se structurer en zones très concentrées. Chaque point sur le diagramme de dispersion peut représenter plusieurs centaine de mots.
Pour définir un sens à cette analyse, des mots ou groupes de mots doivent être réduits à leur essence. Le processus est comme une recherche du “plus petit commun dénominateur” entre les groupes de mots.

Le noyau de la technologie est donc de voir comment les nuages de points se condensent en “haute densité”, zones que nous appelons «entités» et on observe leur diffusion dans le temps en fonction du changement “entités”. Comment se fait la prédiction ? En naviguant de point en point, on obtient une série de phrases.
Sur le site urbansurvival.com on trouve une explication du principe de la technologie “Web bot”

Ce qui est intéressant lorsqu’on est dans ce type d’analyse c’est que parfois on dpoit un peu lire ces phrases sur le mode du I Ching (le livre chinois de l’évolution) parce que la technologie ne pas sortir et de dire “aller chercher une attaque terroriste là-bas” Ce qu’il fait est donne des phrases qui serait associé à la façon dont les gens parlent d’un événement, ou plus exactement, comment ils changent leur discours à tenir compte de leur processus de réflexion en raison d’un événement (après).

Selon les travaux de Dean Radin du “Boundary Institute and the work of the Princeton Global Consciousness Project”, la technologie Web, semble fonctionner comme un domaine de la sensibilisation preconsciente.
Comment fonctionne ce système ?
Le Global Consciousness Project (GCP) est un projet en collaboration internationale, créé en 1998, pour étudier un aspect méconnu de relation de la conscience de l’homme avec le monde physique. Nous avons mis en place un réseau de générateurs numériques aléatoires (GNA) présents en plus de 50 points du globe, de l’Alaska aux îles Fiji, sur tous les continents, et sur la plupart des fuseaux horaires.
Chaque seconde, chaque GNA produit un “essai” constitué du traitement de 200 bit. Ce processus peut être comparé à l’action de lancer 200 fois une pièce de monnaie, le résultat présentant une majorité de pile ou de face.

Un réseau de générateurs aléatoires montre des anomalies de fonctionnement en relation avec des événements touchant des millions de personnes. Ces résultats interrogent l’image commune de notre monde, mais des analyses indépendantes confirment ce comportement inattendu et indiquent qu’ils ne peuvent pas être attribués à la physique ordinaire, ou aux champs électromagnétiques.

Le second point évoqué dans le rapport de Dean Radin est qu’en laboratoire les gens réagissent à un évènement. En d’autres mot si vous devez être confrontés sur un écran à une horrible figure il y a aura des réactions physiques sensible dans les 6 secondes qui précède la projection de l’image.
Dans des termes “quantiques” Radin en déduit que les gens sont capables de percevoir 6-secondes dans le futur.

Il a remarqué la chose suivante au moment des attentats du 11 Septembre 2001

Dean Radin et son équipe ont pu mesurer un formidable changement dans le comportement des générateurs de nombres aléatoires pendant la période précédent l’attaque, tant immédiatement avant celle-ci qu’au moment même ou l’évènement se produisait…

Des nombres Soi-disant générés au “hasard” semblent devenir moins aléatoires immédiatement avant le 9 / 11.
Les données attestent qu’autour du 11 Septembre un changement de la conscience globale de l’humanité a agi sur l’énergie électromagnétique des circuits informatiques dans le monde entier et particulièrement à mesure que l’on s’approchait de l’Amérique du Nord.

Depuis Platon et son allégorie de la caverne, les gens ont le sentiment étrange que les choses tournent au niveau de l’archétype de la conscience. Les robots Web sont une tentative d’utiliser les données à haute densité de l’Internet à l’échantillon de langue et de rechercher l’évolution dans le langage employé qui, peuvent précéder un évènement. Les premiers résultats suggèrent que sur un plan macro-économique ces changements au niveau du langage peuvent se produire 45 à 90 jours avant l’évolution de la société. Sur une échelle beaucoup plus grande que Dean Radin l’avait suggéré dans son pour la première fois dans ses traveaux sur les nombres aléatoires des changements au niveau du language et des mots employés sont observables par l’échantillonnage de routine du trafic Internet.

Ces résultats montrent à l’évidence que le monde “virtuel” et le monde de l’esprit humain sont liés d’une relation synchrone encore inconnue fonctionnant parfois comme un “Vortex”, un tourbillon d’informations concommitantes suggérant des évènements majeurs vers lequel tout semble concorder …
Si l’on considère que le Webbot analyse les informations contenues et donc crées par des millions d’hommes, c’est en analysant le ressentit collectif de l’humanité qu’il détermine l’avenir… Ne vous est il jamais eu des pressentiments ( comme les animaux peuvent en avoir avant un tremblement de terre..) et un calcul de milliard de pressentiment… ca donne quoi ? le webbot…
Nos ordinateurs, si on les considère comme des neurones sur le web, celui ci ressemble vaguement à un gros cerveau, virtuel créé par l’homme, et qu’on peut pas éteindre, il s’autoémule aquérant de nouvelles données en permanence. J’en viens a dire que les Web-Bots semblent percevoir dans une masse informe, une information, une sorte d’émotion majoritaire dans l’ensemble des signaux que s’envoient constamment les cellules (nous même) de la Matrice Terrestre, c’est à dire Gaïa… Il s’emblerait que nous ne soyons qu’au balbutiement de ce type de code extrêmement complexe. Il n’y a qu’à voir comment ont évolué les prédictions météorologiques grâce aux calculs informatiques. On peut imaginer que dans un avenir très lointain, dans un monde entièrement connecté dans une fusion homme machine généralisée, des ordinateurs permettront un degré de prédictibilité beaucoup plus élevé dans l’infinité des possibles nous plaçant alors par calculs ultra sophistiqués comme des spectateurs de ces situations somme toute encore virtuelles. Il faut envisager qu’il existe un jour des ordinateurs “quantiques” capable d’interpréter le futur “quantique”.

Pour revenir à la façon de procéder des Webbots on peut dire qu’elle est extrêmement intéressante car en sondant l’inconscient collectif de l’humanité, elle permet l’expression d’une synchronicité globale à l’échelle de la planète.
Pic de la Mirandole écrivait “qu’il existe une unité dans les choses par laquelle chacune est en accord avec toutes les autres”. Ainsi dans chaque évènement dans la vie d’un être humain on pourrait voir théoriquement la manifestation d’évènement globaux …
Pythagore, lui, prétendait pouvoir expliquer le sens des rides de l’eau provoquées par le vent. Ainsi nous expliquait-on que le soi-disant “hasard” peut composer une lecture de la vie parfaitement organisée où tout serait lié et où rien n’est en fait inutile ou dépourvu de sens pour qui sait lire le grand livre de la vie. Il était donc ici question d’apprendre un alphabet universel et de saisir par les signes encore obscurs pour nous …
Ces recherches (si elles s’avèrent exactes, et nous le saurons bientôt) tendraient à montrer que la théorie de Teilhard de Chardin et Vernadski sur la conscience collective ou noosphère ne serait pas complétement ridicule.
Pour Vernadski il existerait une couche dans la haute atmosphère ou circulerait en permanence une conscience collective…

 

 

ESSAI DE REFLEXION SPECULATIVE SUR L’ONTOLOGIE DE LA PROPHETIQUE TECHNO-HUMAINE DE TYPE “WEB BOT”
Pour exister, cette “prédiction scientifique” qui n’est autre qu’une “révélation programmée d’un mythe collectif”, que l’on développe par la technologie le Web Bot, doit se fonder à la fois sur une psychologie et une physiologie sociale (considérer le global tel un être vivant dont nous ne serions que des cellules). Ce concept de physiologie collective n’est d’ailleurs qu’un cas particulier d’écosystème, notion qui s’applique bien au-delà de la sphère terrestre. Mais, si large soit-elle, une telle approche resterait encore purement descriptive. Pour atteindre au stade d’une explication déterministe, il faut également prendre en compte la dimension finaliste (mentale) du système, ce qui n’est guère possible pour l’instant qu’avec notre propre espèce. Dans cette perspective, les seules études convaincantes sur la physiologie générale (stricto sensu) du corps social, à savoir des modèles fondés sur le principe premier du feedback, sont les travaux de sociologie politique sur la participation démocratique (sur l’équilibre entre pouvoirs et contre-pouvoirs) et c’est justement cet élément qui s’avère instable lorsque l’on évoque la fameuse “libération du langage”. Vous aurez donc compris qu’avec la seule vraie démocratie le Webbot ne prévoira que ce que les peuples auront décidé à l’avance. Qu’ils ne vivront donc plus ni dans la peur, ni dans l’angoisse du lendemain.Vous verrez à quel point nous sommes tous manipulés par un systeme qui n’a jamais été démocratique, qui vit sur le dos des peuples et le désordre qu’il seme lui même. Pour ce qui est de la crise financiere, il s’agissait d’une évidence de tournant cyclique propre à l’oligarchie financiere, qui régulierement apres l’enrichissement encore plus massif des plus riches mets les peuples sur la paille.
Au niveau de la sphère sociale on peut par exemple se contenter de décrire l’histoire française de façon purement interne (”physiologique”) en présentant son régime politique comme un système fortement oscillant, alternant gouvernements de droit divin et guerres civiles (195 au total !). Mais, vue de l’extérieur, il semblerait plutôt que notre “démocratie représentative” est un vice moral (global) de notre société. Et comme tous les troubles mentaux, il engendre ça et là (localement) :
- des troubles physiologiques (dans les relations entre organes sociaux, dans ces organes eux-mêmes : gouvernement, entreprises, classes, etc.). La France est ainsi le pays de la Communauté le plus condamné pour atteintes aux droits démocratiques élémentaires
- et des troubles comportementaux (dans les relations internationales). La France condamne bruyamment les pays totalitaires, mais n’agit concrètement qu’en fonction de son intérêt propre immédiat.
Tout cela rejoint bien sur la psyché personnelle et l’on retrouve cette relation entre la psyché individuelle et la psyché collective qui fait aussi l’essence du mythe mais que l’on peut aussi percevoir sur un aspect spatio-temporel ou plutôt rétro-temporel. Tous les phénomènes de prédiction parapsychique sont en fait rétrotemporels (effets psi = négations observables de l’irréversibilité passé / futur, c’est-à-dire du principe de causalité) ; et cet aspect se manifeste couramment (normalement) dans tout activité libre, qu’elle soit consciente ou non.
Par ailleurs, une “psychosomatique” – qu’elle soit individuelle ou collective – ne peut se décrire pertinemment (on traite de significations) qu’avec un temps circulaire. Par exemple, il y a quarante à cinquante mille ans, ce qui serait le début de la nouvelle espèce, l’homo sapiens, on estime que les femmes auraient fondé la culture moderne en corrélant leurs saignements menstruels (phénomènes de synchronisation des règles observé dans des groupes de femmes) et les périodes de chasse du gros gibier par les mâles. Cette “invention” aurait entraîné celle de la conception des cycles du temps (qui inspirent l’exactitude de la prédiction) … Outre que la culture moderne occidentale est entièrement fondée sur la causalité (linéaire), ces femmes n’aurait fait que constater un fait métaphysique, certainement connu déjà des sociétés humaines antérieures et vécu activement par tous les êtres vivants et les écosystèmes. Il faut donc au contraire dénoncer le monisme (notion métaphysique très ancienne qui veut que le monde ne soit formé que d’une seule réalité ou substrat fondamental) biblique et son opposé le dualisme grec, ces mythes qui ont vicié en Occident toute la réflexion ontologique… En intégrant à la fois les ontologies spécifiques qui ont un domaine de validité restreinte et correspondent à l’exécution d’une suite logique et programmée de paramètres, et les ontologies supérieures qui représentent des concepts généraux comme l’espace, le temps ou la matière, on aboutirait nécessairement bien à une ontologie formelle (de type Web Bot) qui serait un développement systématique, et axiomatique de la logique de toutes les formes et modes d’existence …

 

 


Ils sont tous les 2 webmasters de leurs sites officiels respectifs :

Urbansurvival.com : site de George Ure
-page d’introduction : http://www.urbansurvival.com/simplebots.htm
-page sur la crise économique : http://www.urbansurvival.com/bot4.htm
-sur les modèles de prédiction : http://www.urbansurvival.com/tip.htm
on trouve sur son site un pdf comprenant un aperçu des prédictions pour
2008-2009
http://urbansurvival.com/c2csnotes20080102.pdf

Halfpasthuman.com : site prédictif du dénommé "Cliff" basé sur les techniques ALTA (Asymetric
Language Trend Analysis) et ses "Calamitous Web Bot Predictions" pour 2008 2009.
C’est lui qui propose des rapports sur abonnement, 280 $ pour une première
souscription, 70 $ la suite…
http://www.halfpasthuman.com/NuHPHWhatWeDo.htm

On trouve des biographies de ces 2 protagonistes du projet Web bots (Ure et "Cliff") sur le site coasttocoastam.com
-Bio de Cliff : http://www.coasttocoastam.com/guests/1478.html)
-Bio de George Ure : http://www.coasttocoastam.com/guests/711.html
ainsi que quelques une de leurs plus fameuses prédictions

J’espère que c’est plus clair pour tous maintenant même si il faut admettre
que leurs sites est loin de l’être au niveau de la facilité à rechercher des
informations chronologiques et objectives…

 

  • 4 votes. Moyenne 3.25 sur 5.

Commentaires