« La
catégorisation dans un champ de connaissance ne documente pas
nécessairement une réalité donnée, mais produit de la connaissance selon une interprétation particulière de la
perception. » Konrad Becker
Le 28 mai 2010, à Vienne, le World-Information Institute organise la deuxième conférence « Deep Search II » sur la politique de la recherche web au-delà de Google. Publié en 2009 aux éditions Studio Verlag, le livre « Deep Search », édité par Konrad Becker et Felix Stalder pour le World-Information Institute, rend compte de la première conférence organisée un an et demi auparavant, le 8 novembre 2008. Le livre comprend des contributions additionnelles d'auteurs comme Matteo Pasquinelli, Geert Lovink, Lev Manovitch, pour en nommer quelques uns, qui apportent un complément de réflexion aux conférences de 2008. (1)
Il est difficile d'éviter les moteurs de recherche de nos jours. Ils se sont établis comme des outils essentiels pour naviguer dans le paysage informationnel dynamique et en permanente expansion que constitue l'internet. La structure distribuée de l'internet ne permet pas d'index ou de catalogue centralisé, par conséquent les moteurs de recherche remplissent une tâche centrale pour rendre l'information numérique accessible et donc utilisable. Il est difficile d'imaginer nos vies sans cette dimension en perpétuelle expansion, et il est donc de plus en plus difficile d'imaginer nos vies sans moteurs de recherche. Ce livre examine la longue histoire de la lutte pour imposer de l'ordre dans l'univers fragile de l'information, questionne les problèmes sociaux et politiques que posent les moteurs de recherche d'aujourd'hui, et envisage des approches qui pourraient rompre avec les paradigmes qu'ils imposent.
Bien que rarement considérés comme un « médium de masse » les moteurs de recherche occupent une position cruciale dans notre société connectée. Leur influence sur la culture, l'économie, la politique est croissante et pourraient bientôt dépasser celles des médias radios, télévisés ou papier. Nous ne comprenons pas encore pleinement le pouvoir qu'ils exercent et il est impossible de se limiter aux questions éditoriales classiques. Localisés aux goulots des infrastructures informationnelles, les moteurs de recherche exercent un contrôle extraordinaire sur les flux de données, même si les réseaux sont largement décentralisés. Le pouvoir qui en résulte est, comme toujours, accompagné de possibilités d'abus et de préoccupations sur la légitimité et le caractère approprié de leur exercice.
Pour le moment, Google occupe une place unique dans le domaine de la recherche numérique. Il domine le marché de l'utilisateur final à un tel degré qu'il approche un quasi-monopole dans la plupart des pays du monde. Son ambition dépasse de loin celle des autres moteurs de recherche. Presque chaque semaine, de nouvelles initiatives sont annoncées, et bon nombre d'entre elles à une échelle gigantesque : de la numérisation de millions de livres à la construction d'une plateforme entière de communication mobile conçue spécifiquement pour intégrer le maximum des services Google. Et il n'est pratiquement pas possible d'échapper à l'usage de Google si l'on utilise internet : Google ne domine pas seulement le marché, Google domine nos esprits, à tel point qu'il est difficile de faire la distinction entre l'étude générique des moteurs de recherche et l'étude de Google. Cela est bien regrettable, car les questions de recherche d'information, les questions de classifications, et les discussions cruciales sur les politiques d'accès à l'information devraient aller bien plus loin que le business model d'une seule entreprise, des questions qui devraient éclairer les continuités et changements historiques de notre rapport au monde. Mais la recherche d'information ne constitue plus la première activité économique de Google ; ses revenus proviennent à 98% de la publicité. La « recherche » n'est juste qu'un des nombreux produits permettant de créer un environnement par lequel l'accès aux utilisateurs individuels, identifiés grâce à des données personnelles détaillées, peut être monétisé. Ainsi de l'usage des données que Google fera avec son nouveau navigateur Chrome. (2)
Le livre ne s'attarde pas trop sur les détails techniques, considérant que ce n'est pas franchement utile, que les accords de développement et d'innovation se font souvent dans le secret du commerce et dans l'opacité de la recherche et qu'il est bien plus intéressant de se concentrer sur les questions politiques structurelles et à long-terme qui émergent dans ce développement. Les éditeurs du livre considèrent qu'il est important de comprendre la façon dont sont conçus les outils dont nous dépendons de plus en plus, et que leurs artefacts – les plus évidents étant les hiérarchies mercantiles et les résultats de recherche – ne sont ni naturels ni arbitraires. L'utilisation innocente qui rythme la routine de la vie quotidienne au travail ou dans les loisirs conditionne nos perceptions et dirige leurs orientations dans la fabrication de notre réalité cognitive. La plupart des gens acceptent le cadrage par ces technologies sans conscience critique. Konrad Becker et Felix Stalder nous rappellent qu'il s'agit là d'une approche dangereuse. Ce livre est une tentative de contribuer au débat public sur ces questions.
Histoires
La première partie de ce livre traite des « histoires ». Dans son texte, Paul Duguid – chercheur et professeur adjoint à la School of Information de Berkeley - examine les arrangements qui ont cadré la pratique de la recherche depuis les premières bibliothèques Sumériennes. Deux tendances générales se dégagent : d'un côté, la nécessité de traiter des volumes croissants d'information, qui constitue un des moteurs dans le développement de l'archivage, de l'organisation et de la recherche ; de l'autre, les tensions actuelles entre les pratiques qui permettent de rendre l'information plus accessible (au nom de la liberté) et les pratiques de restriction de leurs usages (on nom de la qualité).
Après cette approche large, Robert Darnton – directeur de la Bibliothèque Universitaire d'Harvard et par ailleurs spécialiste de l'édition dans la France pré-révolutionnaire - se concentre sur l'histoire des manières d'archiver l'écrit et sur les transformations de la bibliothèque comme une de ses institutions centrales. Il observe que l'information a toujours été instable et que chaque âge a été un âge de l'information dans le sens où détenir des informations (textuelles) a toujours permis d'exercer une influence sur le pouvoir. Cela suggère que l'information ne correspond jamais simplement à une réalité externe, mais est plutôt toujours le produit de méthodes de stockage précises et de procédures de récupérations. Ainsi Darnton se demande : quels sont les pertes et les profits lorsque nous passons d'un système de traitement de l'information à un autre ?
Google et virtuellement tous les autres moteurs de recherche sont basés sur l'analyse de liens, ce qui veut dire qu'ils analysent les liens qui pointent vers un document dans l'idée d'évaluer son importance relative. Considérée souvent comme une véritable avancée, Katja Mayer - professeur en études sociales des sciences à Vienne - montre que cette approche sociométrique a en réalité une longue histoire. Développée au début du 20ème siècle comme une approche politiquement progressive pour aider les petits groupes à devenir conscients de leurs propres (et parfois surprenantes) dynamiques, elle a été ensuite transformée en technique de management pour valider les sciences sans avoir à s'embarrasser des argumentations compliquées de sous-disciplines toujours plus nombreuses et importantes. Le Science Citation Index dans les années 1950 semblait ainsi offrir une neutralité politique alors que c'est un moyen purement formel de déterminer l'importance des publications et des scientifiques. Cette méthode, reprise par les moteurs de recherche, est maintenant appliquée à tous les domaines informationnels. En devenant transparent, cela entraîne – comme pour le Citation Index – des manipulations et ses limitations inhérentes sont mises en lumière.
Le dernier chapitre de cette section est par Geert Lovink, directeur de l'Institute of Network Studies d'Amsterdam. Lovink (3) s'inquiète de l'autonomie de la pensée et de la réflexion lorsqu'elles sont interfacées par un ordinateur. La rédaction de textes à partir d'extraits piochés via Google, sans soucis de citer la source, l'usage immodéré de la fonction copier/coller de l'ordinateur, font qu'il est de plus en plus difficile de discerner si les textes produits sont réellement le fruit de la pensée de la personne ou plutôt le fruit d'un processus complexe de navigation à travers une pensée collective googlisable à volonté. (4) Cela amène Lovink à dire qu'il ne suffit pas de savoir chercher, mais qu'il faut savoir questionner : « Le problème de l'Internet est qu'il nous invite à le voir comme l'Oracle de Delphes. L'Internet fournira la réponse à toutes les questions ou problèmes que nous nous posons. Mais l'Internet n'est pas une machine à sous dans laquelle on glisse une pièce et qui nous donne ce que l'on veut. Déjà, il faut avoir été un minimum formé pour pouvoir formuler les bonnes requêtes. Donc l'enjeu est de savoir comment une personne finit par poser la bonne question, et pour arriver à cela, elle a besoin d'éducation et d'expertise. Nous n'atteindrons pas de standard d'éducation plus élevé en augmentant la possibilité de publier. »
Lovink constate que nos recherches et nos réflexions pourraient être progressivement déformées par la suggestion personnalisée des moteurs de recherche. Ceux qui travaillent dans la catégorisation construisent l'ontologie des systèmes de classification dans l'objectif d'assurer une continuité stable dans le temps. Or, catégoriser les choses en avance signifie prédire le futur. Bien que les systèmes dirigés par la demande comme Google ne devraient pas avoir besoin de faire de projections pour prédir les besoins futurs de connaissance de chacun, l'échelle massive des données reste un challenge technologique clé qui implique un minimum d'anticipation. Lovink constate que cet état de fait peut orienter le développement de notre culture et rappelle qu'en France, « Déjà en 2005, le président de la Bibliothèque Nationale, Jean-Noël Jeanneney, publiait un livre dans lequel il alarmait sur l'ambition de Google à organiser l'information mondiale. Ce n'est pas le rôle d'une seule et unique entreprise privée d'assumer un tel rôle. « Google et le mythe de la connaissance universelle » reste l'un des rares documents qui critique ouvertement l'hégémonie incontestée de Google. Jeanneney cible un seul projet spécifique, Book Search, qui scanne des millions de livres de bibliothèques universitaires américaines. A cause de la manière non systématique et non éditorialisée par laquelle Google sélectionne les livres, l'archive ne représentera pas correctement les géants des littératures nationales comme Hugo, Cervantès ou Goethe. Google, du fait de ses sources en langue anglaise, ne sera par conséquent pas le partenaire approprié pour construire une archive publique de l'héritage culturel mondial. Jeanneney écrit : le choix des livres qui seront numérisés sera imprégné d'une atmosphère anglo-saxonne. Bien que cela constitue en soi un bon argument, le problème ici est que le premier intérêt de Google n'est pas d'administrer une archive en ligne. Google souffre d'obésité de données et est indifférent aux appels à la préservation attentive. Il serait naïf de demander à Google une conscience culturelle. La motivation première de son entreprise cynique est d'observer le comportement de l'utilisateur dans l'objectif de vendre des données de trafic et des profils à des clients intéressés. Google ne court pas après la propriété d'Émile Zola. Son intention est d'attirer le fan de Proust hors de l'archive. Il est possible que l'utilisateur éprouve de l'intérêt pour l'achat d'un mug Stendhal, d'un t-shirt XXL Flaubert ou pour une commande d'un Sartre sur Amazon. Pour Google, l'œuvre collectée de Balzac est une masse de données abstraites, une source brute dont le seul intérêt est de permettre de faire des profits, alors que pour le Français, c'est l'épiphanie de son langage et de sa culture. »
Libertés
La deuxième section de ce livre se concentre sur les libertés. Les moteurs de recherche donnent plus de pouvoir aux personnes en leur rendant accessibles de grandes quantités d'information, mais la centralisation croissante les rend, volontairement ou involontairement, arbitres de ces libertés. Claire Lobet-Maris – professeur à la Faculté d'Informatique de Namur - examine les méthodes traditionnelles d'évaluation de l'impact des technologies pour développer un cadre qui permettrait d'approfondir le débat démocratique sur les technologies de recherche. Pour elle, trois questions principales se posent : une concernant l'équité (l'égalité des chances d'être trouvé en ligne), une concernant la tyrannie de la majorité (l'analyse des liens favorisant le populaire) et enfin une concernant la transparence (c'est à dire la possibilité d'évaluer et de contester comment les moteurs de recherche fonctionnent). Tout cela mène à une discussion sur la perte d'autonomie, dans la mesure où les moteurs de recherche considèrent que le « corps cliquant », c'est-à-dire les traces que laissent les personnes et que les moteurs de recherche collectent, est plus fiable que le « corps parlant », c'est-à-dire ce que les personnes disent véritablement sur eux-même.
Joris Van Hoboken – chercheur à l'Institute for Information Law d'Amsterdam - approche la question des libertés sous un autre angle. Il examine les cadres juridiques européens qui régissent les moteurs de recherche et comment ces derniers sont contraints de censurer les résultats de recherche lorsqu'il s'agit de réduire l'accès à certaines informations. Van Hoboken constate que les nombreuses zones d'ombre juridiques où les moteurs de recherche doivent opérer restreignent les opportunités de nouveaux venus dans le domaine. Une des raisons pour lesquelles Google peut fournir ses services, est son large et puissant département juridique, un pré-requis pour travailler dans le domaine.
Dans le troisième texte de cette section, Félix Stalder et Christine Mayer du World-Information Institute reposent une question centrale : les moteurs de recherche améliorent ou diminuent-ils l'autonomie des utilisateurs ? Pour affiner le service aux utilisateurs et publicitaires, se développe un système de profils détaillés des utilisateurs. Ici un extrait où les auteurs traitent de la personnalisation croissante dans la recherche web :
« Il est impossible d'organiser l'information mondiale sans modèle opératoire du monde. Melvil(le) Dewey (1851-1931), qui travaillait à la tête du pouvoir colonial occidental, posa simplement la vision du monde Victorienne comme base d'un système de classification universel, qui, par exemple, classe toutes les « religions autres que chrétiennes » dans une seule catégorie (n° 290). Un modèle biaisé comme celui-là, et même malgré son utilité dans les bibliothèques, ne peut pas s'adapter au monde multiculturel incompressible de la communication globale. En réalité, aucun modèle de classification uniforme ne peut fonctionner, compte tenu de l'impossibilité de s'accorder sur un cadre culturel unique qui servirait de base pour définir les catégories. (…) Les moteurs de recherche contournent ce problème en réorganisant flexiblement l'index en relation avec chaque requête et en utilisant la méthode auto-référentielle de l'analyse des liens pour construire l'organisation en rangs d'importance des requêtes. Ce classement est supposé être objectif, refléter la véritable topologie du réseau qui se manifeste spontanément au travers de l'action collective. Connaissant cette topologie, les moteurs de recherche favorisent les nœuds riches en liens sur les pages pauvres en liens. Cette objectivité constitue l'un des éléments centraux de la logique des moteurs de recherche : à la fois elle permet de bien dimensionner et elle rend les utilisateurs plus confiants dans le système.
Cependant, ce type d'objectivité a ses limites inhérentes. L'index sait beaucoup de choses sur l'information du point de vue des fournisseurs qui créent la topologie du réseau (en créant des liens), mais ne connaît rien sur les parcours particuliers des utilisateurs dans le paysage informationnel. Ce qui pourrait sembler valide sur un niveau topologique et d'agrégation pourrait très bien se révéler invalide au niveau des intérêts de recherche individuels. Ce problème est accentué par le fait que les véritables clients des moteurs de recherche, les acheteurs d'espaces publicitaires, ne sont pas réellement intéressés par la topologie du réseau, mais plutôt par les utilisateurs individuels qui parcourent le réseau. Ces deux logiques, l'une liée à la fonction des moteurs de recherche eux-mêmes, l'autre liée à ce qui est devenu leur business model dominant – la publicité – conduit à la création d'un deuxième index. Ce deuxième index ne s'intéresse pas l'information mondiale, mais aux utilisateurs d'information dans le monde. Alors que le premier est basé sur l'information créée par des entités séparées et publiquement disponible, le deuxième est basé sur l'information créée par les moteurs de recherche eux-mêmes et donc fonctionne selon une logique propriétaire. En superposant ces deux index, les moteurs de recherche espèrent ainsi améliorer leurs fonctions premières : délivrer aux utilisateurs des résultats de recherche pertinents, et délivrer des utilisateurs pertinents aux publicitaires.(...) »
Plus loin :
« Plutôt que de traiter tout le monde au même niveau, le social sorting identifie et classe les personnes selon des groupes qui montrent une sensibilité à des procédures particulières, procédures qui permettent, empêchent ou modifient leur comportement. Avec les moteurs de recherche nous retrouvons cela au travers de la personnalisation. (…) En effet, l'objectif premier de la personnalisation est d'aider les moteurs de recherche à améliorer la qualité des résultats de recherche. Cela leur permet d'établir une hiérarchie des résultats en fonction des préférences de l'utilisateur individuel, plutôt qu'en fonction de la topologie du réseau, et permet de sortir de l'ambiguïté des termes de recherche basés sur les anciens passages de la personne dans le paysage informationnel. La personnalisation de la recherche fait partie d'une tendance plus générale dans l'économie informationnelle qui va vers l'individualisation de masse où chaque consommateur/utilisateur a l'impression, que ce soit vrai ou faux, d'être traité comme une personne unique à l'intérieur de systèmes de production fonctionnant encore sur des économies d'échelle. »
Pouvoir
La troisième partie du livre examine directement les questions de pouvoir. Premièrement, Theo Röhle – chercheur en média et communication à Hambourg - emploie des concepts dérivés de Michel Foucault ou de la théorie de l'acteur-réseau de Michel Callon et Bruno Latour pour examiner la combinaison subtile récompense/punition employée par Google pour garder les webmasters dans les lignes. Cette stratégie implique l'établissement d'un régime disciplinaire qui contraint à une certaine norme pour la publication web. l faut cependant rappeler que l'essentiel des normes est avant tout établi par le World Wide Web Consortium (W3C), à des fins techniques et idéologiques d’optimisation de la communication entre les hommes et les machines. Se concentrant ensuite sur les relations que Google entretient avec les utilisateurs, il identifie comment l'établissement d'un panorama statistique de l'intime d'une population et l'utilisation de cette connaissance comme outils de la gestion prédictive des risques, incitent les différentes formes de pouvoir à exercer un contrôle sur les différentiels de comportements.
Bernhard Rieder – professeur assistant dans le département hypermédia à Paris VIII - observe que les discussions à propos du pouvoir des moteurs de recherche sont souvent entravées par l'écart considérable qui sépare les approches techniques et normatives. Pour dépasser cela, il développe une position normative basée sur la technologie, et défend la pluralité, l'autonomie et l'accès comme principes directeurs alternatifs, à la fois pour la législation et le design. Nous devons demander : l'accès à l'index ! Cela permettrait à un large spectre d'acteurs de tirer avantage de la vaste infrastructure des moteurs de recherche (qui est très difficile à reproduire) en appliquant d'autres méthodes de rangs (ce qui est comparativement faisable).
Dans une perspective plus radicale, Matteo Pasquinelli - dont l'Institute of Network Studies a récemment publié « Animal Spirit : A Bestiary of the Commons » - examine comment Google extrait de la valeur des actions individuelles et de l'intelligence commune et la transforme en valeur de réseau et richesse. Pour cadrer comment de telles valeurs sont accumulées et extraites, Pasquinelli ébauche le concept de « loyer cognitif » à imposer à des sociétés comme Google, largement bénéficiaires et cela malgré les loyers cognitifs qu'ils payent déjà volontiers aux régimes strictes de propriété intellectuelle. La « culture libre » et « l'économie de la contribution » proposées par ses principaux critiques actuellement ne sont pas suffisantes selon Pasquinelli qui ébauche une politique de redistribution des bénéfices issus de l'exploitation de notre « temps de cerveau disponible ». Que Google nous paye pour l'utilisation de son moteur !
Le dernier texte de cette section est de Konrad Becker, directeur de L'Institute for New Culture Technologies/t0 de Vienne et du World-Information Institute. Dans un essai qui aborde l'ensemble de la question, il s'intéresse au rôle des systèmes de classification comme techniques de pouvoir, éclairant que de telles « technologies de l'esprit sont de la philosophie politique déguisée en code neutre ». Il suffit pour exemple de lire le PDG de Google, Eric Schmidt, lors d'une interview à CNBC (5) : « Si vous souhaitez que personne ne soit au courant de certaines choses que vous faites, peut-être que vous ne devriez tout simplement pas les faire ». Pas de vie cachée, rien à se reprocher, c'est vers cette normalisation, selon Konrad Becker, que veut nous conduire le mirage de la société transparente du Web 2.0 et des technologies cognitives au service du marketing personnalisé. Dans l'extrait ci-dessous il alarme sur l'organisation du référencement par mots clés (tags), cela favorise les stéréotypes de manière à pouvoir exploiter la subjectivité :
« L'utilisation distribuée des tags en fonction de hiérarchies horizontales permet une nouvelle hétérogénéité parce que le rassemblement de larges quantités d'intelligences spécifiques tend à renforcer la valeur organisationnelle au fur et à mesure du temps qui passe et de la taille qui croît. Le tag collaboratif, pointé par les utilisateurs ayant des types de classification similaires, pourrait renforcer disproportionnellement les vues de chacun, la prédisposition et les conclusions hâtives. L'aveuglement spécialiste, le favoritisme enthousiaste, les attitudes ghettoïsantes ou les jugements stéréotypés, pourraient développer une forte dynamique de déformation des questions en remettant en cause de manière permanente la validité du jugement. Mais si le tagging reste transparent, il permet de préserver l'individu des conflits ou même des points de vue hérétiques sans qu'il ait à se glisser dans le costume étroit des opinions courantes et temporaires. Il organise la distribution statistique de telle manière à ce que des événements peu fréquents attirent fréquemment l'attention de la majorité. Le volume total de la longue liste des événements avec peu de popularité peut ainsi excéder celui de ceux qui ont de la popularité. Les sociétés de l'internet ont accentué cela dans l'intérêt de leur business. Cette plongée dans l'obscur et le lointain, qui déconnecte le modèle de la recherche comme service, des variations de la demande du blockbuster le plus idiot, a certainement rendu la programmation média en quelque sorte plus intelligente. Cela a également contribué à l'exploitation commerciale de niches culturelles et marque la transition des modes disciplinaires traditionnels à des catégories préconfigurées vers de nouvelles sociétés de contrôle ; de l'endoctrinement éducatif vers le minage fluide de la réponse cognitive et des flux de réactions dans la gestion de la perception des sondages d'opinions. Les fameuses interfaces Web 2.0 permettent une marchandisation de la subjectivité où les réseaux sociaux sont exploités pour être ensuite revendus sous licence à l'utilisateur. »
Visibilité
La dernière section de ce livre traite de la question de la visibilité. Richard Rogers – chairman en New Media & Digital Culture à l'Université d'Amsterdam et directeur de Govcom.org - observe une inquiétante googlisation de l'ensemble du paysage médiatique, qui prouve que toutes les approches rendues dominantes par Google, sont maintenant exploitées bien au-delà de Google lui-même. Les raisons à cela ne sont jamais purement techniques. Elles sont même nécessairement politiques, et si non-intentionnellement, elles le sont certainement par effet. Comme une façon d'étayer ces développements, il propose d'étudier « comment les changements subtiles d'interface impliquent une politique de la connaissance ».
Metahaven, un studio de recherche et design basé à Amsterdam et Bruxelles, se concentre à nouveau dans le deuxième texte sur la sociométrie et le paradigme dominant qui sous-tend la méthode légendaire de hiérarchisation des pages de Google. Ils s'intéressent particulièrement à des sites qui font le pont entre des clusters à densité de connections et qui pourraient effectivement fournir l'accès à la plus grande quantité d'information puisqu'ils font se rejoindre des mondes qui ne seraient pas connectés autrement. Suivant cette approche, Metahaven étudie la campagne présidentielle d'Obama de même que la structure en réseau d'Al Qaeda comme exemples pour montrer la faculté à se concentrer sur d'uniques et faibles liens plutôt que sur des liens forts mais redondants.
Le dernier chapitre de cette section permet à Lev Manovich de présenter le nouveau projet de son laboratoire Software Studies Initiative hébergé au California Institute for Telecommunications and Information à San Diego (6). Il laisse de côté l'approche académique dominante qui consiste à essayer de trouver le bon et unique document. Au lieu de cela, il défend le besoin d'analyser les modèles cachés derrière les grands ensembles de données. Pour le domaine de la culture numérique, il soutient que nous devons laisser derrière nous les paradigmes du vingtième siècle qui se basaient sur des ensemble restreints de données, et que nous devons abandonner par conséquent la logique des listes de résultats et envisager de nouvelles manières de suivre les cultures numériques globales au gré des vastes océans d'information. Les Panthéons de la culture mondiale – souffrant d'occidentalisme – pourraient en être bouleversés.
Deep Search II
La classification automatique des données et son évaluation sont au cœur des nouveaux environnements de communication. Ce qui se cache derrière cela n'est pas seulement une manière de conduire l'organisation de l'information mondiale, mais également de classer les relations humaines : du management des lieux de travail modernes et des consommateurs dans les sociétés de masse, au management bio-politique de la société en réseau. Les algorithmes sociométriques quantifient tous les domaines de la vie dans l'objectif de modéliser mathématiquement et de prédire le comportement humain. Dans le monde en explosion du data mining, les méthodes algorithmiques basées sur de larges paquets de données numériques sont utilisées quotidiennement pour déterminer l'influence politique et analyser les dispositions sociales et les tendances contagieuses. Les transactions numériques fournissent d'énormes quantités de données privées et semi-privées sur les préférences personnelles qui sont rassemblées pour customiser et transformer les expériences quotidiennes. Un élément clé est fourni par les moteurs de recherche, outils à multiples usages présents dans de nombreuses dimensions de la vie, et les environnements toujours plus exploitables offerts par les fournisseurs de moteurs de recherche. Comprendre les sociétés basées sur la recherche ne requiert pas seulement une analyse de l'histoire complexe du stockage et de l'indexation de l'information, mais également l'étude de la complexité des nouvelles formes de collecte et d'analyse des données. Cela inclut la nouvelle position des moteurs de recherche dans la matrix de contrôle top-down de même que dans les systèmes de recommandation bottom-up, le push-search, les folksonomies et la présumée sagesse des foules. La recherche ne peut être comprise que si la redistribution toujours en évolution du pouvoir dans les réseaux numériques est questionnée à la fois dans ses dimensions centralisatrices et décentralisatrices.
Pointer de nouveaux développements et innovations technologiques dans le domaine de l'organisation, la classification et l'analyse de large paquets de données, là se trouve l'endroit où l'histoire rencontre le futur. Nous devons nous souvenir que les libertés doivent toujours être défendues et renégociées et que la visibilité et l'invisibilité doivent être au service de l'autonomie et du renforcement du pouvoir de la population. La conférence « Deep Search II » en mai donnera l'occasion de creuser plus encore ces questions.
http://world-information.org/wii/deep_search2/en/
NOTES
(1) Les vidéos des conférences sont consultables en ligne à l'adresse http://world-information.org/wii/deep_search/videos
(2) « Chrome, le nouveau navigateur Google, un bon exemple du développement vers le Google Cloud (Nuage Google), constitue également un outil pour la construction du profil de connaissance de l'utilisateur – avec le bénéfice additionnel qu'il floute la distinction entre ce que l'utilisateur connaît en ligne ou hors ligne. Le design de Chrome fait le pont entre le bureau de votre PC et ce que l'on nomme le Cloud Computing. En un seul clic Chrome vous permet de faire un Desktop, un Start menu, ou un raccourci Quick Launch vers n'importe quelle page ou application web, rendant floue la ligne entre ce qui est en ligne ou à l'intérieur de votre PC. La fonction Omnibox de Chrome, une barre d'adresse qui fonctionne comme une fenêtre de recherche Google à fonction d'auto-suggestion, enregistre tous les caractères tapés par ses utilisateurs sans même cliquer sur Enter. Devant affronter de sévères critiques à ce propos, Google maintient que les données collectées par ce système de des informations de clavier (clavier et données associées comme par exemple l'IP des utilisateurs) seront rendues anonymes dans les 24 heures. Également critiquée, la fonction historique de Chrome qui index et conserve des données sensibles de l'utilisateur comme ses données bancaires ou médicales, même celles des pages sécurisées (https://). », Felix Stalder et Christine Mayer, The Second Index, p.102, Book Search
(3) Geert Lovink qui commence son texte en déformant l'ouverture du Manifeste du Parti Communiste : « Un spectre hante les élites intellectuelles mondiales : l'overdose d'information ».
(4) On prend concrètement la mesure de cela lorsque l'on recommence à travailler avec un carnet, un crayon et éventuellement une pile de livres à côté de soi. Il suffit de penser que l'ordinateur enregistre une partie de notre mémoire (mots de passe, numéros de compte, numéros de téléphone, etc.) et que lorsque nous disons « travailler », souvent nous ne faisons que chercher jusqu'à nous perdre, sans se souvenir du processus de réflexion qui nous a amené à un bout du fil de la recherche. Il faudrait, au mieux, noter à part les raisons (sur une feuille de papier) qui nous conduisent de pages en pages, les liens qui nous font avancer, les retour en arrière, les parcours téléguidés par la manipulation cognitive, les trouvailles aussi : pour mieux comprendre pourquoi nous en sommes arrivés au bout de ce fil, pour éviter de nous perdre.
(5) "Le patron de Google estime que la protection de la vie privée est "une question de discernement"", Le Monde du 8.12.09
(6) http://www.softwarestudies.com ; http://www.calit2.net