Facebook Vs Google !

    Les nouvelles on fusées au mois de mars et risquent de se répéter :

    http://weblogs.hitwise.com/heather-dougherty/2010/03/facebook_reaches_top_ranking_i.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hitwise%2Fus+(Hitwise+Intelligence+US)
    http://www.infos-du-net.com/actualite/16735-facebook-google.html

    Après “Facebook va dépasser Myspace” (en 2007), nous voilà à “Facebook va dépasser Google”.
    Etrangement, on ne se souviens plus de la relation entre Myspace et Google, évidemment puisque comparer 2 services différents semblent étranges au premier abord.
    Si l’on compare les stratégies :

    • Stratégie Google :
      • publicité distribuée (exploiter par accord les efforts faits par d’autres sites)
      • données universelles
    • Stratégies Facebook
      • publicité locale (exploite la présente sur son propre site)
      • données privées

    Le marché des moteurs de recherche est moins centré sur Google au USA (70% du marché contre plsu de 90% chez nous) (voyage et santé les deux sujets de recherche phare)
    Il semble que la santé n’est pas la priorité du réseau social qui ne cherche pas nécessairement à s’informer comme on le voit aisement.
    Ce qui doit être remis en cause c’est peut-être la façon dont les analyses gèrent l’évènement. Car finalement, ce qui compte pour une entreprise, ce n’est pas d’envoyer des miliers de courier ni de faire du trafic, mais bien d’avoir des clients qui rapportent. Les deux entreprises reposent encore sur le modèle de la gratuité et Google a sur ce point une grande avance.

    L’impact n’est donc certainement pas commercial mais social, au niveau des usages !
    “la valeur d’usage n’est pas directement liée aux fonctionnalités mêmes de ces plate-formes, qu’il y a forcément ‘autre chose'”, Alain Lefebvre, facebook la poussée finale, M21 Editions 2008 P.47
    et ce sera peut-être aussi au niveau des représentations qu’il faudra chercher

    L’internet a développé constamment le centrage sur une information individuel tant au niveau ascendant que descendant. Chacun est le centre de son infoshphère par :

    • diffusion de l’information
    • la recherche permet d’analyser l’impact de cette information
    • la recherche permet de trouver de nouvelles informations

    Mais avec Facebook ce n’est plus l’information qui compte, c’est le réseau avec chaque individu au centre. A l’adage “qu’est-ce que les jeunes se débrouillent bien avec les machines“, les experts remarquent souvent que l’usage est très limité. Les jeunes, digital natives, même étudiants, ont souvent bien du mal à formuler leur requêtes. Ils se repèrent donc difficilement dans l’aspect formel de la communication avec la machinerie. Cela en fait donc des contradicteurs au logiciel libre qui induit que chacun ira à la pêche au logiciel et devra le prendre en main éventuellement le modifier.

    Selon Jean-gabriel ganascia, qui considère l’internet comme un catopticon (science des miroirs) car grâce au web on peut voir et être vu. Certes, mais le être-vu, signe de reconnaissance comme Sartre avait lui-même pu l’énoncé déjà, dans un usage raisonné, c’est être vu de ce que l’on veut bien montrer de soi car il y a maitrise de l’image (quelle soit numérique ou pas) même si cette maîtrise inclue une part de risque. Facebook favorise plutôt le côté être vu et aussi (“amis”) savoir ce que l’on dit de moi, finallement au détriment du troisième point de l’infosphère, savoir ce que d’autres disent.
    Dans ce contexte, la dévalorisation des instances informationnelles est donc a son comble, puisque les tiers sont tout simplement ignorés, les systèmes techniques étant eux-mêmes peu évalués, ni dans leurs contextes, ni dans leurs possibilités ou potentiels.

    Information non hiérarchisées et affaiblissement du long terme ?

    Lorsque j’avais créé la revue artistique de l’agglomération rennaise, une des première revue en ligne sur l’art en france, le modèle éditoriale était simplement emprunté à l’édition traditionnel. L’idée même de revue induit un suivi dans les thématique et le travail qui est presque à l’opposé du blog (à moins que le blog est une permanence thématique comme c’est le cas de nombreux blogs professionnels). Cette méthode traditionnelle induit de prendre un point de vue et à le suivre sur une période donnée. Le lectorat se construit même fortement sur ces choix. Avec les systèmes des blogs ou profils qui se créent en deux minutes, nul besoin de réfléchir au préalable :

    • ni aux impératifs et prérequis techniques
    • ni aux prérequis éditoriaux, très judicieusement remplacer par des systèmes de mots-clefs qui en viennent à passer d’outils de recherche à outils de classification à chaud
    • et même ni au planning d’édition (d’où le fait que les blogs sont abandonnés au bout de 2 minutes aussi et j’exagère à peine).

    Globalement, mise en avant de soi, renforcement du temps présent (les étudiants passent leur temps à s’envoeyr des SMS, même pendant les cours) ce qui, à mon avis, explique facilement la baisse du niveau et de l’interêt qu’ils portent à l’informatique.

    Notre génération a souffert pour créer les CMS et autres outils. La réalisation d’un site prenait des jours donc on y réfléchissait longuement avant de s’y lancer. Des stratégies devaient être construites. A l’heure où la technique s’efface, on a donc deux phénomènes conjoints :

    • le refus de la technicité de la technique et le manque de volonté de les prendre en main (c’est la technique qui doit s’adapter à l’homme et pas l’inverse, comem si on avait refusé le livre parce que les pages en dictaient pas le contenu)
    • l’enfermement des personnes dans l’immédiateté de la communication et le non développement d’uen stratégie globales

    Peut-on estimer que jusqu’en 2005, les défenseurs de la vision connaissance de l’internet ait réussi à entretenir une pente positive et que depuis la vision communicationnelle soit prépondérente ? Peut-être. Cela ne signifie pas que ce combat soit perdu mais que la scission entre Analyste/Expert, qui prendront le temps d’analyser les situations, et ceux qui sont l’émotivité actuelle va persister et peut-être même se creuser.
    La convergence des techniques aurait-elle profiter plus amplement à la sphère communicationnelle ? Peut-être aussi. On peut y voir la plus grande facilité à mettre en oeuvre. Il faut des siècles pour passer les connaissances au monde numérique on voir encore les débats sur les bibliothèques virtuelles. Il y a donc un décalage patent entre l’existence de la technique et son exploitation à plein régime parce que les contenus sont finallement plus longs à produire. Dans la sphère communicationnelle, la proposition s’arrête à la technique, car ce sont les communicants qui produisent le contenu d’où la tentation pour les utilisateurs de se satisfaire de ce niveau. Dans un contexte de contributeurs, cet effacement de l’outil peut sembler abscons : peut-on maîtriser quand on ne connaît pas ? Et si on ne maîtrise pas n’est-on donc pas dépendants de ce qui maîtrisent ? Accepter une situation qui fait l’impasse sur la technicité n’était-ce pas accroître le consumérisme communicationnel au détriment de ce qui a fait la force de ces technologies : l’implications des utilisateurs.

    Réseau social ou social en réseau ?

    Inversion habituelle des termes en ce qui concerne les technologies, traduisant un effet d’inversion des valeurs. Cela permet simplement d’introduire de la nouveauté là où il n’y en a que très peu. Le social n’a pas attendu les réseaux informatisés pour exister. En revanche, il s’agit bien d’une nouvelle forme d’usage de l’informatique ou des télécommunications. Mais c’est tout.
    Dans un sens adjectiver “réseau” montre bien dans quel sens se situe la nouveauté
    John Barnes invente terme réseau social en 1954 (article Human Relations “quand 2 personnes se rencontrent pour la première fois, il est rare dans la société moderne qu’elles découvrent qu’elles ont un grand nombre d’amis communs, et quand cela se produit, le fait est considéré comme exceptionnel et mémorable“. cit Lefebvre p53).

    Les expériences de Milgram, la loi de Samo ou de Metcalfe montrent à quel point la vision qualitative est par trop associée à la quantité (des utilisateurs ou des points de connexions). Dans un cas, on essaie de valoriser la technique et dans l’autre on penche vers l’humain. Mais jamais, la valeur ajoutée réelle et intrinqèque pour l’utilisateur ne semble invoquée en dehors de ce contexte.

    C’est donc un problème d’identité numérique qui se pose si la masse s’impose. Comme pour le réseau social, l’identité numérique est un complément à l’identité et induit une autre forme d’identité. Cette identité pourrait être une identité de fait (rencontre en face à face dans laquelle je reconnaît l’autre comme un tout fiable), ou une identité administrative (marque de l’existence auprès d’un groupe de référence qui se porte garant pour l’ensemble du corps social et des ces correspondances).
    Le premier ne permet pas de mettre en doute l’identité : celui que j’ai en face de moi est bien celui que j’ai en face de moi.
    Le second permet d’introduire des formes de mise en doute. Faux-papiers etc font la une des séries télévisées.
    L’identité numérique pose quant à elle un autre problème puisqu’elle ne semble reliée à aucune instance ni réalité validatrice. On pourrait dire de ce fait que l’identité numérique est impossible à prouver.

    Ceci étant dit, les termes parlent déjà d’eux mêmes :

    • le surnom est le nom que me donnent mes amis, mes proches, qui a la marque de leur affection ou de la proximité affective dans laquelle nous nous situons. On n’appelle pas tout le monde par son surnom (“on n’a pas été élevé chez les cochons”). Le nombre de personne ainis en réseau est assez faible (par rapport aux chiffres annoncés par les réseaux sociaux) : la loi de Dunbar annonce 150 personnes environs
    • le pseudonyme est un “faux” nom. Il sert non à révéler mais à cacher. L’utilisateur se l’attribue à lui-même. (on peut même en changer à la volée sur des IM comme IRC). Le pseudonyme a donc une charge de distanciation, au moins d’égalisation des personnes réseautées. Cette égalité qui peut être une chose positive, ne fait que masquer les individus et leur compétences, ce qui permet à certains de prendre un pouvoir sur d’autres, que rien ne laissait présager au premier abord. L’identité n’étant pas vérifiée, le problème peut difficilement être compensée par une instance.

    Et peut-on parler d’une identité personnelle ou communicationnel sans parler de l’affectivité. Le problème de l’affectivité dans les réseaux se posent souvent sous la forme :

    • est-il impératif de bien s’entendre avec les gens pour efficace au travail ?

    Certains estiment que le réseau social est-il une mise en avant des liens faibles (ce que dit lefebvre p.66) ? pas sûr à mon avis. Les amis du virtuel sont les mêmes que ceux du réels. On a donc tout de même une forte coincidence des 2 mondes. Il s’agit d’une simple prolongation ou anticipation sur des faits réels : ça va depuis tout à l’heure ? oui Il faut qu’on se voit ? Oh oui super Wé parce qu’il m’ait arrivé un truc faut que je te raconte Dis moi je peux pas attendre Ben tu sais …
    La relation induit par le réseau permet aux jeunes de renouer avec LA relation qu’ils apprécient assez peu, car exigente en terme de contact, organisationnel et symbole aussi qu’on est exclu d’autres réseau. Le réseau social se présente donc comme un seul réseau, pour tous, même si de fait ce n’est pas le cas à moins d’un monopole absolu, mais de ce côté, les utilisateurs se posent peu cette question, ils ont autant de comptes et de pages web ouvertes que nécessaires :) Tout cela en vient donc à mettre en défaut certaines loi (loi de reed) basant la valeur sur la seule quantité.

    Facebook n’est pourtant pas le premier outil social : le mail(1973), ou les forums usenet(1979), ou encore des wiki (1995) sont autant de tentatives de construction de social. Ici la différence tient à deux choses principales :

    • le centrage sur l’utilisateur, et non pas sur le contenu (ce qui décharge les utilisateurs d’une recherche d’une qualité d’expression au simple profit de l’efficacité de la communication)
    • l’échelle du phénomène lié à l’explosion des débits et des technologies convergentes

    Evidemment, tout le monde suit ça de près.

    Ce contenu a été publié dans essai par cedric, et marqué avec , , . Mettez-le en favori avec son permalien.

    A propos cedric

    Cedric is working with free software everyday as a graphic designer or as a Gimp, Inkscape, Scribus and blender teacher in Universities and enterprises. He wrote several books on FLOSS and is involved mainly in Inkscape.

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


    *