Articles liés au mot-clé ‘Twitter’

30
Juin 13

Data Mining, cartographie, Twitter et Gephi 11

Je disais dans mon mémoire de recherche en Sciences de l’Information et de la Communication que « le web est un nouvel espace où se perdre« , retour sur le pourquoi du comment et sur le comment on s’en sort.

D’un espace euclidien à un espace sémantique

Data Mining, cartographie, Twitter et Gephi

Nous sommes tous devenus des producteurs de contenus et cela se mesure. Sur le web, plus de 70% des nouveaux contenus sont produits par les utilisateurs, on parle d’UGC (User Generated Content). Paradoxalement l’essentiel des internautes n’ont pas le sentiment d’être actif sur le web. Normal, la frontière entre lecture et écriture s’est diluée dans les usages. Lire sur le web n’est plus un acte passif, car lire, c’est déjà être remarqué « 203 personnes ont lu ça » et donc avoir un impact sur d’autres lecteurs potentiels. Auriez-vous lu l’article s’il était indiqué « 0 personne a lu ça » ? On ne fait plus « que » lire, on « aime ça » (bouton like de Facebook), on gazouille (twitt, re-twitt et hastag sur Twitter), on « +1 » (Google +), on « trackbacks », on « backlinks », etc.

Comme le dit le sociologue Dominique Cardon (2010) : « Il faut être attentif au fait que les internautes produisent, par leurs clics, leurs liens, leur retweet, la visibilité des informations sur internet. » Cette visibilité, délégitimé par la décontextualisation qu’elle engendre, a un réel impact sur le degré de pertinence socio-cognitive (Cosign et Ingwersen, 2000) des internautes.

Data Mining, cartographie, Twitter et Gephi

Le web est donc un espace qui n’a pas de limites et cela n’est pas sans poser de problèmes aux internautes que nous sommes car nous sommes habitués à dresser nos repères dans un espace euclidien. En effet, « … l’espace de navigation n’est pas un espace physique dans lequel on s’oriente, mais un espace sémantique dans lequel on traite des contenus » (Tricot et al. 1998). Cette particularité du web comme espace à la fois documentaire, médium et méta-plate-forme de dispositifs d’accès à l’information engendre une confusion cognitive.

Si nous recherchons le sens d’un mot dans un dictionnaire, nous pouvons être tentés de regarder les autres mots de la page mais, étant dans un espace fini, les lectures « suggérées » ne sont pas nombreuses. En comparaison, sur une « page » web, dont l’espace de lecture peut varier du simple (deux cents pixels de haut sur six cents de large) au triple, nous pouvons « rebondir » à l’infini grâce aux liens hypertextes.

Data Mining, cartographie, Twitter et Gephi

Cette transversalité peut facilement nous faire « sortir » de notre contexte initial de recherche, ou de lecture.

Les mutations provoquées par la lecture de document numérique, notamment la transversalité due à l’hypertexte, induisent de nouveaux comportements et ont un réel impact sur la confiance. Quand je lis une page, est-ce que je ne suis pas influencé par l’autorité du contenu de la page d’où j’arrive ?

Michel Serres nous le rappelle (Serres, 2005), nous sommes passé d’un espace fini, métrique, et donc par essence maîtrisable, à un espace infini et sémiotiquement in-maîtrisable (nous rappelons ici la notion de l’état « sauvage » du Word Wild Web).

 

Les nœuds d’autorité

Data Mining, cartographie, Twitter et Gephi

Face à ce déluge informationnel et pour remédier au problème de spatialisation de l’information nous avons réintroduit un outil puissant s’il en est, la carte. L’Homme utilise la carte depuis des millénaires et lorsqu’il est perdu, il fait une carte. En inventant le web, nous avons inventé un nouvel espace dans lequel nous perdre et, logiquement, nous avons amélioré notre appréhension de cet univers numérique avec des techniques de visualisation de données.

Data Mining, cartographie, Twitter et Gephi

Au lieu de se repérer dans une carte grâce à des repères spatiaux, ce qui ne ferait aucun sens puisque nombre de site européens sont hébergés sur des serveurs américains, les cartes positionnent les sites ou les gens les uns par rapport aux autres en se basant sur leur influence, leur notoriété, leur popularité. De repères objectifs, mesurables, quantifiables, nous avons basculés sur des repères flous, variants et discutables. Pour autant, cette nouvelle mécanique cognitive qu’est la cartographie d’information nous permets d’identifier les nœuds des réseaux qui nous environnent. Être un « nœud » névralgique d’un réseau n’est pas nouveau. Les gardiens des portes au Moyen-Âge en étaient : sans eux, impossible de pénétrer dans le réseau social de la ville.

Sur le web, la transposition fonctionne. Impossible en effet de bien référencer son site sur un sujet donné sans qu’il y ait de lien (de préférence entrant) avec un des nœuds (site, blog, forum) référent sur le sujet. On peut illustrer très concrètement les nœuds d’autorité informationnelle en analysant ses followers Twitter.

 

Réseaux de personnes ou réseaux sémiotique ?

Data Mining, cartographie, Twitter et Gephi

Pour Dana Boyd, la transposition avec des réseaux de personnes est évidente. « Nous donnons du pouvoir aux gens quand nous leur accordons notre attention et les gens gagnent du pouvoir quand ils font le pont entre des mondes différents et déterminent quelles informations seront reversées dans les réseaux » dont ils sont l’un des nœuds (Boyd, 2009). Joël de Rosnay en son temps (1996) avait clairement expliqué ce décalage, cette mutation du pouvoir informationnel « … chacun d’entre nous à titre individuel, comme nœud de réseau, peut maintenant agir, ce qui était auparavant l’apanage des seuls puissants, des riches et des politiques. »

 

Cas concret : cartographie de mes followers Twitter

Au fil de l’article vous avez pu voir les captures d’écran de mon travail de cartographie de mes followers Twitter. Après un export sur Twitter, j’ai nettoyé un peu le fichier et importé le tout dans Gephi. Une fois dans Gephi, il faut passer un peu de temps sur la contextualisation des noeuds et des liens (de très bons tutoriels existent à ce sujet) puis sur la spatialisation pour avoir une illustration graphique exploitable des regroupements sémantiques et sémiotiques effectués par Twitter. Vous pouvez ensuite exploiter votre carte pour identifier les liens forts et les liens faibles.

Concocté à partir du mémoire de recherche « Évaluer l’information sur le web, peut-on arriver à une pertinence sociocognitive satisfaisante ?« .

27
Mar 13

Comprendre le web - cours à Montpellier

En attendant la publication des cours en ligne, voici le document réalisé avec le logiciel TweetDoc et qui reprends vos tweets. Encore merci pour ces temps d’échanges et pour votre participation.

19
Mar 13

Surcharge informationnelle

Le web est un espace dans lequel les services proposés peuvent voir leur consommation littéralement exploser suite à l’adoption massive par les utilisateurs. Quel est le lien avec la surcharge informationnelle ? Cela à t-il une incidence sur nos capacités à évaluer l’information trouvée sur Internet ?

surcharge informationelle : géolocalisationLa société Socialnomics aime à rappeler dans ses vidéos de présentation que pour réunir 50 millions d’utilisateurs, il a fallu 38 ans au média radio, 13 ans au média télévision et 4 ans au média Internet. Quand dans notre histoire avons-nous vu un service passer de 10 à 700 millions d’utilisateurs en moins de 10 ans ? C’est le cas de Facebook . Les principales fonctionnalités plébiscitées par les utilisateurs, sont jeunes : LinkedIn, le réseau social professionnel n’a que 9 ans, Facebook a 8 ans, YouTube, le deuxième moteur de recherche au monde, a 7 ans, Twitter a 6 ans en 140 caractères, et Google+ tout juste un an.

Alors la difficulté réside non seulement dans le changement d’échelle quasi entropique de la production de documents numériques mais également dans la vitesse de mutation des usages. Et dans ce cas, la loi de Moore est dépassée. En 1965, Gordon Moore, co-créateur d’Intel, fait un postulat empirique : les capacités des terminaux, des serveurs et des réseaux doublent tous les 18 mois et corrélativement, cela entraîne une diminution proportionnelle des coûts.

Plusieurs économistes gageaient que le modèle économique des industries liées à Internet serait basé sur cette théorie. Or des sociétés comme Twitter ou Facebook n’ont pas ce genre de modèle économique, tout simplement parce qu’à leur création elles n’avaient pas de modèle économique. Créé par pulsion au lieu de l’analyse d’un marché, les services qu’ils ont proposés ont répondu à un besoin qui n’avait pas été encore anticipé.

Pour preuve de la décorrélation entre la loi de Moore et les économies liées à Internet, il suffit d’observer l’évolution de la courbe du nombre de noms de domaine depuis 1995 fournit par le site Netcraft (vue linéaire). On y voit, de façon assez visible, que la progression se fait par à coup brutaux.

Un univers en extension

Surcharge informationnelle : How Big is the InternetAucun moteur de recherche n’est en mesure de quantifier précisément le nombre de pages accessibles sur le web. Le site « The Next Web » nous fournit une infographie pour nous rappeler à quel point le web est vaste et à quelle vitesse le nombre de pages progresse.

 Lors de la première indexation officielle de Google, le fameux moteur de recherche recense près de 26 millions de pages, deux ans plus tard, le cap du milliard de pages est franchi. En sachant qu’il peut y avoir plusieurs URL (chemin d’accès) pour une même page (objet informationnel unique), les professionnels du web proposent un ratio de 10 URL pour 1 page tandis que le site TechCrunch propose lui un ratio de 25 URL pour 1 page. Soit, 588 pages uniques par domaine pour le premier et 235 pages uniques par domaine pour le second. Que l’on opte ensuite pour l’un ou pour l’autre, l’évolution du nombre de pages indexées sur la période 2008-2012 est la même, soit 21%.

Si l’on applique le ratio des professionnels du web sur le nombre de domaines évalué en juin 2012 à 697 089 482 , on arrive à près de 410 milliard de pages (697089482 noms de domaines x 588 pages par nom de domaine = 409 888 615 416 pages).

 En juin 2011, soit il y a tout juste un an, Cisco estimait qu’il faudrait 7 millions de DVD pour stocker la somme d’informations correspondant au trafic global d’Internet… pendant 1 heure.

Comment peut-on encore penser que la surcharge informationnelle et donc cognitive, n’a pas d’effet sur nos capacités à évaluer l’information sur internet ?

Concocté à partir du mémoire de recherche « Évaluer l’information sur le web, peut-on arriver à une pertinence sociocognitive satisfaisante ?« .

25
Oct 12

Deuxième partie de mon cours sur l’Analyse des Réseaux Sociaux, hier à l’ISC Paris . Une des particularité de ce cours est que je ne délivre pas de support de cours. Pour que les étudiants aient de la matière, je leur ai proposé d’animer un LiveTweet avec un hashtag spécifique.

Les étudiants des promos 2013 en « Management de l’Information et Communication Digitale« et « Management et Marketing des Technologies de l’Information » ont donc (presque) tous animé le cours de leur tweets.

Vous trouverez ci-dessous le pdf généré par Tweedoc, un logiciel qui permet de compiler et de présenter l’ensemble des tweets émis portant le même hashtag.

15
Oct 12

inist-buzz-analyse-reseaux-sociaux

A l’occasion de la première partie du cours sur l’analyse des réseaux sociaux, j’avais proposé à mes étudiants des cas concrets de buzz en cours. L’un d’entre eux portait sur l’INIST.

L’agence E, composée de 3 étudiants en Master 2 de Management de L’Information et Communication Digitale (MICD), à l’ISC Paris, m’a proposé ce week-end (oui, oui, je les fait bosser comme une agence) leur version finale d’un document intéressant.inist-buzz-analyse-reseaux-sociaux

En 15 minutes ils ont dû comprendre les tenants et les aboutissants, positionner les acteurs et trouver la source du buzz. Bien évidemment aucun d’entre eux ne connaissait l’INIST. Mission réussie.

Le travail d’analyse, de lecture comparative, d’identification des sources est arrivé dans une deuxième phase ainsi que la mise en forme du document final. Le tout représente environ 2 heures de travail à 3… qui a dit que les digital natives n’arrivaient pas à faire du collaboratif ?

Après les articles ce matin des sites www.savoirscom1.info et bibliothèques, voici notre petite pierre à l’édifice.

Voici donc « l’analyse des réseaux sociaux – cas pratique de #INISTGATE« .

Vous pouvez également télécharger directement le document « L’analyse des réseaux sociaux – cas pratique de #INISTGATE ».

Qui suis-je ?

guillaume-nicolas meyer

Bienvenue sur mon blog. Je m'appelle Guillaume-Nicolas Meyer, j'ai 40 ans, je suis marié, papa de quatre enfants, et je suis un Knowledge Manager polymathe et curieux. Chercheur en sciences humaines et sociales, doctorant en sciences de gestion, je m'intéresse également aux sciences cognitives et à l'environnement. Après la région parisienne, la Bretagne et l'Alsace, je suis actuellement basé en Poitou-Charentes, France.

Curriculum Vitae

CV de Guillaume-Nicolas Meyer

Guillaume-Nicolas Meyer QR Code

Khan Academy Ambassador

Dernières publications



Mémoire de recherche sur l'évaluation de l'information sur le web

Mon dicton du moment

"Ceux qui sont pleins de certitudes devraient avoir un doute..."

Le journal des SIC vient de paraître

Plus de 500 tweets et retweets en 1 an !