mercredi 31 mars 2010

FBI is watching you...

Maxi Sopo, homme d'origine camerounaise, arrive à 23 ans à Seattle. Accusé de fraude bancaire, il fuit au Mexique. De là-bas, il donne régulièrement de ses nouvelles sur le réseau social Facebook. L'histoire est banale jusqu'ici, seulement il ne sécurise pas "sa page". Grâce aux informations publiées par l'homme, le procureur Michael Scottville localise et fait extrader l'homme pour qu'il soit jugé. L'événement date d'octobre 2009.

Le fait est connu, à savoir que des autorités telles que le FBI contrôlent les informations publiées sur internet. Cette surveillance a permis de nombreuses arrestations dans le cadre d'affaires pédophiles. Cela soulève cependant le problème de la liberté et de la garantie des données personnelles. Qu'en est-il des données publiées par un utilisateur lambda? Peuvent elles être surveillées voire traitées contre le gré de la personne concernée.

Suite à l'affaire, récemment, une association de défense des libertés civiles, Electronic Frontier Foundation porte plainte contre le ministère de la Justice et cinq autres agences devant un tribunal fédéral afin d'obliger ceux-ci à dévoiler leur politique en la matière. Un dossier de 33 pages est ainsi émis. La façon de veiller des agents n'est pas dévoillé mais néanmoins il y est expliqué les liens entretenus entre l'agence et certains réseaux sociaux, dont, entre autre, Facebook, Twitter, LinkedIn et MySpace. Ainsi Facebook est présenté comme "coopératif pour les demandes urgentes", Twitter demanderait, lui, des mandats avant de délivrer des informations sur un membre, etc.

Outre la question des libertés d'expression, cette surveillance pose aussi la question de la légalité de ces pratiques. Pourquoi le FBI serait exempté de poursuites, alors qu'il est avéré que l'utilisation de fausse identité sur les réseaux sociaux peut être passible d'années d'emprisonnement ( cf. en 2008, une femme du Missouri a été inculpée pour "fraude informatique" car elle s'était créé un faux compte MySpace.)

La cybercriminalité devient un enjeu important au fur et à mesure que les sources de partages d'information se développent. En réaction, un ancien procureur américain, spécialiste de la cybersécurité, Marc Zwillinger, estime que "Cette situation nouvelle nécessite une surveillance approfondie pour que les forces de l'ordre n'utilisent pas les réseaux sociaux pour une intrusion dans nos relations les plus personnelles"

http://www.zdnet.fr/actualites/internet/0,39020774,39750177,00.htm

Vers une fin de la domination d'Internet Explorer ?

En décembre a eu lieu entre la Commission européenne et Microsoft, un accord mettant fin à l'association systématique du logiciel d'exploitation Windows avec le navigateur Internet Explorer. Cette affaire prend source avec la plainte du navigateur Opera auprès des autorités européennes de la concurrence. Celle-ci a alors reconnu l'abus de position dominante de l'entreprise américaine. Ainsi depuis le 1er mars 2010, il est donné à l'utilisateur des Windows XP, Vista et 7 la possibilité de choisir librement leur navigateur. Via Windows Update un écran de sélection, le "ballot screen" (voir l'image ci-dessous), en propose douze dont celui de Microsoft. Les 5 navigateurs les plus populaires doivent apparaître les premiers conformément à la demande de la Commission européenne.




"Ballot screen"
(source : http://www.forum-seven.com/wp-content/uploads/2009/07/ballot-screen-2.jpg , consulté le 31/03/2010)


Ainsi un mois après quasiment, le site de statistiques Statcounter donne une idée de l'effet de cette loi sur les parts de marché du navigateur en Europe:
  • Internet Explorer voit sa part de marché légèrement se réduire (bien qu'au niveau mondial elle stagne autour de 54%), et c'est en France que cette baisse est la plus significative en passant sous la barre symbolique des 50% ;
  • Firefox se maintient (31%) mais tend à gagner du terrain dans certains pays (Angleterre, France, Italie) ;
  • Chrome se profile comme le troisième concurrent sérieux (7,33% en mars mais avec une progression de près d'1% en un mois).
En ce qui concerne les autres navigateurs, ils ne sont pour l'instant pas trop touchés par ce changement de politique et évoluent sous les 4%.
Dans quelques mois, il sera possible d'avoir un aperçu plus clair sur la situation. L'enjeu est de poids puisque la Commission Européenne estime que cent millions de PC afficheront d'ici à mi-mai l'écran de sélection et Microsoft s'est engagé à proposer ce dernier pour l'Europe pendant cinq ans.

lundi 29 mars 2010

Le marronnier du printemps : l'e-book au Salon du Livre

Le Salon du Livre de Paris présente pour la 3ème année consécutive un périmètre dédié à l'édition numérique et à la lecture de demain.

Les espaces d'exposition permettent de découvrir et manipuler des lecteurs d'e-books (Sony, Bookeen...). Au stand Apple, on attend sereinement la commercialisation de la très esthétique tablette Ipad prévue pour fin avril. L'offre en terme de support et de contenu est désormais abondante et de qualité (capacité croissante de titres, amélioration de l'ergonomie...). Si les conditions de la création d'un marché du livre électronique semblent désormais réunies, encore faut-il que le public - et donc les ventes- soient au rendez-vous. Parmi les conférences sur les applications du numérique et la lecture sur support mobile, l'intervention sur les DRM n'a pas drainé les foules. Les questions complexes de l'interopérabilité des données et la multiplicité des plateformes d'édition (Numilog, Editis...) déconcertent peut-être le grand public. Dans ce contexte, un communiqué du 23 mars du Conseil du Livre présidé par le ministre de la Culture et de la Communication sur les orientations relatives aux questions numériques marque clairement la volonté de l'Etat d'éviter toute situation monopolistique en annonçant son aide financière au projet de plateforme des libraires indépendants.

Les résultats de l'étude de marché sur les publics du livre numérique (CNL/ Ipsos) , dévoilée dans le cadre du Salon et la conférence du 31 mars ("le livre à l'heure du numérique"), permettront déjà d'éclairer le marché afin de mieux cibler les potentiels acheteurs.

samedi 27 mars 2010

De nouveaux services de veilles pour les professionnels de l’information et des bibliothèques

L’ENSSIB (Ecole Nationale des Sciences de l’Information et des Bibliothèques) propose depuis février 2010 une nouvelle rubrique destiné aux professionnels de l’information et des bibliothèques sur son site Internet. Trois nouveaux services y sont proposés.

- Enssibrèves. Ce service propose de courts extraits d’articles sélectionnés ou des signalements d’information issus de la presse quotidienne en ligne. Toutes ces informations sont référencées laissant la possibilité aux utilisateurs, si ils le souhaitent, d’accéder au document intégral.

- Enssibase. Il s’agit d’un service en ligne gratuit de dépôt et de diffusion d’annonces d’offres d’emploi et de stages. Il rassemble toutes les offres d’emplois publiques relatives aux métiers des sciences de l’information, de la documentation, des archives et des bibliothèques. Ainsi, il est possible de déposer une offre via un formulaire, de consulter toutes les offres ou d’effectuer une recherche par critère. une sélection de sites d’emploi est également mise à la disposition des utilisateurs.

- Agenda des manifestations. Ce service recense les événements scientifiques, nationaux et internationaux, en lien avec le monde des bibliothèques et de l’information.

Cette nouvelle offre de l’ENSSIB destinée à la communauté des professionnels des sciences de l’information et de la documentation s’enrichira, à terme, d’autres services comme une revue de presse professionnelle des publications scientifiques en sciences de l'information.

mercredi 24 mars 2010

Source de donnée et source de découverte

Une information découverte à travers d’un tweet ou d’un article d’un blog doit-elle être citée en tant que source ? Cela peut paraître une question banale, à laquelle on répond immédiatement « oui ». Si on rentre un peu plus dans le détail, les choses se compliquent.

On part d’un fait divers : une information inédite tweetée est immédiatement retweeté et ensuite reprise dans un article d’un blog, ce qui fait que « l’article est lu plusieurs centaines de fois en 24 heures et que l’information est retweetée près de 70 fois sur la même période » sans que l’auteur d’origine soit cité (source : http://ow.ly/1p3P7 [consulté le 24 Mars 2010]).

Au sein de la communauté twitter le problème est d’ordre « pratique ». La fonction « retweet » sert justement à relier une information à son auteur d’origine, grâce à la mention « RT ».
On pourrait choisir de ne pas retweeter une information, mais tout simplement de la reprendre dans un nouveau tweet. Une citation, selon l’article L. 122-5 3° du code de la propriété intellectuelle, doit être courte par rapport au texte d’origine.
Dans un cas comme l’autre, cela ne laisse pas beaucoup de marge de manœuvre à celui qui veut reprendre un tweet et le citer, ou le retweeter, dans les 140 caractères à sa disposition. (source: http://decryptages.wordpress.com/2009/09/14/du-droit-de-citation-sur-linternet/ ).

D’un point de vue sociologique, on argumente que « les réseaux « temps réels » mettent l’accent sur la diffusion de l’information et non sur la création d’une information nouvelle » (http://blog.vicus.fr/2010/03/22/debat-kriisiis-fr-doit-on-citer-les-sources-provenants-de-twitter/ [consulté le 23 Mars 2010]). Cela est en effet vrai, mais on ne peut pas nier l’évolution de ces réseaux qui sont devenus, parfois, de vraies plateformes de lancement d’information.
Les réseaux "temps réel" sont désormais des sources à part entière et la vitesse de circulation de l’information qui leurs est associée rend encore plus nécessaire la transparence de la source de découverte de l’information. D'autant plus lorsque l’information est reprise dans des articles de journalistes et informe le grand public.

Les révolutions de la géo-localisation : l’exemple de Géoportail

La géo-localisation connaît une révolution aussi profonde que rapide. Lancé en 2006, le Géoportail (http://www.geoportail.fr) de l'IGN (Institut géographique international) est un service gratuit proposant des cartes géographiques en ligne de tous les territoires français, y compris l'outre-mer. Le Géoportail s’appuie sur un un moteur de recherche, le géocatalogue, qui utilise un catalogue fédératif facilitant l’accès Internet au patrimoine des informations publiques.

Ses publics :

- les services administratifs accèdent à des données géographiques utiles pour leur mission de service public.
- les citoyens et les entreprises accèdent à une information permettant d’appréhender la réalité physique de leur région, ville, quartier, etc.

Ses objectifs :

- donner un accès direct et complet à l’information géographique.

- diversifier les recherches du simple itinéraire à la requête précise de l’adresse d’un particulier ou d’une entreprise.

- classer les données interopérables grâce au géocatalogue selon les normes ISO/OGC.

- proposer un service de qualité en fonction notamment de la précision des photos aériennes (jusqu’à un pixel équivalent à 50 centimètre au sol).

Le Géoportail permet de naviguer en 2D sur les photos aériennes et les cartes IGN de France. Récemment développé, le Géoportail en 3D offre une vue plurielle des cartes, des bâtiments et des reliefs naturels du terrain. Les espaces ruraux et urbains changent de perspective. Le Géoportail permet ainsi d’allier une ergonomie simple et efficace à un appui technique utile proposant des solutions aux professionnels comme aux particuliers.

Son succès se mesure à sa fréquentation. En 2008, le Géoportail a séduit plus de 11,6 millions d’internautes.

Pour conclure, les perspectives qui s’offrent actuellement au Géoportail consistent à juxtaposer les données mises à jour provenant des ministères et des collectivités, des réseaux de transport aux plans d’aménagement des espaces. Le but ultime étant de fournir autant au décideur qu’au citoyen une connaissance actualisée des territoires. Les informations réglementaires parfois abstraites acquerront ainsi une transparence et une lisibilité renforcées.

mardi 23 mars 2010

En 2010 la CNIL renforce ces actions de contrôle de l'identité numérique

Le 18 février, la CNIL s'est réunie en Commission plénière  pour fixer le programme des contrôles qui seront effectués en 2010. Deux points ressortent : d'une part,  le nombre de contrôles mis en place continue d'augmenter, et d'autre part les efforts seront centrés sur des domaines de la vie quotidienne, afin de mieux protéger les droits des personnes.

Alors qu'en 2009, 270 contrôles ont été réalisés, la CNIL prévoit d'en effectuer plus de 300 pour 2010. Ces contrôles s'appliqueront à l'ensemble du territoire, de façon à garantir le respect des droits des citoyens, quel que soit leur lieu de résidence. 50% de ces actions concerneront le suivi des contentieux, et 50%  l'application du programme annuel.

Ce programme annuel s'articule autour de deux grands axes :
-une série de contrôles destinés à valider les procédures établies par la CNIL
-une surveillance du respect de la vie privée, à travers quatre domaines essentiels pour le respect des droits des individus.
 
Il s'agit premièrement de vérifier que les dispositifs de vidéosurveillance respectent  l'application des principes issus de la loi "informatique et libertés" ; deuxièmement, de contrôler la gestion des informations sur les personnes, dans le secteur de l'immobilier (conservation des données issues des dossiers de candidature, lutte contre la discrimination) ; troisièmement, de protéger les données numériques d'un public d'internautes particulièrement sensible, les mineurs (contrôle des sites web marchands à destination des mineurs) ; et quatrièmement, d'étudier de près toutes les répercussions que le fait de prendre l'avion peut avoir sur notre vie privée (transmission des fichiers clients, dispositif de "body scanner").

L'objectif de ces mesures est de sensibliser les citoyens à être vigilants concernant leurs traces dans l'environnement numérique et de protéger leurs droits.

Un nouveau livre blanc sur la veille...

...vient d'être publié par Digimind : "Pourquoi investir dans un logiciel de veille ?" (12 mars 2010)

Certes, c'est un éditeur de logiciel de veille (et pas des moindres) qui nous explique pourquoi investir dans un outil tel que le sien mais ce document nous guide sur les bonnes questions à se poser et les arguments à avancer dans le cadre d'un projet de veille lorsque l'achat d'un outil de veille intégrée quel qu'il soit est envisagé.

Ce livre blanc permet de répondre à des questions du type :

Quelles sont les caractéristiques d’un bon progiciel de veille intégré ?
Quels gains significatifs et axes de retours sur investissement pouvez-vous attendre afin de rassurer votre hiérarchie ?

Bref plein de bonnes idées à creuser...

Télécharger gratuitement le livre blanc
A condition de renseigner un formulaire d'inscription.

lundi 22 mars 2010

Folksonomies et tagging

Depuis 7 ans, le phénomène de folksonomie ne cesse de prendre de l’ampleur avec l’avènement des nouvelles technologies du web, dites « web 2.0 », qui donnent plus de possibilités d’expression à l’internaute. On rencontre également fréquemment le mot tag qui désigne un mot-clé.

La folksonomie se définit comme "un système de classification collaborative décentralisée spontanée, basé sur une indexation effectuée par des non-spécialistes." (Wikipédia).

Le site Flickr propose un exemple d'utilisation d'une folksonomie. Il permet le stockage massif des photos, accessibles par défaut à tout le monde. Le classement se fait, non en rangeant la photo dans un répertoire arborescent, mais en lui associant un ou plusieurs mots-clés. L'ensemble des mots-clés d'une personne peut être visualisé sous la forme de nuages.

Comment expliquer le succès des folksonomies ? On peut évoquer plusieurs raisons : l'économie de compétence documentaire et informatique, les internautes sont libres d’y choisir leurs propres mots-clés, un moyen de communication universelle, le bénéfice du filtrage collaboratif...

Mais cette nouvelle forme d'auto-organisation suscite des débats et des interrogations de différentes communautés professionnelles et scientifiques : quelle place accorder à ce phénomène ? Est-il durable ou n’est-ce qu’un effet de mode ? Les systèmes de classification et les thésaurus sont-ils menacés par ces systèmes ?

Pour amorcer le dialogue, l'équipe DICEN (Dispositifs d'Information et de Communication à l'Ère Numérique) du CNAM organise ce mardi 26 mars le séminaire Folksonomies et Tagging.


Evelyne Broudoux nous informe que "l'ensemble de la journée sera podcastée et les fichiers mp3 seront disponibles sur le site du Dicen."

Connaissez-vous les Barcamps ?

Les Barcamps sont des sortes de conférences collaboratives (des "non conférences"), dans lesquelles il n'y a pas de spectateurs, uniquement des participants actifs.

Le premier Barcamp a été organisé en 2005 en Californie. Il s'inspirait des Foo camps, des rencontres également collaboratives consacrées aux logiciels libres mais pour lesquelles les participants étaient sélectionnés.

Pour les Barcamps au contraire, l'inscription est libre, gratuite et se fait principalement par le biais d'outils du Web 2.0 : sur le site barcamp.org, par exemple, l'internaute peut chercher la page wiki du Barcamp qui l'intéresse, se créer un compte et s'inscrire en indiquant son nom, sa société et ses intérêts relatifs au thème abordé (orientant ainsi la rencontre). De la même façon, tout le monde peut lancer un Barcamp.

Par ailleurs, les thèmes abordés sont variés. A titre d'exemple, certains Barcamps organisés à Paris en 2009 ont porté sur les finances éthiques, le web social ou encore la e-réputation.

Dernièrement, le 17 mars, un Barcamp a été organisé sur le thème de la "Cartographie de l'information" et un autre, "CrunchMyDataCamp" se tient aujourd'hui , sur le thème de la gestion des données et des problèmes posés par l'explosion de leur volume.

A consulter:
- L'article de Wikipédia "BarCamp"
- Le site de référence barcamp.org

vendredi 19 mars 2010

L'Illectronisme

Traduit de l’anglais « computer illiteracy », l’illectronisme désigne les individus n’ayant pas accès aux nouvelles technologies ou qui ne savent pas les utiliser. D’une part cette incapacité s’applique aux contenants de l’informatique, c'est-à-dire le matériel, et d’autre part le contenu et la structuration des informations, notamment sur Internet. Les populations les plus concernées par le risque d’illectronisme sont celles qui sont déjà victimes de d’autres injustices telles que le chômage, l’accès au logement ou à des outils de communication, des zones mal couvertes par les réseaux. Certains handicaps et le manque d’outils adaptés, les difficultés avec le langage écrit sont autant de causes plausibles pour expliquer ce retard. Cela étant d’autant plus pénalisant car l’usage d’Internet permet d’obtenir toute une série d’avantage (délais pour payer ses impôts, imprimer des formulaires administratifs, rapidité de traitement …) dont ces populations auraient plus besoin qu’un citoyen lambda. A titre indicatif, seulement 35% auraient accès à Internet contre 83% d’individus issus de milieux favorisés.

Un colloque intitulé « Illettrisme, illectronisme: déceler, prévenir, agir » s’est tenu à Besançon en novembre dernier, organisé par l’ACCOLAD (Agence régionale de coopération de Franche-Comté, lecture, audiovisuel et documentation). Entre 2004 et 2005, la France comptait environ 9% d’illettrés et une étude de l’OCDE démontrait qu’un quart de la population des pays industrialisés (enquête sur une vingtaine de pays) ne maîtrisait pas suffisamment la lecture et l’écrit pour pouvoir naviguer sur Internet. L’ACCOLAD a conclu un contrat de partenariat avec des bibliothèques. Pour rendre ce projet possible, ces dernières doivent aller au devant des organismes d’insertion afin de connaître le public et le stimuler. En 2000, la BNF, la BPI et l’ENSSIB avaient déjà réfléchi à ce problème autour d’une table ronde et chaque structure avait lancé son projet. La BPI a animé des ateliers d’aide à la recherche documentaire et la BNF a dispensé des formations sur l’utilisation du catalogue de la bibliothèque auprès d’un public essentiellement composé d’étudiants. 80% d’entre eux ont déclaré être satisfaits de cette prestation. A Marseille, les « Webtrotteurs », jeunes de 15 à 25 ans issus des quartiers défavorisés, ont appris à exploiter l’outil informatique en réalisant des reportages sur Internet. Depuis, ce projet, qui a rencontré un vif succès, a été repris dans d’autres villes. D’autres initiatives ont vu le jour en Europe, telle que TICMANIA, consistant à publier des fiches d’instruction dans les journaux espagnols pour expliquer aux néophytes comment utiliser une messagerie Internet et rencontrer des gens sur la toile. Le programme s’est même étoffé, proposant aux utilisateurs des démonstrations via des émissions télévisées pour progresser davantage.

Ainsi, nous constatons que l’attrait des nouvelles technologies a changé la donne et impulsé la lutte contre l’illettrisme, faisant d’une pierre deux coups. Qui plus est, l’engouement s'avère transgénérationnel. En effet, Nintendo et sa console WII ont réussi à séduire les séniors en leur permettant de créer du lien social, une meilleure motricité (Wiifit) et un maintien de leurs capacités cognitives.

La politique du livre face au défi du numérique

La commission des finances du Sénat a publié son "Rapport d'information [...] sur la politique du livre face au défi du numérique" le 24 février. Petit résumé :

Dans sa première partie, ce document établit, en étudiant les différents budgets consacrés et les précédents rapports menés sur ce thème, que la politique du livre est tiraillée entre divers ministères sans autorité (de "chef de file") transversale pour la diriger.
Sur la question spécifique des aides apportées au livre numérique, l'auteur indique que malgré les ambitions affichées, elles restent en deçà des objectifs fixés et qu'elles ne bénéficient pas à assez d'acteurs (la BNF captant majorité de ces sommes)

C'est à travers "l'affaire Google" que le rapporteur aborde, dans un second point, les axes potentiels du développement du livre numérique. En ce sens, l'ouverture des débats, initiée par l'actuel président de la BNF, pour la collaboration entre les bibliothèques françaises et Google pourrait s'avérer porteuse, pour peu qu'elle soit souhaitable (la position de l'ancien président de la BNF est rappelée) ou réalisable (et les objectifs du rapport Teissier sont ainsi passés au crible).

L'auteur observe enfin le marché du livre numérique aux Etats-Unis, plus avancés dans ce domaine : bien qu'en expansion, le livre numérique a fragilisé les éditeurs soumis à un distributeur unique. Un écueil dans lequel la France ne doit pas tomber ; aussi le rapporteur conclut-il sur l'importance de créer une plate-forme de distribution (pour les éditeurs) et une de commercialisation (à destination du public).

Habillez votre blog WordPress !!

WordPress compte parmi les Content Management System les plus populaires car il permet de créer facilement son blog. Le succès de Wordpress est selon le développeur collaborant Andy Skelton : «une petite industrie mondiale de services». Qu’est-il réellement possible de faire ergonomiquement avec WordPress ?

Le magazine Web Design Hors-série n°4 du mois de mars présente des articles intéressants sur une des solutions de blogging les plus présentes dans la blogosphère mondiale ; de la création de A à Z, à l’évolution graphique d’un blog WordPress : les possibilités de l’application sont mises à l’honneur.

Des solutions de structuration du contenu (ajout de menus, gestion des mots-clés et des catégories, blogroll, insertion et gestion de médias..) et de paramétrage ergonomique avancé sont proposées. Comment améliorer graphiquement son blog WordPress à l’aide de Photoshop CS4 et quelles fonctionnalités est-il possible d’utiliser/d’ajouter via l’application ?

La tendance design du moment : un dessin à la main retravaillé sous Photoshop faisant office de Template et la possibilité de créer ses feuilles de style (CSS) ou de trouver ce qui vous correspond avec des conseils pour optimiser son thème sur l’en-tête des articles et sur les pieds de page ; à ce sujet, voir également ce lien très intéressant sur le codex : Trouver votre style CSS.

Sur le même sujet, le livre d’Amaury Balmer (coécrit par Xavier Borderie et Francis Chouquet) : « WordPress, toutes les clés pour créer, maintenir et faire évoluer votre blog » et d’Andy Clark intitulé : « Transcender CSS, sublimez le design Web », (Avant-propos de Molly E. Holzschlag, Préface de Dave Shea, Editions Eyrolles) proposent également des méthodes applicables de conception et d’amélioration ainsi que des conseils ergonomiques intéressants.

Il est également possible de télécharger gratuitement d’autres thèmes que ceux proposés par défaut comme sur Smashing Magazine.


Des tutoriels sont proposés pour programmer ces nouveaux thèmes en code source, ainsi que des illustrations de blogs et de sites les plus réussis parmi lesquels : Pixel Criminals Design Blog.

Outre les fiches méthodes et des exercices détaillés, le magazine propose de tester quelques fonctionnalités de WordPress à partir d’un CD de tutoriels.
Ce numéro spécial consacré à WordPress permet non seulement de se familiariser avec le blog mais également de découvrir peut-être certaines fonctionnalités méconnues.

Actualités, interviews, dossiers, glossaires, cahiers d’experts et tutoriels, ce magazine est une réelle délectation. Il permet d’avoir non seulement un regard critique de professionnels sur la toile, mais également un panorama des nouveautés web. Seul regret : son prix.

Brève histoire de WordPress :

La plate-forme Open source a été cocréée par Matt Mullenweg et Mike Little en 2003.
Mai 2003 : version 0.7 compatible avec le XHTML
Juin 2003 : version 0.71 avec un gain de vitesse de 300%
Janvier 2004 : version 1.0 avec permaliens
Mai 2004 : version 1.2 avec apparition des sous-catégories
Février 2005 : version 1.5 avec une grande évolution en un système de gestion de contenu (SGC)
Janvier 2007 : version 2.1 avec correcteur automatique
Mars 2008 : version 2.5 avec widgets, transferts multiples de fichiers, galeries photos intégrées
Juillet 2008 : version 2.6 avec l’option comptage de mots des billets, légendes, gestion de masse

Pour plus d’informations, rendez-vous sur le blog : www.webdesignmag.fr.
Le magazine dispose également de comptes :

mardi 16 mars 2010

Voxalead : la voix de son maître

Une petite révolution dans l'univers des moteurs de recherche vient de se produire. Exalead, éditeur français du moteur de recherche éponyme lance un nouveau service nommé Voxalead.

Voxalead est un moteur de recherche par mots présents dans une vidéo ou un enregistrement sonore.
Grâce à un système de reconnaissance vocale très sophistiqué, le moteur de recherche retranscrit et indexe tous les mots prononcés dans un document vidéo ou audio. La recherche peut ensuite s'effectuer comme dans un moteur de recherche traditionnel en s'appuyant sur les mots présents dans le document. Là où auparavant la recherche ne pouvait porter que sur les métadonnées, elle peut dorénavant l'être sur le contenu audio/vidéo lui-même.
Voxalead repose sur la technologie "Speech to text" élaborée par Vecsys. Le taux de reconnaissance des mots prononcés est d'environs 90%, ce qui laisse encore une marge d'erreur assez conséquente. D'autant plus que ce taux tombe à 50% lorsque que les phrases sont prononcées dans un environnement bruyant.
Le service communication de l'Elysée s'est très vite montré très intéressé par ces nouvelles fonctionnalités et a confié à Exalead l'indéxation des discours du Président afin de permettre aux visiteurs du site elysee.fr de visionner les interventions du chef de l'état en fonction de leur contenu.
France 24 et Voxalead proposent de rechercher des documents sur l'actualité à cette adresse : http://france24.demos.voxalead.labs.exalead.com
S'il s'agit encore d'une version bêta en phase de test, les débuts semblent très prometteurs.



lundi 15 mars 2010

Les entreprises bretonnes et la veille : une enquête intéressante pour les professionnels de l'info-doc

L'Arist Bretagne (Agence régionale d'information stratégique et technologique) présente les résultats de son enquête sur les pratiques de veille et d'intelligence économique, menée pour la huitième année consécutive auprès de plus de deux cents entreprises bretonnes. Nul doute que ses conclusions feront écho auprès des acteurs sur l'ensemble du territoire et ne manqueront pas d'intéresser les spécialistes en info-doc.

Le questionnaire que l'Arist a adressé à plus de 4000 entreprises bretonnes (226 réponses) se divisait en quatre volets : l'intérêt pour l'intelligence économique, la maîtrise des outils de veille sur Internet, l'organisation de la veille et la sécurisation de l'information dans l'entreprise.

Si le concept d'intelligence économique reste encore flou dans l'esprit de la moitié des dirigeants, celui de la veille se révèle mieux connu et mieux maîtrisé, ce qui amène les auteurs du rapport à penser qu'« il serait souhaitable de poursuivre les efforts de "démystification" de l'intelligence économique ».

Côté veille, les dirigeants interrogés reconnaissent l'imperfection de leurs processus de veille et ont de plus en plus tendance à externaliser les services de veille, y compris payants. Ils avouent entre autres leurs problèmes à accéder aux informations économiques : données de marché, informations sur les concurrents et les clients sont les informations les plus difficiles à trouver.
De même, ils font état de trois grands types de difficultés dans la mise en oeuvre de leurs dispositifs de veille : les difficultés opérationnelles, les difficultés en lien avec la stratégie d'entreprise et avec le management.

Au niveau des sources d'information exploitées, l'Internet gratuit arrive en tête devant la presse, alors que salons et recours aux organisations professionnelles sont en perte de vitesse. Les confrères et autres entreprises (à rapprocher des communautés d’entreprises) restent en revanche une source privilégiée d'information.

Cette prépondérance des sources en ligne est toutefois contrebalancée par la maîtrise imparfaite des outils de veille sur Internet : nombreuses sont les entreprises qui avouent que leur niveau de connaissance ne leur permet pas d'assurer une veille satisfaisante et efficace. Seul un tiers d'entre elles voit l'intérêt de suivre une formation pour améliorer leur processus de veille, même si ces entreprises déplorent faire une utilisation assez "superficielle" de la panoplie des outils de veille sur le web. Enfin, les entreprises bretonnes manifestant massivement leurs bonnes intentions et l'intérêt qu'elles auraient à améliorer leur système de veille, on peut penser que les professionnels de l'info-doc ont encore de beaux jours devant eux.




L'E-Réputation au programme

L'e-réputation est un concept en vogue. Mais que recouvre-t-il ?
Pour Gautier Barbe, auteur du blog Boîte de veille, c'est "L'image d'une entité sur le Web. Elle est définie par les internautes qui communiquent sur la toile et elle est perceptible via les médias en ligne, blogs, espaces de discussion et médias sociaux. Difficilement contrôlable, elle est devenue un enjeu stratégique tant son impact est puissant sur les ventes et l'image d'un produit, d'une marque ou d'une personnalité".

Deux évènements nous permettent aujourd'hui d'alimenter nos réflexions sur ce sujet. Il s'agit tout d'abord de la publication d'un Livre blanc sur l'e-réputation, sur le blog Demain la veille. Cette synthèse dirigée par Aref Jdey réunit les visions de bloggeurs, professionnels et praticiens sur les différents aspects de l'e-réputation: le marché de l'e-réputation, les indicateurs, la cartographie, le gratuit VS payant,...
Consulter le Livre blanc sur l'e-réputation

D'autre part, une conférence sur l'e-réputation aura lieu le 22 mars 2010. Organisée par le Groupe Intelligence Économique et Stratégique de l'ESCP, cette conférence aura pour thème : "Influence sur Internet et e-réputation : comment les entreprises peuvent gérer leur réputation en ligne et en tirer profit ?"
Les intervenants : Frédéric Martinet, auteur du blog actulligence.com, et Camille Alloing, auteur du blog CaddE-Reputation.
Informations pratiques : La conférence aura lieu de 18h à 20h dans les locaux de l'ESCP-EAP (79 avenue de la République, Paris 11).
L'entrée est gratuite mais l'inscription obligatoire.
Pour plus d'informations, voir le blog actulligence.com

vendredi 12 mars 2010

Gare à l'invisibilité !

Le salon Documation – rendez-vous de la gestion de contenu et du document – va avoir lieu le 17 et 18 mars. Il va proposer encore plus de solutions techniques, technologiques et automatisées pour aider les professionnels dans leurs fonctions de veille, de gestion, de diffusion sélective d’information et de documentation…

Sans ces technologies, il devient quasi impossible de répondre aux besoins des utilisateurs. Les solutions proposées par les fournisseurs (logiciels de veille, de gestion de contenu ou de documents,...), dans le même temps, deviennent de plus en plus ergonomiques. L'apparente simplicité d'usage, souvent mise en avant dans les démonstrations des exposants, laisse croire que l'outil va répondre sans difficulté aux besoins des usagers qui, de plus en plus, peuvent se demander à quoi servent les professionnels de l’info-doc. Les machines apportent tant de solutions !

Olivier Le Deuff propose une intéressante réflexion sur Homme ou machine ? Qu'est-ce que la culture technique ? Il insiste sur le fait que « la culture n’est rien d’autre que la capacité d’hériter collectivement de l’expérience de nos ancêtres et cela a été compris depuis longtemps. Ce qui a été moins compris, c’est que la technique (…) est la condition d’une telle transmission. »

Durant cette dernière décennie, le web révolutionne le rapport au temps, à l’espace, à l’objet : on dématérialise ; on veut tout tout de suite et partout et on croit de plus en plus pouvoir l’obtenir : tout parait si simple et à portée de main grâce à la machine.

Je suis moins sûre que la culture technique nécessaire à l’utilisation performante de ces outils évolue aussi rapidement que les solutions techniques. C’est pourquoi, je ne suis pas inquiète pour les métiers de l’info-doc qui justement possèdent les techniques de recherche, d’organisation de l’information et des documents, de diffusion. Ces solutions sont une chance pour nous…

… à condition de le faire savoir, de le montrer au grand jour car le public perçoit de moins en moins notre rôle, derrière ces machines.

Petite anecdote révélatrice :

Une collègue documentaliste va partir en retraite et sait que son poste risque de ne pas être remplacé. Elle en parle à des utilisateurs de son service et leur réponse a été : « ce n’est pas grave : on trouve tout sur votre site maintenant… » sauf qu’elle ne sera plus là pour passer la plupart de son temps à sélectionner, traiter, gérer les ressources mises à disposition des utilisateurs précisément sur le site en question !

Et oui, derrière le web… visible et invisible se cache une multitude de professionnels invisibles.

A nous, professionnels de l’info-doc, de mettre en avant notre savoir-faire, notre technicité et de trouver comment ses machines peuvent nous y aider.

jeudi 11 mars 2010

Chatroulette et formation 2.0

Le zapping humain n'est plus cantonné à la télé-réalité. Le web s'est récemment emparé du concept en permettant de chatter avec un inconnu pris au hasard sur la toile ... puis de passer au suivant.

La chatroulette est une sorte de roulette russe du chat qui permet de discuter via webcam avec un parfait inconnu de manière totalement aléatoire. Une occasion unique de parler agriculture biologique avec une infirmière de Portland, puis de tenter de convaincre un Australien de la place centrale, forcément centrale, de la France dans le monde.
On navigue d'un interlocuteur à l'autre par simple clic sur la touche next. Un zapping cruel ... mais parfois indispensable vu qu'on peut y trouver le meilleur comme le pire !
Pour éviter les rencontres indésirables, de nouvelles applications apparaissent déjà (comme TinyChat Next !) qui propose la possibilité de créer des communautés ou des groupes de discussion.
Ces projets innovants ne sont pas encore dans leur phase de maturité mais pourraient servir de cadre de formation dans les entreprises.
En effet, Sally Ann Moore (fondatrice et directrice du forum ilearning) présente, dans une interview donnée à Nextmodernity, les résultats d'une étude américaine sur les stratégies de formation qui permettent le mieux de mémoriser l'information. Largement en tête apparaît l'apprentissage par les pairs (90% de mémorisation de l'information), loin devant les jeux sérieux et la simulation (60 à 75%), le travail en groupe (35%) et la lecture (5-10%). Implémenter des sessions de formation via une chatroulette dans un intranet d'entreprise pourrait donc permettre de développer la mutualisation des connaissances ... et de faire de sérieuses économies. Une brillante idée à soumettre dès à présent à votre RH.
Qui aurait crû que ce ténébreux stagiaire vous aurait permis de faire correctement la différence entre les relations hiérarchiques génériques et les relations hiérarchiques partitives dans un thésaurus ?

mercredi 10 mars 2010

Les réseaux sociaux d'entreprise, un marché prometteur ?

Entreprise 2.0 ? Six millions quatre cent vingt mille réponses. Entreprise et réseaux sociaux ? Deux millions soixante dix mille réponses. C'est l'engouement ! Quelques mots et le moteur de recherche Google affiche les réponses par millions : les entreprises sont séduites par ce que le web peut offrir à leur organisation du travail. Mais quoi, au juste ?

Une connaissance de l'autre plus large, une expression libérée, une interactivité démultipliée, une nouvelle manière de prendre contact... Le cabinet de conseil Useo liste, dans une récente étude, les atouts des Réseaux sociaux d'entreprise. L'enthousiasme domine, mais les exemples abondent : mise en relation et échange avec les clients, partager les expertises et les ressources, propager les alertes, capitaliser les savoirs, animer des communautés...
La révolution informationelle est en marche. Le web 2.0 s'oppose au web 1.0, la collaboration 1.0 à la collaboration 2.0. Car, force est de constater, affirme Useo, les limites du groupeware centré sur le seul document. "Or, l'essentiel de la collaboration a lieu en amont et le document n'en est finalement qu'une des résultantes." "L'espace d'échange ne doit pas imposer de cadre qui viendrait freiner la collaboration."
Ainsi, avec le web 1.0, l'espace de partage est administré par un gestionnaire, avec le réseau social d'entreprise il l'est par chacun. Avec le web 1.0 les échanges ont lieu par mail, avec le web 2.0, la conversation domine, avec le premier le dépôt de documents réclame un classement, avec le second, un simple dépôt suffit, avec le premier, l'information est classée dans des taxonomies, avec le second, elle l'est grâce à la folksonomie, avec le premier l'accès à l'information nécessite une arborescence, avec le second une nuée de tags s'y est substituée.... "Cette forme de collaboration moins structurée, plus douce, permet de laisser foisonner les échanges et de créer un contexte d'intelligence collective", affirme le cabinet de conseil.
Si l'étude semble laisser de côté les immanquables atouts d'une documentation maîtrisée et d'un cadre structuré de l'information, elle n'en reste pas moins instructive sur une tendance : la séduction de l'outil et de ses propriétés (sociales) intrinsèques supposées. Entreprises privées ou publics y cèdent, des espaces collaboratifs sont mis en place, les serveurs de fichiers sont monnaie courante, les intranets abondent, la GED se développe... le paysage informationnel se transforme et les documentalistes se fraient un chemin...
Réseaux sociaux d'entreprise, une étude de 160 pages, à télécharger sur le site d'Useo ou à consulter en slide : se construire une identité numérique, constituer des espaces de taille raisonnable, gérer sa présence, configurer son bureau électronique... le marché est en plein effervescence, se félicite le cabinet de conseil.

lundi 8 mars 2010

La e-démocratie

Les gouvernements et les institutions proposent des services web pour faciliter les démarches administratives des citoyens et favoriser la communication directe avec les élus.
Afin de promouvoir ces services, il est important de privilégier des solutions simples telles que, par exemple, une interface unique avec des contenus courts et visuels, un référencement et une sécurité assurée.
La gestion de cette e-démocratie varie selon les pays. L'Allemagne proposera, dès novembre 2010, une carte d'identité qui fonctionnera en ligne. L'Espagne soigne son ergonomie mais néglige les méta-données, et par conséquent, le référencement. En Roumanie, la communication avec les élus, ainsi que la sécurité peuvent être améliorées.
Les gouvernements et les institutions investissent donc la toile.
L'ITPS (Institut de prospective technologique) leur recommande toutefois d'utiliser le web social pour communiquer. En effet, le web 2.0 connaît un énorme succès auprès des internautes mais les Etats ne semblent pas encore avoir intégré cette mouvance...