lundi 18 avril 2011

Le centre de ressources de la GAITE LYRIQUE : comment repenser la doc ?

Foyer historique (photo: F. de Coninck)

La Gaité Lyrique a ouvert ses (nouvelles) portes le 1er mars 2011.
Le centre occupe un bâtiment, à l’origine le théâtre de la Gaité Lyrique, qui a été entièrement repensé et restructuré par l’architecte Manuelle GAUTRAND, là où son prédécesseur, Planète Magique (centre de divertissement installé en 1989), y a connu une renommée….. disons fugace.
C’est au cours de l'année 2010 que la mairie de Paris rénove le bâtiment pour en faire un établissement culturel dédié aux arts numériques et aux musiques actuelles.

Avant d’être une médiathèque, la Gaité Lyrique est avant tout un lieu culturel à large public : chercheurs, étudiants, collégiens, familles, mais aussi curieux et fans (d’artistes).
C’est une véritable réflexion de décomposition, puis de restructuration qui a été menée dans tous les espaces, et plus particulièrement dans celui du centre de ressources. Comment repenser les lieux, les façons de faire ? Comment casser les schémas classiques de l’info-doc ? Comment devenir un espace de rencontre multi-publics et trans-générationnel ?
Autant de questions et de nouveaux modes organisationnels auxquels a sû répondre l’équipe du centre autour de 2 axes majeurs : l’espace et la recherche.


L'espace
Le mobilier a été pensé en terme de modularité. Les « éclaireuses » mobiles sont de petits blocs colorés, mono ou biplaces, au look 70’s, qui meublent le centre et permettent, par leur fonction modulable, de renouveler, reconfigurer régulièrement l’espace. Ces éclaireuses sont dédiées à la recherche et à la consultation. Elles sont équipées d’accès internet et reconstruisent, le temps d’une consultation, un cocon pour le visiteur. Certaines proposent la consultation de différents médias sur le travail d’un artiste (photos, vidéos, documentaire, diaporama…) et c’est le visiteur, lové dans une assise feutrée, qui choisit son type de visionnage. Autant de bouleversements de repères spatiaux auxquels le visiteur doit faire face et ce, pour son plus grand plaisir.
Le centre joue la carte familiale et semble être en passe de fidéliser ce public. A côté de l’espace documentaire principal, l’on trouve 2 espaces dédiés à 2 types de publics : les tout-petits d’abord avec un choix d’ouvrages ciblés et une configuration d’espace de lecture au sol (tapis, coussins…) puis les adolescents ou pré-ado avec un espace jeux-vidéos dirigé par un animateur qui intègre une programmation artistique modifiée toutes les semaines. Les comportements changent et les habitudes se créent et il n’est pas rare de croiser un élève d’un collège voisin venu, le temps d’une pause, se détendre avec des joysticks !

Le centre de ressources de la Gaité Lyrique est intimement lié à la programmation. Tout s’organise autour des thèmes et spectacles. L’idée est de rebondir par rapport à cette programmation pour que rien ne se fige. A chaque évènement sont reliées des ressources documentaires qui varient selon les expositions (magazines, fanzines, catalogues, photos, etc.) et le public peut ainsi soit préparer sa visite (exposition, conférence…), soit la prolonger.
Le schéma classique de présentation des documents a volontairement volé en éclats. Certains ouvrages sont présentés de face sur les rayonnages, comme pour être mis en avant et ainsi présenter de manière intuitive un focus documentaire au lecteur. C’est aussi une façon d’orienter le regard du visiteur qui a le sentiment d’être resté maître de sa visite. Le parcours du lecteur n’est donc plus linéaire, c’est une douce déambulation à travers les présentoirs mobiles.
Avec cette nouvelle façon de concevoir l’espace, les lieux de consultation ne sont désormais plus figés et ce n’est pas l’utilisateur qui doit s’adapter à l’architecture mais bien le contraire.


La recherche
Là encore, il y a une volonté de bouleverser les schèmes traditionnels.
Le fonds documentaire est constitué de 1600 ouvrages qui couvrent les arts numériques et qui concernent les réseaux internet, les cultures urbaines, les différentes musiques, les dispositifs scéniques, l’architecture de demain, les nouveaux rapports du corps à l’espace…
Il n’y a pas de plan de classement traditionnel, les ressources sont classées par Interaction, identité, texte, code, espace objet. Ce sont des sortes d’ilots conceptuels, de grands champs sémantiques.

Côté logiciels, la Gaité Lyrique s’inscrit dans un mouvement novateur en adoptant le modèle FRBR, lui-même intégré dans PMB. Très peu l’utilisent déjà en France (citons tout de même la BNF) et c’est donc un grand pas qui est fait par les bibliothèques vers le Web et notamment le Web sémantique.
Mais FRBR, que veut dire au juste ce terme barbare ? Functional Requirements of Bibliographic Records, en français : spécifications fonctionnelles des notices bibliographiques. Il s’agit d’une modélisation conceptuelle de l'information contenue dans les notices bibliographiques.
Hummmm…. FRBR rimerait-il avec pas très clair ?
Si je vous dis « le Seigneur des Anneaux », ça va mieux ? Il s’agit justement d’un bon exemple relativement complet de FRBRisation avec des données enrichies, des visuels et tout autre type d’information. Un simple coup d’œil sur ce modèle vous donnera une idée des champs d’action possibles. No limit…
Un blog relativement intéressant vous expliquera en langage clair (si, si c’est possible) en quoi consiste exactement ce modèle qui s’annonce comme l’indexation de demain.


Avec ce focus, j’espère vous avoir donné envie d’aller voir de plus près à quoi ça ressemble et surtout de continuer à croire en l’avenir de la doc. C’est au 3 bis, rue Papin que ça se passe !

jeudi 7 avril 2011

Livre blanc sur les tendances de la veille en 2011


Deux experts de la veille, Jean-Francois Ruiz (co-fondateur de l’agence PowerOn) et Mickaël Réault, Fondateur de Sindup, ont publié le 23 mars 2011 un Livre blanc collaboratif sur la veille et l’e-réputation intitulé « Quelles tendances pour la veille en 2011 ? ».

Ce Livre blanc rassemble les points de vue de 10 experts sur les perspectives du marché de la veille en 2011.
Pour Jean-Francois Ruiz, « cette année la tendance sera la Veille à 360° collaborative et en temps réel. »
Le métier de veilleur est en train d’évoluer pour faire face aux enjeux majeurs de l’e-commerce et du développement impressionnant des réseaux sociaux.


Pour en savoir plus, télécharger le livre blanc : http://www.tendances-veille.com/
À noter: une inscription préalable et gratuite est nécessaire pour pouvoir le recevoir et le consulter.
Voir aussi le blog de Jean-François Ruiz: webdeux.info



Le corpus de normes ISO 30300 : une opportunité à saisir pour les professionnels de l'info-documentation

A propos du livre blanc de l'AFNOR « Introduction à la série de normes ISO 30300, Système de management des documents d’activité – Intégration du records management et perspectives d’évolution de l’ISO 15489 » disponible depuis mars 2011 :

Il présente un corpus de normes attendues au cours de l'année 2011 et des suivantes comme un "événement majeur qui positionne le management des informations et des documents au plus haut des organisations, celui de leur stratégie et de leur politique." La mise en oeuvre de ces normes doit "constituer de réelles opportunités d'amélioration des politiques et des pratiques de gestion des informations et des documents d'activité."
Pour les organismes qui ont déjà mis en place un système de gestion ou ont décidé de le faire, ces normes vont leur permettre de mieux
  • "formaliser et mettre en oeuvre leur politique de gestion des informations et documents d'activité"
  • traduire cette politique documentaire par un système de management, la faire certifier
  • et formaliser les modes opératoires.

Sous le titre générique de "Système de management des documents d'activité", les archivistes, documentalistes, qualiticiens, informaticiens, chefs de projets et décideurs y trouveront
  • les exigences de mise en place d'un tel système,
  • un guide de mise en oeuvre et des spécifications sur la terminologie employée,
  • les exigences relatives aux organismes habilités à auditer et certifier ces systèmes de management.

Ce corpus de normes constituera pour ces professionnels, un écrit de référence du point de vue technique pour améliorer le management des systèmes de gestion des documents d'activité.

Mais il est tout aussi intéressant du point de vue politique et stratégique car il rappelle aux décideurs
  • pourquoi il y a nécessité de mettre en oeuvre un système de management de l'information,
  • pourquoi "la gestion des informations et documents d'activité doit être partie prenante et doit s'inscrire dans un tel système".
Les raisons sont liées à des enjeux tellement vitaux pour les organisations (pérennité, efficacité, sécurité, responsabilité, identification et valorisation de leur capital immatériel) qu'il s'ensuit globalement un repositionnement de la fonction Management des systèmes d'information et de documents, au sein des organismes qui ont compris ces enjeux.

Cette évolution peut donc être une opportunité de positionnement ou de repositionnement intéressant pour les professionnels devant assurer cette fonction.

Mais, beaucoup de professionnels de l'info-documentation travaillent dans des organismes qui n'ont pas encore pris la mesure de l'évolution en cours. Ce livre blanc et les normes qui vont suivre leur seront très utiles pour informer et alerter leurs décideurs, des risques qu'ils font courir à leur organisme en négligeant leur politique de gestion des informations et des documents d'activité. Peut-être alors, s'enclenchera un processus de repositionnement du système de gestion info-documentaire au sein de leur organisme, s'ils parviennent à convaincre leurs décideurs.

mercredi 6 avril 2011

La question de la gouvernance documentaire dans les entreprises

A l'occasion du salon Documation 2011, une enquête a été réalisée par SerdaLab sur "La gouvernance documentaire dans les organisations françaises" auprès de 250 organisations publiques et privées entre les mois de janvier et février 2011.

Assurer l'intégrité, la sécurité, l'authenticité et la disponibilité des informations est un enjeu pour les entreprises. Néanmoins, peu d'entre-elles ont mis en place une politique de "gouvernance documentaire".

SerdaLab a défini la gouvernance documentaire comme "la stratégie et l'organisation mise en place afin de gérer, sécuriser, partager, conserver, valoriser et maîtriser l'information et la connaissance au sein d'une organisation et de son environnement externe afin d'améliorer l'efficacité".


Pourquoi parler de "gouvernance documentaire"

Sur les 250 organisations interrogées, seule 11% ont appliqué ce projet à l'ensemble de leur structure, 36% l'ont fait de manière partielle dans certains départements ou services, 21% ont prévu d'établir un projet pour l'année 2011-2012 et 36% ne le font pas.


Les grandes problématiques retrouvées dans la gestion des documents

70% le volume croissant des informations
64% éparpillement des diverses sources (papier, email, réseaux sociaux)
35% la perte de temps liée à la recherche d'informations
25% éparpillement des services gérant l'information (DSI, centre de documentation)


Lors d'évènements occasionnels tels qu'une restructuration, d'un incendie ou d'un déménagement, la gouvernance a pour objectifs :
- Faciliter l'accès à l'information recherchée en un temps limité- Assurer la disponibilité et la traçabilité des documents (preuves en cas de litiges ou de contentieux)
- Assurer une meilleure relation/client
- Baisse des coûts

Organisation de la gouvernance documentaire

Personnes qui pourraient être à l'initiative de ce projet :
- La direction générale des grandes entreprises (garantir l'efficacité des collaborateurs)
- Le service information-documentation qui sera le moteur de ce projet avant sa reprise par la direction
- Le conseil d'administration de l'entreprise


Ce projet peut donc être mis en place dans une organisation centralisée et/ou décentralisée :
- 68% sont pour une organisation mixte qui sera à la fois organisée de manière centralisée (pour les procédures) et décentralisée (pour chaque direction).
- 28% préfèrent une "gestion centralisée" par un seul service pour l'ensemble de la structure
La centralisation des informations et des documents dans l'ensemble de la structure est faisable dans les petites structures.
- Les autres envisagent une gestion décentralisée dans les différents départements favorisant leur autonomie

Une gouvernance documentaire est plus une question politique et demande une implication humaine. Il revient donc aux professionnels gérant cette gouvernance de sensibiliser les divers collaborateurs sur l'importance de la gestion des documents.


Les limites de la gouvernance documentaire

Mettre en place une gouvernance est un projet complexe qui se décline en plusieurs activités: archivage, gestion des documents courants, gestion des connaissances... Cette dernière est aussi difficile à "gouverner" car elle regroupe plusieurs composantes de la structure (stratégie, processus, collaborateurs, technologie...).

D'autres problèmes s'ajoutent tels que les archives physiques et électronique, la gestion des documents courants, la question de l'e-réputation.


Cette étude a été menée auprès des services info-doc (centre de documentation, archives, bibliothèques, veille) de tous les secteurs d'activités (principalement l'administration/ les collectivités territoriales, les services, la santé...), toutes les organisations (de 250 à 5000 salariés voire plus).

Il existe un résumé du livre blanc dans la revue Archimag de mars 2011, n°242 sous un dossier intitulé "Gouvernance: y a-t-il un pilote pour l'info? p. 22- 24.


Pour télécharger le livre blanc http://www.serda.com/




Les moteurs de wiki sémantique : vers des ontologies collaboratives?

Les moteurs de wiki sémantique : vers des ontologies collaboratives?



Avant de s'intéresser à ce nouvel outil, il convient d'apporter une brève définition sur les deux termes qui composent sa dénomination.
Un wiki est un site web dont les pages comportent des hyperliens les unes vers les autres, sa particularité étant que ces pages peuvent être modifiées par les visiteurs (création ou modification).
Il s'agit d'un des outils étant nés avec l'avènement de ce que l'on a pu qualifier de "web 2.0".
Le web sémantique est quant à lui perçu comme le "web 3.0", un web non plus de données mais de métadonnées structurées permettant une interprétation plus "intelligente" des requêtes de l'internaute.
De ce fait, traiter d'un moteur de wiki sémantique revient à observer les fruits d'une hybridation entre aspect collaboratif du web 2.0 et formalisation des contenus du web 3.0.

Selon Soenke Ziesche, le principe du web sémantique part du postulat selon lequel la machine ne comprend pas le contenu du web, les wikis ne faisant pas exception. Par conséquent l'approche sémantique permet d'améliorer les contenus du web en leur conférant des liens normalisés et des attributs. Les wikis se trouvent ainsi améliorés par les liens de sens existant entre leurs différents contenus. Ainsi le wiki sémantique s'appuie sur des ontologies construites autour de concepts formalisés par les contributeurs sous la forme de "tags". Par exemple si l'internaute consulte un article sur les pommes, il peut avoir accès à des articles consacrés à d'autres fruits si les contributeurs de ces mêmes articles ont défini "fruit" en tant que "tag" de leur contenu.
Les premiers wikis sémantiques ont été proposés au début des années 2000 et ont été réellement améliorés à partir de 2005.


Les chercheurs de l'INRIA Lorraine et de l'A2ZI se sont attelés à une étude des mécanismes des moteurs de wiki sémantique dans le cadre de leur article intitulé "Les moteurs de wikis sémantiques : un état de l'art" (2011).

Ils partent du constat selon lequel "les moteurs de wiki ne se limitent qu'à la reconnaissance de chaînes de caractères, sans prendre en compte le sens des termes". De ce fait, ces chercheurs présentent le rapprochement entre wikis et web 3.0 comme une solution. Cette union donne naissance aux wikis sémantiques.
Il est nécessaire de préciser que les moteurs sémantiques pour wikis peuvent reposer sur deux logiques de fonctionnement :

-l'approche Wikis for ontologies consiste à mettre en place une ontologie à partir des pages créées (assimilées à des concepts) et des liens créés entre elles (assimilés à des propriétés). Le contributeur demeure l'éditeur d'un contenu qui sera formalisé pour être intégré dans l'ontologie.

-l'approche Ontologies for wikis consiste à s'appuyer sur une ontologie déjà existante mais permettant aux utilisateurs, par l'ajout de contenus, d'enrichir cette même ontologie. Le contributeur est donc directement un éditeur de métadonnées.

Par la suite les auteurs dressent un état de l'art sur les moteurs de wiki sémantique toujours actifs. Ces moteurs, selon la typologie de leurs contenus (c'est à dire de leur nature plus ou moins formalisable), reposent sur l'une des deux approches précédemment citées. Parmi ces outils collaboratifs nous pouvons citer le projet KiWi ("Knowledge In Wiki"), Semantic Mediawiki qui est une extension de MediaWiki (moteur utilisé par Wikipedia) et permettant de créer facilement des liens typés et des attributs, AceWiki utilise le langage ACE (Attempto Controlled English) qui peut être facilement analysé grammaticalement et traduit en OWL ou en SWRL afin d'enrichir l'ontologie, OntoWiki, BOWiki pour la biomédecine, SWiM pour les mathématiques, Knoodl et Wikidsmart.

Cependant, si les auteurs considèrent que ces moteurs de wiki sémantique "peuvent devenir l'épine dorsale du Web sémantique", ceux-ci présentent encore plusieurs contraintes, notamment concernant l'import d'ontologies déjà existantes et la difficulté pour des utilisateurs profanes d'opérer des ajouts de métadonnées, la prise en main de ces outils demeurent l'apanage d'experts.




Sources :

Article de Wikipedia (en anglais) consacré aux Wikis Sémantiques : http://en.wikipedia.org/wiki/Semantic_wiki

Article de Soenke Ziesche (en anglais) http://www.xml.com/pub/a/2006/12/13/semantic-wikis-and-disaster-relief-operations.html

Article de Thomas Meilender, Nicolas Jay, Jean Lieber, Fabien Palomares "Les moteurs de wikis sémantiques : un état de l'art" : http://hal.archives-ouvertes.fr/docs/00/57/38/21/PDF/article.pdf

mardi 5 avril 2011

Une bibliothèque virtuelle pour préserver la richesse culturelle du bassin méditerranéen

La Bibliothèque Virtuelle de Méditerranée (BVM) a été créée en 2008 dans le cadre du projet ManuMed, financé par l'Union Européenne à hauteur de 17 millions d'euros . L'un des objectifs de ce projet est de valoriser la richesse et la diversité culturelles du bassin méditerranéen.

La BVM est un fonds multilingue et multi-alphabétique, alimenté par plus de 70 institutions culturelles et des collectionneurs privés du pourtour méditérranéen. Elle offre un accès direct à un corpus important composé d'archives, manuscrits, livres anciens, documents sonores, cartes et photographies, tous libres de droits. Trois ans après son lancement, la BVM vient ainsi de franchir le cap des 500.000 documents numérisés et mis en ligne. A terme, ce fonds documentaire devrait atteindre le million de documents. La BVM propose en outre de nombreux outils interactifs comme la possibilité d'enregistrer ses recherches favorites, d'éditer ou de feuilleter virtuellement des ouvrages...

Aujourd'hui, des millions de manuscrits sont conservés dans les archives et les bibliothèques des pays méditerranéens, souvent dans des conditions de conservation insuffisantes pour en assurer la préservation. De plus, le trafic illicite des documents anciens constitue un marché prospère dans certaines régions, soustrayant des manuscrits d'une valeur inestimable à la connaissance de tous.

La Bibliothèque Virtuelle de Méditerranée permet donc de préserver le patrimoine écrit et, de façon corollaire, le patrimoine linguistique de la région, dans toute sa diversité. Le projet ManuMed, notamment au travers de la BVM, s'emploie à encourager les populations locales à s'approprier et (re)découvrir leur patrimoine. De nombreuses langues vernaculaires menacées par la domination des langues des médias occidentaux, et appelées à disparaître à court terme, sont ainsi protégées de l'oubli.



Sources :

Blog euro-mediterranée

Histoire 2.0

Europeana, Gallica, BVM... depuis quelques années, le web a vu fleurir des projets de grande envergure de numérisation d'archives. Leur incroyable succès pose la question du rôle d'internet dans la mémoire collective, mais aussi sur l'influence de ce média sur le métier d'historien.

Une Histoire 2.0?

Deux ans après son lancement, Europeana, la bibliothèque européenne, vient de dépasser le cap des 14 millions d'oeuvres numérisées (contre deux millions en 2008). BVM affiche 500 000 documents au compteur et Gallica est passée de 10 000 documents en 1997 à 1 million l'an passé. Quant au site des Mémoires européennes du goulag, il propose une réelle présentation muséographique virtuelle de son fonds. Après 3 ans de recherches et de collecte, l'équipe de 13 chercheurs a pu réunir et traiter pas moins de 160 témoignages.

Ces différents sites proposent un accès direct au document brut, et démocratisent, de ce fait l'accès à la source historique. Gallica est allée encore plus loin via la refonte de son site. Outre un accès plus aisé aux documents, des liens vers des réseaux de partage ou des réseaux sociaux (Facebook, Twitter, flux RSS, Delicious) sont proposés. L'internaute lambda peut à présent partager ses trouvailles historiques comme il le souhaite.


Une redéfinition des pratiques d'historien

Le discours épistémologique historique ne semble pas avoir encore pris la mesure de ces mutations. Le 12 mars dernier, une table ronde de la Société d’Histoire Moderne et Contemporaine (SHMC) a lancé une réflexion sur cette problématique, soulignant que internet et les nouvelles technologies impactaient le métier d'historien à bien des niveaux. La collecte d'information, le travail sur la source, la diffusion des résultats et la conclusion des chercheurs sont en mutation. Le décloisonnement des lieux traditionnels qui structuraient le travail de l'historien (archives, bibliothèques, salles de cours...) est également un facteur important de changement.

Ainsi que l'a souligné la SHMC, "il ne s’agit pas ici de revenir sur les rapports entre informatique et histoire, mais bien plutôt de s’interroger sur la manière dont cet outil nouveau qu’est l’ordinateur-portable-relié-à-internet a révolutionné le métier d’historien, depuis moins de vingt ans."

Ces questions ouvrent bien sûr sur d'autres débats : ceux de la numérisation et de la conservation à long terme des documents virtuels, de l'open access, de l'open data ou encore de la division de certaines tâches du travail d'historien, notamment concernant la diffusion et la mise à disposition de ces documents et des différents rôles qu'occuperont alors, historiens, documentalistes et archivistes.

Sources :



Pour aller plus loin :

BVM :
  • bibliothèque virtuelle de méditerranée inscrite dans le projet Manumed (valorisation du patrimoine écrit et immatériel de l'espace auro-méditerranéen)
  • accès libre
  • fond : livres numérisés, documents audio-visuels, archives
  • date de création : 2008
  • volume du fond : 500 000 documents (04/04/2011)
  • bibliothèque numérique européenne
  • accès libre
  • Fond : livres numérisés, documents audiovisuels, photographies, archives des 27 pays membres de l'UE
  • date de création : 2008
  • volume du fond: 14 millions de documents (19 novembre 2010)
  • bibliothèque numérique de la BNF
  • accès libre
  • fond : livres numérisés, cartulaires, revue, photos, enluminures.
  • date de création : 1997
  • volume du fond : 1 020 766 documents dont 408 190 en mode texte (24 février 2010)

lundi 4 avril 2011

La place des SaaS dans les Systèmes de Gestion de Contenu d'entreprise

Il y a les Systèmes de Gestion de Contenu (SGC) traditionnels... fonctionnant par modules, comme Sharepoint ou EMC Documentum. Et il y a ceux qui proposent une gestion de contenu en mode SAAS (Software as a Service) du type Boxnet, Dropbox ou Microsoft BPOS (Business Productivity Online Standard Suite) qui offrent aux entreprises un ensemble d'outils de messagerie, de collaboration et de partage de document, sans avoir à déployer ou maintenir de logiciels sur site. Avec l'intérêt grandissant du public et des médias pour le Cloud, ces "petits nouveaux" tentent de se faire une place au soleil.

Un des intérêts de ces SAAS est de permettre d'accéder au contenu depuis n'importe quel navigateur web, mais aussi en utilisant tous les systèmes d'exploitation (Linux, MS Windows, IOS, Androïd et Blackberry...). Les salariés génèrent des informations sur une variété sans cesse croissante de petits appareils puissants, tels que les ordinateurs portables, netbooks et les smartphones. Cette offre répond également à une problématique de mobilité croissante (flexing desk ou commerciaux...) des personnes qui retrouveront ainsi leurs documents et pourront enrichir des dossiers communs depuis n'importe quel ordinateur.

La start-up box.net a pour ambition de devenir leader sur le marché. Afin de créer une accoutumance, celle-ci propose 5GO de stockage gratuits, des liens de partage et l'accès mobile. La recherche en texte plein et les fonctions de collaboration (versioning, intégration Google Apps, statistiques d'accès...) sont facturées 15 €/mois. Une version complète (avec une intégration sur Salesforce, stockage chiffré, contrôle d'accès basé sur des rôles, et support dédié) est également disponible sur devis.

Box présente un certain nombre de caractéristiques qui le rendent comparable à SharePoint :
  • Partager des dossiers pour créer des espaces de travail en ligne pour les projets de collaboration avec possibilité de workflow.
  • Voir les documents directement dans le navigateur sans avoir à quitter Box.net
  • Créer des documents web façon wiki
SharePoint ne dispose pas actuellement de la fonctionnalité suivante :
  • Flux en temps réel de l'activité pour faire savoir ce qui a été récemment modifié, transféré, commenté, etc ...

Il semblerait que le petit nouveau soit moins puissant que son principal concurrent Sharepoint en ligne dont il s'inspire clairement mais ses atouts est d'être moins cher et plus simple d'utilisation.

Cinq millions d'utilisateurs réguliers ont été séduits par l'offre, dont 60 000 abonnements PME et quelques grands comptes. Évidemment, cette solution ne remplace pas les ECM (Enteprise Content Management) existants dans les très grosses entreprises. C'est pourquoi, les SGC en SAAS misent sur le développement de connecteurs avec les logiciels de gestion de contenu existants. Box.net a ainsi fait développer un module qui permet d'intégrer leur application à 40 d'entre-eux.

En raison de l'importance des données stockées, les solutions SaaS se sont implantées plus lentement dans l'espace ECM que dans les autres secteurs de logiciels. Toutefois, les solutions SaaS mûrissent et deviennent plus largement acceptées, leur influence dans ce secteur devrait encore croître.

sources
http://pro.01net.com/editorial/530869/box-net-le-sharepoint-killer-venu-du-cloud/
http://fr.wikipedia.org/wiki/Dropbox
http://cloudtp.com/cloud-computing-companies/Box-Net-Cloud-Content-Management
http://www.networkcomputing.com/storage/content-management/ecm-and-saas-how-strong-a-marriage.php

Tags: CRM, SGC, SaaS, storage, Content Management, ECM, Box.net, Sharepoint

Documation 2011 : réseaux sociaux d'entreprise : enjeux et stratégie

Retour sur la conférence organisée par Karim Manar, Microsoft, dans le cadre du salon Documation 2011.

Actuellement dans l' entreprise...

La conférence débute par un retour édifiant d'une étude menée par le campus 2.0 de Microsoft sur les pratiques en entreprise.

Premier constat : le risque de baisse de productivité au travail est liée au temps passé en recherche d'informations utiles au travail, à son analyse et à son exploitation rendue difficile par la multiplicité des canaux d'échanges, en constante progression.

Les chiffres exposés par Karim Manar sont parlants :

31% du temps de travail passé en recherche d'information
32% pour la partager
28% pour l'analyser et l'exploiter

Les principaux outils de réalisation de ces différentes phases sont le mail et le téléphone auxquels il faut ajouter ce que Karim Manar appelle les autres " strates collaboratives" que sont : le fax, le serveur partagé, etc.

Deuxième constat : plus on multiplie les outils de collaboration sans conduite du changement et donc sans implication des futurs utilisateurs, plus on retourne vers une collaboration par téléphone et par mail qui connaissent leur limite :

  • Boite mail qui se transforme en GED avec un classement " maison-perso"
  • Échange téléphonique non tracé et déperdition d'information dans le temps.
Les connexions entre contenus et individus : vers une recherche de valeur ajoutée

La conférence porte également un regard sur les connexions entre contenus et individus, toujours dans une optique de gain de temps, de productivité, d'efficacité dans la recherche et l'exploitation d'une information.

Par exemple : il est difficile, au sein d'une entreprise ou d'un service, d'identifier facilement l'expert d'un domaine qui dispose de l'information dont j'ai besoin et qui pourrait me mettre en relation avec son propre réseau et/ou me donner des clés d'analyses et d'accès vers des informations complémentaires ciblées et pertinentes.

Les nouveaux outils de collaboration d'entreprise, notamment par le biais de moteur de recherche puissant superposé à un applicatif, ont pour vocation de repérer des circuits d'informations permettant de localiser une expertise.

Karim Manar illustre son propos en montrant une application développée sous Sharepoint qui permet de faire apparaitre, grâce à une interrogation par mots clés dans le moteur de recherche associé à la plate-forme, une liste de spécialistes/experts correspondant à un domaine. En les identifiant, je sais également par l'intermédiaire d'une icône de disponibilité si ceux-ci sont occupés ou non et donc si je peux oui ou non leur poser une question. Dans tous les cas, j'identifie en quelques clics un réseau d'experts sur la question qui m'intéresse et je gagne du temps en recherche mais aussi, potentiellement, en exploitation de l'information puisque je sais déjà qu'elle émane de collaborateurs experts de la question posée.

Mais l'outil 2.0 ne révolutionne pas les pratiques!!!

La collaboration via un outil ne fonctionnera pas si les collaborateurs amenés à partager n'ont pas déjà un minimum de pratique ou de sensibilité aux nouveaux outils et technologies. Microsoft préconise de s'appuyer sur un réseau de collaborateurs identifiés comme moteur et qui garantiront une partie de la communication sur le futur outil : rien de tel qu'un outil recommandé par un collègue pour encourager son utilisation.
L'outil collaboratif doit également s'inscrire dans une réalité : en reprenant l'exemple de la communauté d'experts vue plus haut, on imagine bien que cela soit tangible lorsque la communauté est importante en nombre : on ne développe pas ce genre d'outil pour 50 personnes qui travaillent ensemble dans le même open space.

Ce qu'il faut retenir
  • le réseau social d'entreprise doit correspondre à une dynamique de collaboration déjà existante
  • l'outil choisi doit faire l'objet d'un accompagnement au changement et d'implication des utilisateurs dans le projet de mise en place
  • un réseau d'entreprise doit coller aux pratiques de l'entreprise elle même et ne pas avoir d'ambition déconnectée des pratiques.

On dira donc que la mise en place d'un outil collaboratif d'entreprise se justifie pour :

Dynamiser un échange déjà existant
Le fluidifier et lui permettre de s'enrichir au fil du temps
Transformer l'information tacite.

dimanche 3 avril 2011

Quel prix pour un livre numérique ?

Dans la nuit du 29 au 30 mars, le Sénat a voté à l’unanimité la proposition de loi destinée à instaurer un prix unique pour le livre électronique, fixé par l’éditeur. Les sénateurs en ont profité pour rétablir la clause d’extraterritorialité qui vise à imposer le prix unique à tous les sites faisant du commerce en France, y compris ceux dont le siège social est installé à l'étranger, comme c’est le cas par exemple pour Amazon, Apple ou Google.

Un prix unique soit, mais comment est-il fixé par l'éditeur ? En France, dans la majorité des cas, le prix du livre numérique est fondamentalement indexé sur le prix du livre papier. La ristourne accordée pour la forme électronique dépasse rarement les deux ou trois euros.

Examinons en détail comment sont répartis les coûts d'un livre papier. Dans une intervention effectuée en 2009 au Salon du Livre, le Syndicat National de l'Edition (SNE) a fait le point sur la répartition des coûts pour un livre vendu 10 euros en librairie, prix qui est à peu près le prix moyen d’un ouvrage vendu en France.
Grosso modo, sur ces 10 € :
- l’auteur touche 1 €
- l’éditeur 1,50 €
- l’imprimeur 1,50 €
- le diffuseur et le distributeur perçoivent 1,70 €
- le libraire 3,80 €
- l’Etat 0,50 € de TVA (5,5 %).

Or dans le cas d'un livre numérique, mis à part le taux de TVA qui passe de 5,5 % à 19,6 %, la plupart des coûts sont supprimés :
- les locaux des librairies sont remplacés par un site web en liaison avec une base de données de fichiers ;
- le libraire est remplacé par des conseils gratuits entre internautes ;
- la diffusion et ses représentants commerciaux démarchant les libraires n'ont plus lieu d'être ;
- idem pour les camions et les entrepôts de stockage de la distribution ;
- idem pour l'imprimeur ;
- l'éditeur continue de jouer un rôle clé dans la relecture, la mise en page, le verrouillage des fichiers et la promotion du livre ;
- à moins que l'auteur ne se débrouille lui-même avec un logiciel de mise en page ou de traitement de texte, se fasse relire par ses collègues ou sa famille et négocie directement avec le fameux site web pour le verrouillage des fichiers et la promotion de son livre...

Si on suit cette logique, le prix d'un livre numérique pourrait être au moins moitié moins cher que sa version papier mais il deviendrait alors un concurrent que les éditeurs jugent trop dangereux.

Cette position est-elle tenable face au piratage et à un lecteur potentiel habitué à acheter moins de 5 euros des jeux, de la musique ou des applications ?

Sources :
http://www.enssib.fr/breves/2011/04/01/prix-unique-du-livre-numerique-feu-vert-du-senat
http://www.graphiline.com/article/11602/Le-prix-d-un-livre-papier--decompose-poste-par-poste
http://actu-des-ebooks.fr/2011/03/29/faut-il-vendre-ebook-au-prix-des-applications/