mardi 26 mars 2013

Séminaire gouvernemental sur le numérique : la jeunesse, priorité du quinquennat


Pour Matignon, le numérique est un moyen au service du renouvellement de notre modèle de société. Une feuille de route du gouvernement pour le numérique du 28/02/2013, structurée selon 3 axes, propose 18 mesures qui illustrent l'ambition du Gouvernement avec plus de 100 actions engagées par les ministères.

 

Les universités numériques, c'est pour demain !

Un zoom sur les 5 premières mesures annoncées montre que 3 leviers d'action seront mobilisés pour offrir à notre jeunesse la pleine maîtrise des moyens numériques.

La refondation de l’école place le numérique au cœur de l’enseignement du primaire à la terminale. Pour ce faire, une politique de formation des enseignants aux usages du numérique est engagée, avec en prévision la formation de 150 000 enseignants.

Le projet “France Universités Numériques” sera lancé en 2013 dans lequel les métiers du numérique sont valorisés dans le milieu professionnel. On veut renforcer les formations sur ces métiers et en faire une chance pour les jeunes peu qualifiés, en sensibilisant et en informant au maximum la jeunesse.
L’objectif est qu’en 2017 un diplôme national à distance puisse être obtenu dans toutes les disciplines qui le permettent et que 20 % de l’offre de formation soit disponible sous forme numérique.

La politique d'ouverture des données publique réaffirmée

La feuille de route en matière d’Open Data réaffirme le principe de gratuité des données publiques. L'objectif est, selon Mr Ayrault, « de faire de l’ouverture des données publiques un levier de modernisation de l’action publique et de soutien au dynamisme économique ».

De nouveaux jeux de données seront mis à disposition sur portail data.gouv.fr qui regroupe déjà plus de 352 000 jeux de données publiques, provenant de 90 sources différentes. La mission Etalab est en outre chargée d’organiser la formation des administrations pour une réutilisation efficace de ce type de données.

Paris Capitale numérique

Enfin, Fleur Pellerin a ouvert une consultation pour connaitre les attentes, les besoins et les idées des acteurs concernés, afin qu'ils participent à la définition et au choix des orientations qui seront retenues pour le projet Paris Capitale Numérique. La ministre chargée des PME, de l’innovation et du numérique, souhaite « mettre en valeur le talent et le dynamisme français à international » en regroupant acteurs et structures et en stimulant le développement de ce secteur qui représente près d’un million d’emplois et un quart de la croissance française.

Les moyens mis à disposition seront l'accueil des entreprises en croissance et la création de nouvelles structures.

Lire aussi :
Les emplois d'avenir au service de la mission des espaces publics numériques - 20/02/2013
Les actualités de http://opendatafrance.net/

Les enjeux du Big Data

Aujourd'hui, comment traiter le "Big Data", ces masses de données qui donnent le vertige ?
La société EMC, leader des solutions Cloud Computing, Big Data et IT Trust, a calculé qu’en 2011, il ne fallait que deux  jours pour générer 5 exaoctets de données. En 2013, il ne faudra pas plus de dix  minutes pour les produire.
De nombreux secteurs sont concernés et les enjeux seraient considérables. Des organisations se mettent en place au niveau mondial et national.

Le Research Data Alliance

L’objectif du Research Data Alliance, une organisation récemment créée par différents instituts de recherche en Europe, en Australie et aux États-Unis, est de faciliter l'échange des données scientifiques entre tous les pays et tous les domaines de recherche. Leur but est de créer des moyens techniques performants afin de permettre l'échange des données scientifiques selon des standards communs. Ce qui n'est pas le cas pour le moment et ne permet pas encore aujourd'hui un traitement efficace de ces masses de données.

Le "Big Data Launchpad"

Le projet "Big Data Launchpad" est porté par l'AFDEL, l'Association française des éditeurs de logiciels et solutions internet, et a été présenté lors du séminaire gouvernemental sur le numérique, le 28 février dernier. Il a, en effet, été initié dans le cadre de la création d'une filière numérique en France et des projets de « Quartiers numériques » mis en place par Fleur Pellerin, ministre déléguée chargée des PME, de l’Innovation et de l’Economie numérique.

Les propositions remises par l'AFDEL au ministre sont la création d'un fonds de financement de 300 M€ en partenariat public-privé, le développement d'un incubateur dédié au Big Data qui fasse référence dans le monde, le déploiement d'un écosystème d'infrastructure, de compétences, de formation et de financement, et la création de plus de 100 startups d'ici à 2018 sur les applications du Big Data. La création de valeur attendue à horizon 5 ans serait de 2,8 Mds€ et la création d'emplois directs attendue à horizon 5 ans serait de 10 000, dont la moitié sur le site du Big Data Launchpad lui-même.

Aujourd'hui, l'AFDEL et les professionnels du secteur continuent les négociations avec le gouvernement.

Alliance Big Data

Afin justement de peser auprès du gouvernement, une alliance des professionnels de l'information a été mise en place lors du salon Documation, les 20 et 21 mars dernier. Initié par Cap Digital et l'Aproged, cette alliance a été rejointe par le GFII, le Groupement français de l’industrie et de l’information, l'association Apeca (transactions dématérialisées) et l'Institut Mines-Télécom.

L'objectif de cette alliance est de faciliter l'échange et le montage de projets entre les différents acteurs impliqués dans le traitement massif de données. Ce projet s'appuie sur un portail Web.

Le Big Data est donc en marche...


Sources

Alliance Big Data : le portail du Big Data - http://www.alliancebigdata.com/

Blog du salon Documation - http://blog.documation.fr/

Blog Evoliz, L'AFDEL créé le projet « Big Data Launchpad », le 27/02/2013 - http://www.evoliz.com/blog/122-20130227-afdel-projet-big-data-launchpad.html

Gilbert Kallenborn, Les chercheurs veulent créer un réseau mondial d’échange de données, 01Business, le 19/03/2013 -  http://www.01net.com/editorial/589087/les-chercheurs-veulent-creer-un-reseau-mondial-d-echange-de-donnees/

Juliette Fauchet, 300 millions d'euros pour la filière du big data, 01Business, le 06/03/2013 - http://pro.01net.com/editorial/588259/300-millions-deuros-pour-la-filiere-du-big-data/

Vincent Berdot, Alliance des acteurs de la gestion de contenu autour du big data, 01Business, le 21/03/2013 - http://pro.01net.com/editorial/589295/alliance-des-acteurs-de-la-gestion-de-contenu-autour-du-big-data/






mardi 19 mars 2013

Retour sur la fin annoncée de Google Reader

Le 13 mars dernier, Google a annoncé sur son post [1] l'arrêt de Google Reader à partir du 1er juillet prochain.
Cette annonce a provoqué de vives réactions dans la communauté des internautes, entraînant des migrations massives vers des services concurrents [2].
Au-delà de ces premières conséquences, il convient certes de revenir sur les solutions alternatives (nous n'aborderons pas ici les applications de lecture de flux RSS destinées à usage mobile), mais aussi d'essayer de tirer quelques enseignements de l'utilisation peut-être un peu trop confiante de services gratuits hébergés en ligne.


Quelques rappels sur Google Reader

Google Reader est un lecteur de flux RSS et Atom en ligne lancé par Google en novembre 2005. Il propose une interface de navigation et de lecture similaire à celle de Gmail, lancé en avril 2004. Parmi ses nombreuses fonctionnalités, Google Reader offrait la possibilité de stocker sans limite de nombre d'entrées l'historique d'un flux RSS, ce qui peut faire de Google Reader un bon outil d'archivage d'un flux RSS [3].

Remplacer Google Reader

Parmi les différentes recommandations que l'on peut lire çà et là sur le Web, différents types de solutions semblent se profiler :

1. Mimer Google Reader

Ainsi que le suggère Tristan Nitot [4], fondateur et président de l'association Mozilla Europe, le service Feedly [5] se rapproche beaucoup de Google Reader avec un hébergement en SaaS. Depuis l'annonce de l'arrêt programmé de Google Reader, ce service a d'ailleurs connu un afflux massif de nouveaux utilisateurs [2].

Un autre produit semble se placer dans le sillage de Google Reader : The Old Reader [6]. L'ergonomie, proche de celle de Google Reader, est particulièrement soignée. Toutefois un accent plus marqué porté sur une utilisation simple et minimalisme laisse à penser que la richesse fonctionnelle sera moindre. Il convient également de préciser que The Old Reader est encore en phase bêta.

2. Faire différemment

Une alternative classique à Google Reader est l'intégration des abonnements aux flux RSS dans un logiciel de messagerie, de type Mozilla Thunderbird [7]. Cette option présente l'avantage de laisser la possibilité à l'utilisateur de sauvegarder plus aisément l'historique sur le disque dur de sa machine.

Tirer quelques enseignements

Au-delà des premières solutions évoquées, la décision unilatérale de Google d'arrêter Google Reader pose au moins question à deux niveaux :
1. au niveau de la sauvegarde des données ;
2. au niveau de la continuité de service.

1. La sauvegarde des données

L'annonce en mars d'un arrêt en juillet laisse au moins aux utilisateurs le temps de préparer la migration vers un nouvel outil assortie d'une reprise de l'existant et ce, à deux niveaux :
1.1. au niveau des abonnements
1.2. au niveau de l'historique des flux

1.1 La reprise des abonnements

La reprise des abonnements (comprendre : la liste des flux RSS auxquels s'est abonné l'utilisateur) se fait via un export au format OPML. Le fichier OPML liste chaque flux RSS avec l'adresse URL permettant d'y accéder.

1.2 La reprise de l'historique des flux

La reprise de l'historique des flux est une exigeance plus délicate à satisfaire, car elle suppose la possibilité d'export l'historique de consultation des flux RSS depuis le début.
Contrairement à la reprise des abonnements, la reprise de l'historique des flux est rarement prise en charge ou très peu mise en avant par les services de lecture de flux RSS.
Paradoxalement, Google semble avoir le plus travaillé sur cette fonctionnalité, grâce à l'outil Google TakeOut, permettant à l'utilisateur de Google Reader de télécharger une archive contenant des fichiers JSON et un fichier XML reprenant l'ensemble des abonnements. La présence de cette fonctionnalité ne dispense pas l'utilisateur attentif de tests approfondis d'ici le 1er juillet pour vérifier son bon fonctionnement.

2. La continuité de service

Un autre enseignement que l'on peut tirer de l'arrêt annoncé de Google Reader tient en la nature même de ce service – un service gratuit, hébergé en ligne. Du point de vue des garanties apportées à l'utilisateur, la gratuité et l'hébergement en ligne représente un risque double :
- la gratuité fait de l'utilisateur un simple utilisateur et non un client, donc sans recours commercial ;
- l'hébergement en ligne rend l'utilisateur dépendant d'Internet et des serveurs de Google pour l'accès à ses données.

Fort de ces éléments, nous pouvons peut-être nous demander s'il ne conviendrait pas mieux dans une optique durable et professionnelle (assortie des responsabilités associées sur la pérennité des données) de s'orienter davantage vers des solutions à héberger soi-même de type TinyTinyRSS [8] ou Leed [9].
Derrière cette affaire Google Reader se cache sans doute un appel à une réflexion plus profonde sur la gouvernance documentaire de nos usages des outils informationnels, à commencer par les plus quotidiens.

Sources



Mind Mapping et management


 
   Du 8 au 9 avril 2013 l'URFIST de Lyon propose un stage de formation au Mind Mapping.

   Le Mind Mapping (carte heuristique en français) est un processus de représentation visuelle organisé portant sur des informations variées. Il s'agit de faire ressortir par des schémas simples et parlants des idées fortes liées à un thème central. 

   Ce concept, très ancien, a été développé et formalisé dans les années 1970 par un psychologue anglais, Tony Buzan. En psychologie, il s'agit de représenter les schémas mentaux par des mots, des idées, des concepts, reliés les uns avec les autres par des relations. Il est question d'essayer de visualiser le fonctionnement cérébral par une représentation graphique permettant d'avoir un regard d'ensemble et de comprendre les liens entre les éléments de la carte autour du thème central de départ.Il permet d'organiser les pensées, de structurer des informations et de construire une représentation autour d'un sujet.

   L'aspect graphique joue un rôle important, de par son côté ludique mais aussi grâce à un effet structurant. Les couleurs permettent de mettre en valeur les liens, de bien différencier les aspects, et d'aider à la lecture de la carte. Par ailleurs, traditionnellement, une carte heuristique se créée à la main avec des crayons de couleur, des post-it, ce qui permet de faire parler le côté créatif des réalisateurs. L'hémisphère droit du cerveau entre alors en action, ce qui permet de solliciter la créativité, l'inventivité. L'hémisphère droit souvent laissé de côté de par son côté trop peu sérieux devient en fait un stimulateur de l'hémisphère gauche et donc de la logique, la pensée rationnelle. La combinaison des deux hémisphères permet ainsi d'obtenir des résultats intéressants. 


   Le management a bien vite vu les avantages d'un tel outil. Outre le fait de permettre la visualisation de concepts, le Mind Mapping est aussi une occasion de travail collaboratif. En mode projet, il permet au brainstorming de prendre forme sur le papier, à tous les acteurs du projet de se réunir autour d'une même idée et de travailler ensemble concrètement à la définition du projet. Le travail collaboratif dans ce cas permet une forme d'émulation et amène chacun à des réflexions qu'il n'aurait pas eu en étant seul. Ainsi les idées fusent, les esprits bouillonnent d'idées.

   La difficulté du Mind Mapping consiste à contrôler ces débordements d'idées et à ordonner le tout en une carte structurée et compréhensible. Il faut donc une personne maîtrisant bien le processus qui puisse recadrer l'équipe sollicitée pour l'exercice. L'équipe peut alors laisser libre cours à sa créativité, et sous la direction du superviseur pourra ainsi obtenir des résultats. Faire travailler une équipe projet sur un Mind Mapping comporte plusieurs avantage: les participants apprennent à se connaître les uns les autres, la stimulation intellectuelle peut amener des résultats inaccessibles autrement, tous se sentent valorisés du fait d'avoir participer à cet exercice, un résultat concret ressort de la réunion avec à la clé des axes pour la suite du projet. 

   Cet exercice mériterait d'être plus largement employé, connu et valorisé dans le milieu du management, voire même dans d'autres milieux qui fonctionnent en travail d'équipe. Le stage de l'URFIST de Lyon est une bonne occasion de découvrir ce procédé. 



Bibliographie:

  • BUZAN, Tony, Muscler son cerveau avec le mind mapping. Paris : Eyrolles, DL 2008 89 p.  Trad. de : Mind mapping, kickstart your creativity and transform your life. ISBN 978-2-212-54002-4
  • DELADRIERE, Jean Luc, LE BIHAN, Frédéric, MONGIN, Pierre, REBAUD, Denis, Organisez vos idées avec le Mind Mapping. 2004, 2007, Editions Dunod, Paris. 2e édition. 164p. ISBN 978-2-10-050627-9.
  • TEXIER, Bruno, Les outils du mind mapping, ARCHIMAG. 248, octobre 2011. - p. 32-35

Les données dynamiques : conférences internationales organisées en février par l'OCLC


La réunion annuelle du Conseil de région OCLC Europe, Moyen-Orient et Afrique (EMEARC) a eu lieu le 26 et 27 en février. Elle s’est tenue à Strasbourg au Palais des congrès. Dans cette série de conférences, les bibliothèques ont participé à des discussions sur les technologies et les développements les plus récents en matière de services pour les bibliothèques.
Fondé en 1967 , Online Computer Library Center (OCLC) est une association mondiale au service des bibliothèques (2).  Plus de 10 000 en sont membres à travers le monde et utilisent des services reconnus tels que WorlCat (catalogue mondiale) ou WorldShare (plateforme de gestion, de partage et d’applications web) (3). Le thème de la réunion cette année était les Données dynamiques : un monde de possibilités. L’état des lieux, les stratégies qui sont en œuvre, les perspectives et les évolutions de la gestion des données ont été exposés. Les principaux sujets abordés ont été les suivant :
  • Culturonomie par Jean-Baptiste Michel, chercheur scientifique
  • Présentation de WorldCat par son directeur Roy Tennant
  • Stratégie de numérisation de la bibliothèque nationale suisse par sa directrice Marie-Christine Doffey
  • Problèmes posés par l’agrégation de métadonnées par la responsable de la recherche à l’OCLC, Titia van der Werf
  • Actualité concernant OCLC WorldShare par son directeur Jay Jordan
  • Présentation de la coopération à l’OCLC par le responsable Eric van Lubeek
  • Migration des bibliothèques vers le Cloud par le directeur de l’ABES Raymond Bérard et son chargé d’étude Jean Bernon
  • Fonctionnement des données liées dans l’entreprise par l’architecte d’information Silver Oliver
  • Présentation du projet Culturegraph par l’ingénieur documentaliste de la bibliothèque nationale allemande Markus Geipel
  • Présentation des données liées par un responsable de l’OCLC Richard Wallis
  • Scénarios d’utilisation novateurs pour les contenus des bibliothèques par le directeur de la bibliothèque de Bavière Dr Claus Ceynowa
Chacun des dirigeants a donc insisté sur l’importance des données dynamiques et des autorités associées qu’il faut continuer à créer dans les catalogues via le modèle FRBR, les URL et les licences creative commons. Ils ont plusieurs fois formulé l’importance du crédo « Moving from cataloging to catalinking » pour signifier l’importance aujourd’hui d’un monde interconnecté aussi bien dans le métier qu’entre les autres métiers. Pour eux, il y a une opportunité à saisir du côté des bibliothèques pour savoir utiliser l’ensemble de leurs données pas seulement en vue d’un accès à des catalogues mais pour la création de données interconnectées au service de la société. Les commerciaux déjà se positionnent face à ces nouveaux besoins mais les bibliothèques grâce à leur fonds et leur expérience ont aussi un rôle important à jouer pour participer à cette révolution aussi bien numérique que culturelle.


Sources
(1) Site de la quatrième réunion annuelle du conseil de région EMEA,
http://oclc.org/content/go/fr/france/emearc-mtg-2013.html

(2)  Article OCLC, Wikipedia : http://fr.wikipedia.org/wiki/Online_Computer_Library_Center

(3) Site de l'OCLC, Produits et services : https://www.oclc.org/en-europe/services/logon.htm

(4) Site de l'OCLC, page d'accueil : https://www.oclc.org/home.en.html

Pour aller plus loin :

The mathematics of history / Jean-Baptiste Michel, You Tube, 4,27 mn 
http://www.youtube.com/watch?v=RkTE1LZ_tLk

Cataloging unchained / Roy Tennant,  Wordpress, 3,27 mn 
http://lafacette.wordpress.com/2013/02/27/cataloging-unchained-by-roy-tennant/

Shared Web Services and the future of the cloud for libraries / Jay Jordan, Vimeo 
http://vimeo.com/39167115

Entretien avec M. Berard nouveau directeur de l'ABES / Agence de mutualisation des universités et établissements
http://www.amue.fr/presentation/articles/article/entretien-avec-m-berard-nouveau-directeur-de-labes-1/

 
Interview with BBC Information / Architect Silver Oliver
http://www.youtube.com/watch?v=aDr2TUPwg2E

vendredi 15 mars 2013

La numérisation d’une partie du patrimoine public de la BNF au cœur des débats


  L'adaptation du patrimoine public (presse, manuscrits, disques) à l'ère numérique est une question guidée à la fois par l'urgence de la conservation et par l’idéologie de la « démocratisation culturelle». Cette double nécessité implique des choix forts en termes de politique culturelle et de modèle économique de la part des acteurs du secteur public.

La numérisation d’une partie du patrimoine de la Bibliothèque nationale de France (BNF) entre parfaitement dans cette problématique. Ce projet suscite une polémique depuis l’annonce, le 15 janvier, de la signature de deux partenariats avec des entreprises privées. Le premier, avec la société américaine ProQuest, éditeur de bases de recherches historiques et culturelles, prévoit la numérisation de 70 000 livres anciens français datant de 1470 à 1700. Le second, avec Believe Digital et Memnon Archiving Services, porte sur la numérisation et la valorisation de 200 000 disques vinyles 78 et 33 tours.

Ce partenariat aura pour résultat la mise à disposition payante des œuvres dans un format numérique. La consultation de ces documents sera gratuite depuis les espaces de la BnF, à Paris. La diffusion et l’exploitation en ligne des copies numériques fait l’objet d’une clause d’exclusivité en faveur des partenaires chargés de la numérisation, afin que ceux-ci puissent les mettre à disposition sur Internet. L’accès sera alors payant. Cette clause d’exclusivité est prévue pour une durée variable selon les fonds, de 7 à 10 ans en moyenne. Les œuvres numérisées étant dans le domaine public, elles rejoindront progressivement Gallica et seront toutes disponibles passés ces 10 ans.

Cette annonce a soulevé de vives polémiques au sein d’associations et de collectifs œuvrant pour la diffusion libre de la culture, ainsi que dans des associations professionnelles liées au monde des bibliothèques, ces dernières évoquant même l’idée d’une « privatisation du domaine public ».

Les restrictions apportées à l’accès aux œuvres et l’absence de transparence des contrats passés par la BNF concentrent les critiques. Ces dernières ne se focalisent pas tant sur l’exploitation commerciale (le domaine public peut constituer un levier de richesse non négligeable) et la nécessité de numériser que sur le modèle économique choisi. En effet les principaux acheteurs de ces documents seront les universités, dont les budgets d’acquisition de ressources documentaires sont déjà largement grevés par l’achat des revues scientifiques. Ce qui aboutirait donc à un transfert des richesses des universités vers la BnF. En outre, l’exclusivité de Pro-Quest à l’échelle nationale ne peut servir le rayonnement international des collections de la BnF et son expansion économique puisque son fonctionnement restrictif freine la diffusion des collections. Or, dans le même temps, de plus en plus de grandes institutions culturelles, notamment américaines, misent sur l’ouverture totale pour attirer vers leurs richesses de plus en plus d’utilisateurs.

Pourtant de tels partenariats sont déjà menés par ProQuest depuis plusieurs années dans les bibliothèques nationales de plusieurs pays européens. La base de données ainsi constituée, appelée EEBO (Early European Books Online), a fait l’objet de l’achat (dans sa première mouture) d’une des premières « licences nationales » par l’Agence bibliographique de l’enseignement supérieur (ABES), ce qui signifie que tous les établissements publics français du supérieur y ont accès de manière égale et localement gratuite (financement national).

En ce qui concerne la privatisation évoquée du service public, les œuvres en question, accessibles sous forme numérisée à la BNF, restent dans le domaine public : tout autre éditeur peut demander à publier les mêmes textes s'il le souhaite. Au sujet de « l’expropriation du bien commun » on peut ajouter qu’on ne peut être exproprié que d'un bien existant, alors que le but de ces accords est de créer un bien nouveau (les collections numériques). Enfin, à propos des dérives commerciales supposées de la part de la BNF on peut attester qu'il n'y a aucune sélection des corpus en fonction de leur potentiel marchand et que tous les revenus de la filiale sont réinvestis dans la numérisation du patrimoine.

Sans ces deux accords, il faudrait au rythme actuel plus d’un siècle au lieu de sept ans pour numériser les collections sonores, et vingt-cinq ans au lieu de six pour les 70 000 ouvrages anciens. C’est donc un moyen d’accélérer le processus de numérisation grâce aux investissements d’avenir, et d’alléger ainsi l’insuffisante manne publique.

Parler pour une institution publique d’exclusivité, de revenus, de revente, fait réagir, à juste titre, les professionnels du secteur et remet en cause l’idée même de patrimoine public. Mais dans une période de moindre financement, faut-il se priver d’une telle opportunité de sauvegarder ces documents et de mettre à disposition les scans de ces ouvrages dans dix ans ?

Sources utilisées:

Lionel Maurel, Numérisation à la BnF: vers une petite licence nationale entre amis ?, le 6/03/2013 : http://scinfolex.wordpress.com/author/calimaq/



Cécile Mazin,Démocratisation et conservation : les bluffs des accords BnF, le 22/02/2013 : http://www.actualitte.com/tribunes/democratisation-et-conservation-les-bluffs-des-accords-bnf-1934.htm

Rémi Mathis, Numérisation de fonds anciens de la BnF avec exclusivité temporaire pour le prestataire privé, le 23/01/2013 : http://blog.wikimedia.fr/numerisation-de-fonds-anciens-de-la-bnf-avec-exclusivite-pour-le-prestataire-prive-5284

 

H. Girard, Levée de boucliers contre les accords de numérisation conclus par la BNF, le 23/01/2013 : http://www.lagazettedescommunes.com/151064/levee-de-boucliers-contre-les-accords-de-numerisation-conclus-par-la-bnf/

Christelle di pietro, Bnf, numérisation et partenariats publics-privés : deux nouvelles questions parlementaires, le 15/02/2013 : http://www.enssib.fr/breves/2013/02/15/bnf-numerisation-et-partenariats-publics-prives-deux-nouvelles-questions


Bruno Racine, La Bibliothèque de France au défi de la numérisation, le 1/02/2013 : 
http://www.lemonde.fr/idees/article/2013/02/01/la-bibliotheque-de-france-au-defi-de-la-numerisation_1826114_3232.html     



Frédérique Roussel, Bnf, la numérisation fait tiquer, le 6/03/2013 : http://www.liberation.fr/livres/2013/03/06/bnf-la-numerisation-privee-fait-tiquer_88678



lundi 11 mars 2013

Le projet ISTEX : enquête sur les besoins électroniques des chercheurs

Le projet ISTEX (Initiative d'Excellence de l'information Scientifique et Technique) [1] a pour objectif de renforcer, à l'international, la recherche et l'enseignement supérieur français en donnant un accès aux collections rétrospectives de la littérature scientifique par l'acquisition importante de documentation : archives de revues, bases de données, corpus de texte...
Quatre institutions, le Centre National de la Recherche Scientifique (CNRS), l'Agence Bibliographique de l'Enseignement Supérieur (ABES), le Consortium Universitaire de Publications Numériques (Couperin) et l'Université de Lorraine portent le projet ISTEX.

Afin de mieux répondre aux besoins des chercheurs, une enquête [2] a été réalisée auprès de ceux-ci dont les premiers résultats viennent d'être publiés [3].
Dans cette même perspective d'analyse des besoins, les professionnels de l'information scientifique et technique ont été aussi mobilisés.
Enfin, un appel d'offres à l'attention des éditeurs a été lancé pour recenser et acheter les documents

Le projet ISTEX comporte deux phases :

La première consiste en l'acquisition d'archives scientifiques sous forme de licences nationales négociées auprès des éditeurs.
Les acquisitions porteront sur :
     - des collections rétrospectives de revues
     - des livres électroniques
     - de grands corpus de documents patrimoniaux numérisés
     - des bases de données

La deuxième phase du projet consiste en la création d'une plateforme qui hébergera l'ensemble des données. Dans un premier temps, l'accès aux ressources documentaires se fera via les sites internet des éditeurs pour en 2014 être gérées par l'INIST-CNRS.
Cette plateforme, dotée d'un moteur de recherche, permettra un accès vers le texte intégral du document, la possibilité de naviguer entre les ressources courantes et les collections rétrospectives, un accès à distance ainsi qu'un accès pérenne aux données.

 Sources utilisées :







lundi 4 mars 2013

Que penser de l'exception des données culturelles dans le domaine de la réutilisation des données publiques ?



Dans sa feuille de route en matière d'ouverture et de partage de données qui vient d'être présentée jeudi 28 février 2013, l'Etat n'aborde pas le sujet des données culturelles. En cela, il semble montrer que la remise en question totale de cette exception n'est pas une priorité et, par conséquent, qu'il continue à la défendre. 

Néanmoins, remettre en question cette exception, régie par la loi du 17 juillet 1978, cela veut dire remettre en question l'organisation générale du secteur culturel en France. 

Si la donnée culturelle est laissée à la réutilisation, elle devient un bien marchand, ce qui entraînerait la remise en question du concept de bien culturel comme bien non marchand. En effet, quand on regarde les types de données qui sont aujourd'hui ouvertes, comme les statistiques des trains arrivant à l'heure ou la carte des sanisettes parisiennes, il est difficile de toujours parler de données stratégiques et indispensables à notre éveil intellectuel. 

Or, c'est le concept d'exception culturelle qui fonde la politique culturelle française et
remettre en question cette exception entraîne déjà, et entraînera d'autant plus, la réorganisation du secteur culturel dans son ensemble, déjà soumis à de fortes pressions. Libérer certaines données peut, en effet, remettre en cause l'existence même d'un établissement culturel, par exemple la Réunion des Musées Nationaux.
Cependant ouvrir les données culturelles afin de permettre leur réutilisation ne serait-t-il pas un moyen d'inventer de nouveaux modes de financement de la culture, dans un pays en crise ?
Les musées, par exemple, expriment souvent leurs réticences en brandissant la peur de voir le public déserter les expositions. Or, la mise à disposition des collections sur internet  n'a pas empêché le public de s'y rendre.
Dans le cas des archives, parler de protection des données personnelles pour ne pas ouvrir les données, c'est bien aller contre la feuille de route du gouvernement, et oublier les délais de communicabilité qui existent déjà.

Le problème est que "les données culturelles" sont une appellation très vague recouvrant des types de données très différents. Qui s'intéresse aux statistiques de consultation du site web d'un musée ? Cette donnée est-elle comparable à un inventaire d'archive ou au catalogue d'une bibliothèque ? Il s'agit donc de faire un travail de classement des données afin de différencier celles  à ouvrir et celles à conserver fermées.
Cela semble être le chemin défendu actuellement par la France, alors que la directive européenne est en rediscussion.









Images gratuites ou images libres de droits ?



Dans un monde toujours plus interconnecté et où l'image s'impose comme un accélérateur du discours, de nombreux producteurs de contenus, professionnels ou non, recherche des images gratuites pour illustrer leurs propos.

Régulièrement, des sites proposent des liens vers des ressources d'images gratuites mais qu'en est-il exactement ?

Il existe souvent une confusion entre l'image gratuite et l'image libre de droits, ce qui n'est pourtant pas la même chose. Sans doute est-ce dû à une traduction erronée des termes anglais de "royalty free".

Les images gratuites
On peut trouver des images gratuites, c'est-à-dire des photographies ou des dessins vectoriels, mis à disposition de la communauté par des internautes sous licences Creatives Commons. Sous réserve de la gratuité, l'internaute s'engage à respecter les conditions que l'auteur a fixé, l'une des conditions minimales étant le respect du nom de cet auteur.
Les inconvénients de ce type d'images sont, outre un choix restreint dans les thèmes traités, un risque de contentieux sur le droit d'auteur ou sur le droit à l'image du modèle représenté. En effet, rien ne garantit que l'image est bien de la personne qui se dit auteur. De même que rien ne garantit que le modèle représenté, quand il existe, a bien donné sont accord pour l'utilisation de son image.
Il peut donc être dangereux d'utiliser ce type d'image.
Les images gratuites sans aucuns droits associés n'existent pas.

Les images libres de droits
Les images libres de droits, quant à elles, sont des images que l'on pourrait qualifier d'images "à licence globale" par opposition aux images sous droits gérés. L'internaute achète une licence qui lui donne un droit d'utilisation illimité sur cette image. Il a, bien sûr, l'obligation de mentionner le nom de l'auteur de l'image et de ne pas utiliser celle-ci de façon à porter préjudice à l'auteur ou au modèle représenté. Ce ne sont donc pas des images gratuites mais certaines banques d'images peuvent proposer des images libres de droits pour des sommes très modiques (quelques dollars ou quelques euros).

Les images sous droits gérés
Ce sont des images vendues selon un modèle économique déjà ancien : le prix à payer pour une image est calculé en fonction de la notoriété de l'auteur, de la taille de l'image, du support utilisé et de la diffusion prévue. Cette forme de facturation des images tend doucement à être remplacée par le "libre de droit" bien plus simple à calculer et mettre en place sur des sites de ventes en ligne.

Quelques sources :