jeudi 19 décembre 2013

Altmetrics: un Openmetrics?

Les évaluations alternatives dans le champ de la recherche scientifique

La production scientifique gagne en vitesse et en moyens de diffusion avec Internet. Les pratiques de la recherche scientifique sont en pleine transformation. Personne ne peut tout lire, c'est un fait. Des filtres permettant de trier les informations existent depuis un moment et des nouveaux outils sont inventés tous les jours pour faciliter le repérage des sources pertinentes.
Dans le monde académique de la recherche, les principaux filtres utilisés par ses membres sont considérés déjà comme traditionnels et insuffisants pour analyser l'impact des contributions scientifiques. Pour rappel, ils sont au nombre de trois...

- La revue par les pairs ou évaluation par les pairs (Peer-review):
un collectif de chercheurs jugent de façon critique les travaux d'autres chercheurs (leurs « pairs »)
- L'index H (H-index): indicateur du nombre de citations que compte un papier
- Le facteur d'impact (IF) d'une revue: calcul qui estime indirectement la visibilité d'une revue scientifique, un journal avec un IF élevé est ainsi considéré comme plus important (plus lu et plus cité) qu'un journal avec un FI faible.

... et ses insuffisances, respectivement:
- très lente, impartiale, difficile à appliquer face à la croissance presque organique du volume de journaux, la revue par les pairs n'est pas un instrument efficace pour éviter la prolifération incontrôlée de publications scientifiques;
- l'index H peut s'avérer aussi très lent, un article peut, en effet, attendre des années pour être cité pour la première fois. En outre, ce type d'indicateur néglige l’implication et la réutilisation à l’extérieur du strict cadre académique et ignorent les raisons pour lesquels l’article est cité.
- le facteur d’impact (impact factor, IF) d’un journal donnant la moyenne de citations par article est souvent utilisé à tort comme une mesure de l’impact des articles individuels.

Des pratiques de recherche qui changent, de nouvelles mesures qui s'avèrent nécessaires

Le grand changement de ces pratiques réside dans la publication croissante des données de la recherche en accès ouvert (Open Acces). Les données scientifiques deviennent accessibles hors-académie, leur impact diffèrent de nature, ils ne s'agit plus de savoir si un article compte pour le monde scientifique, mais aussi s'il a de l'influence dans d'autres sphères de l'action, le comment et le pourquoi.
CC By-SA
Altmetrics, mesures alternatives, permettent cela, elles sont ouvertes et ne font pas que compter le nombre de citations mais prennent également en compte les contenus sémantiques (noms d’utilisateurs, de tags,…). Puisque les altmetrics le permettent, la revue par les pairs peut se faire très rapidement. De même, l’impact d’un article peut se faire quasiment immédiatement, ce qui constitue une différence notable non seulement en termes de temps d’évaluation mais aussi en termes de ce qui est évalué par comparaison avec l’IF d’un journal. Contrairement au score traditionnel d’un article calculé uniquement à partir d’un nombre de citations, les altmetrics pourront jauger l’impact de l’étude à l’extérieur du seul monde strictement académique et pourront prendre en compte des travaux importants mais qui n’ont pas massivement été cités.

 Comment ça marche?


altmetrics is the creation and study of new metrics based on the Social Web for analyzing, and informing scholarship.
Our vision is summarized in:
J. Priem, D. Taraborelli, P. Groth, C. Neylon (2010), Altmetrics: A manifesto, (v.1.0), 26 October 2010. http://altmetrics.org/manifesto

Applications et Outils en Altmetrics:

 http://altmetrics.org/tools/

Sources:
Altmetrics: a manifesto 

 "Quelles évaluations alternatives des pratiques de la recherche ?" Carnets de recherche Hypothèses, Science ouverte:réflexions sur une future libération des données scientifiques, billet posté le 27 octobre 2013, consulté le 19 décembre 2013 [http://donnees.hypotheses.org/69]

Pour en savoir plus: 


- Donaldson, Michael R.; Steven J. Cooke. "Scientific Publications: Moving Beyond Quality and Quantity toward Influence", BioScience, 12 décembre 2013 [article en ligne]
http://bioscience.oxfordjournals.org/content/early/2013/12/05/biosci.bit007.full] consulté le 19 décembre 2013

- Thelwall, M;  Haustein, S., Larivière, V; Sugimoto, C.R. Do Altmetrics Work? Twitter and Ten Other Social Web Services, PLOS One, 29 mai 2013 [article en ligne]
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0064841




mercredi 18 décembre 2013

Protection des internautes : les cookies sous contrôle


La Commission Nationale de l'Informatique et des Libertés (CNIL) vient d'agiter la toile en publiant une nouvelle recommandation au sujet des cookies.

Le rôle des cookies est tout d'abord technique puisqu'ils permettent par exemple à certains sites de stocker des données personnelles de connexion facilitant une authentification automatique ultérieure de l'internaute.
C'est néanmoins leur aspect intrusif qui est visé par cette recommandation.
En effet, ces petits traçeurs qui peuvent "espionner" la navigation et les activités des internautes sur le Web afin de leur proposer des publicités intempestives mieux ciblées, ont eu jusqu'à présent pour habitude d'accéder aux disques durs et de s'y installer sans autorisation préalable.

La CNIL fait valoir le principe de "manifestation de volonté, libre, spécifique et informée" afin de  donner plus de pouvoir aux internautes et leur permettre de paramétrer et contrôler l'accès des cookies à leurs terminaux.
C'est ainsi le système du bandeau informatif qui est préconisé afin d'établir une pratique informative en deux temps.
Ainsi, le bandeau devrait figurer sur chaque site concerné afin d'éclairer l'utilisateur sur la finalité des cookies, les moyens mis à disposition de l'utilisateur afin d'accepter ou de refuser leur installation ainsi que le fait que la poursuite de la navigation aurait désormais valeur de consentement à l'installation du traçeur.

Cette mesure si elle vient à être appliquée risque d'avoir des répercussions notables sur le ciblage publicitaire et les revenus qu'il génère.


Sources :

CNIL. Recommandation sur les cookies : quelles obligations pour les responsables de sites, quels conseils pour les internautes ? [en ligne] 16 Décembre 2013 [consulté le 18 décembre 2013]
http://www.cnil.fr/linstitution/actualite/article/article/recommandation-sur-les-cookies-quelles-obligations-pour-les-responsables-de-sites-quels-conseils/

Dempuré, Frédéric. Cookies : le ciblage publicitaire dans le collimateur de la CNIL. In Les Echos [en ligne] 18 Décembre 2013 [consulté le 18 Décembre 2013]
 http://business.lesechos.fr/entrepreneurs/web/2714354-cookies-le-ciblage-publicitaire-dans-le-collimateur-de-la-cnil-58570.php

Berguig, Matthieu. Cookies : La CNIL assouplit sa position. In Le Journal du Net [en ligne] 18 Décembre 2013 [consulté le 18 Décembre 2013]
http://www.journaldunet.com/ebusiness/expert/56094/cookies---la-cnil-assouplit-sa-position.shtml





Du MEMS au bioMEMS : la révolution des objets connectés

Portés par le marché des capteurs (MEMS et maintenant BioMEMS) les objets intelligents se multiplient et augmentent avec leur existence le volume des données collectées.

Les MEMS – Micro electromecanical system ou micro systèmes électromécaniques – sont des capteurs d’informations qui transmettent ces informations à un microcontrôleur qui les analyse.

Ils existent depuis les années 1970, mais leur commercialisation n’a vraiment débuté qu’avec les années 1980. La progression de la miniaturisation les ont fait évoluer au-delà de la détection de mouvements portée par le succès de la console Wii.

Avec un volume croissant d’informations à  traiter, l’informatique est impliquée de plus en plus à trier, transmettre et veiller à la qualité de l’information.

La biologie et la santé sont devenues de grandes consommatrices de MEMS qui évoluent dans l’ère du bioMEMS.

Leur fabrication se fait par des technologies secrètes et protégées par une centaine de brevets.

L’ « Internet des objets » sera de plus en plus un grand consommateur de MEMS.
Cela concernera l’habitat, avec la domotique, la mobilité sous toutes ses formes, mais aussi la ville de demain.

Le marché dans son ensemble : dans les smartphones, il représente aujourd’hui un marché de 6 milliards de dollars ; le marché des MEMS avec les autres applications devrait être de 22 milliards en 2018.

Répondant à cette tendance, IBM présente cinq innovations digitales qui permettront dans les cinq années à venir d’élaborer des services numériques avancés et de changer ainsi la façon de vivre, travailler et interagir.
Celles-ci bénéficieront au commerce, à la santé et aux smart city.

Véritable cocktail de technologies, elles allieront le cloud computing, le big data et la machine learning.

A lire :

Benedetto, Vigna. La révolution des MEMS. In Paristechreview.com [en ligne]. 9 décembre 2013 [consulté le 18 décembre 2013]
http://www.paristechreview.com/2013/12/09/revolution-des-mems/

Dominique, Filippone. IBM dévoile les 5 innovations digitales du futur. In JDN [en ligne]. 18 décembre 2013 [consulté le 18 décembre 2013]
http://www.journaldunet.com/solutions/dsi/ibm-innovations-digitales-et-numeriques-1213.shtml


vendredi 13 décembre 2013

Placer sous licence libre les oeuvres financées par l'argent public?



    Telle a été la question posée par une députée française au ministre de la culture:

    En effet la question est récurrente de savoir si les œuvres financées par l’argent du contribuable ne devraient pas être libres de droit puisque publiques. Déjà en 2008, une affaire avait soulevé la question et provoqué une polémique. Outre le fait que le contrat établi pour la session des droits était maladroit, il allait à l’encontre des principes fondamentaux du droit d’auteur. Malgré tout, il a eu le mérite de soulever la question du statut d’une œuvre financée par l’argent public.

    Dans l’histoire, de nombreuses commandes (un exemple) ont été passées par des institutions publiques et donc financées par l’argent du contribuable.
Par ailleurs la question se pose aussi de la possession du droit d’auteur. A partir du moment où un commanditaire demande la création d’une œuvre, n’en est-il pas aussi auteur en quelque sorte ? La députée soulève un débat fondamental : lorsqu’il s’agit d’un commanditaire public, à l’ère de l’open data, ne peut-on pas envisager une démocratisation des œuvres ?



    Malgré tout, le droit ne statue pas clairement sur ce cas, et il faudra probablement attendre des jurisprudences pour voir se dégager une tendance officielle sur la question.

jeudi 5 décembre 2013

De la fracture numérique à "l'inclusion numérique"



Depuis une dizaine d’années, la notion d’inclusion numérique s’est focalisée sur la question de la fracture numérique. D’un côté ceux qui étaient connectés, de l’autre ceux qui ne l'étaient pas.
Aujourd'hui, le numérique et les usages associés sont plus complexes, moins binaires, la problématique s’avère plus large.

Il faut développer la lutte contre la fracture numérique en y associant une politique d'inclusion plus globale de la population. C'est le message qu'adresse le CNNum (Conseil National du Numérique), dans son rapport remis le 26 novembre à Fleur Pellerin, ministre déléguée chargée des Petites et moyennes entreprises, de l’Innovation et de l’Économie numérique. 

A cette occasion, la ministre est revenue sur le développement du très haut débit dans les territoires et a rappelé que « le numérique est une transformation globale de la société ». Elle a  souligné que l’étape suivante était celle de l’inclusion et de la démocratisation des usages du numérique.

Les préconisations du CNNum :

  • Viser l’accès au sens large et de faire en sorte que le numérique contribue à faciliter plutôt qu’à complexifier les démarches et services essentiels.
  • Développer la littératie pour tous, comme référentiel commun et évolutif de compétences, afin d’inclure « au » mais également « avec » le numérique, en tant qu’accélérateur de transformation sociale.
  • Renforcer les médiations, en organisant la mise en réseau de la diversité d’acteurs, la mutualisation et le partage des bonnes pratiques, afin de faire face à des besoins qui seront croissants et pérennes.
  • Permettre la transformation sociale en donnant du pouvoir d’agir par le développement individuel d’habilités et de sens critique (« pouvoir de »), par l’association de l’initiative collective aux méthodes distribuées, collaboratives et horizontales caractéristiques du web (« pouvoir avec »), et par le développement d’une « voix de retour » élus-citoyens et du codesign des politiques publiques (« pouvoir sur »).


Enfin, le CNNum affirme qu’un effort particulier doit être apporté pour diffuser la culture numérique aux élus et décideurs des secteurs public, et privé. "Nombre d’élus et de décideurs considèrent le numérique essentiellement comme une question technique et un secteur d’opportunités économiques" explique le rapport. "On note toutefois un manque de compréhension globale de la mutation informationnelle et des transformations sociales, culturelles, qui l’accompagnent."

La proximité des élections municipales pourrait être une opportunité supplémentaire de sensibilisation des décideurs publics locaux, histoire d’élargir leur perception des enjeux numériques.



A lire :

Avis inclusion numérique. In cnnumerique.fr [en ligne]. 27 novembre 2013 [consulté le 5 décembre 2013]

Le CNNum mise sur les territoires pour promouvoir une nouvelle politique d'inclusion. In numérique.localtis.info [en ligne]. 27 novembre 2013 [consulté le 5 décembre 2013]

Le Conseil national du numérique remet ses conclusions sur l’inclusion numérique à Fleur Pellerin. redressement-productif.gouv.fr [en ligne].27 novembre 2013 [consulté le 5 décembre 2013]

PDG: le digital ne vous sauvera pas !

"Entreprise cherche talent digital désespérément" !

Préoccupées par leur transformation digitale, les entreprises se sont souvent lancées, tête baissée, dans une véritable chasse à l'homme ! Le talent digital semble apparaître comme le Sauveur face aux challenges que pose notre monde 2.0....Non, amis dirigeants, la réalité n'est malheureusement pas aussi simple....

Le talent digital n'est pas quelqu'un qui sait utiliser Twitter ou Facebook. Et savoir utiliser ne veut pas dire nécessairement utiliser de façon pertinente, surtout en entreprise: nuance ! Il ne s'agit pas d'employer des gens qui agissent digital, mais des gens qui pensent digital. Le talent digital, c'est avant tout la capacité à appréhender un environnement nouveau et s’y mouvoir aisément; environnement caractérisé par la vitesse, l’imprévisibilité, la multiplication des flux d’information, des récepteurs et des émetteurs, la nature informelle des interactions. Cette capacité s'acquiert, elle ne s'embauche pas!

Tout miser sur ce talent digital reste une grave erreur. Or nos PDG sont souvent rêveurs face au numérique alors que celui-ci seul ne préservera pas l'entreprise.  Le digital a été réduit à l’ensemble du business des technologies à destination des individus. La digitalisation a propulsé les entreprises dans la communication avec les clients: elle a redonné la main aux clients, elle a donné du pouvoir à l'utilisateur...mais parfois au détriment des salariés et de l'entreprise.

Or, pour reprendre une idée de Mackinsey, le vrai challenge est davantage dans la transformation des entreprises ! Clay Shirky disait "'quand on adopte un outil, on adopte la philosophie de management qui va avec." Et c'est vrai; à quoi cela sert-il d'utiliser digital, de vivre digital, de respirer digital,... si l'entreprise n'a pas adopté une philosophie de management adaptée aux nouveaux outils numériques?

Pour maîtriser leur image numérique, les entreprises doivent élaborer une stratégie de transformation digitale. "Au lieu de chercher des talents digitaux qui vont les aider à se transformer, les entreprises gagneraient donc à se transformer pour permettre aux talents qu’elles ont déjà de s’exprimer et ainsi appuyer le processus de transition numérique." (Bertrand Duperrin).

D'accord, mais que faut-il faire ? Pas de transformation sans indicateur clair ! Lorsqu'une entreprise souhaite démarrer un projet de transformation, elle doit se demander ce qu'elle souhaite améliorer et non changer. il n'est pas question de changer la manière de travailler, de communiquer, de collaborer, mais de trouver les indicateurs qu'on veut impacter: améliorer la gestion projet ? améliorer l'efficacité du marketing ?... Une fois que l'on connaît l'indicateur, l'entreprise doit regarder quels modes opérateurs vont permettre d'impacter ses indicateurs. C'est à partir de ce moment-là qu'il sera possible de choisir la technologie adaptée...et ainsi de faire appel aux capacité digitales.

Alors, la morale de l'histoire est la suivante: ne pensons pas uniquement digital, pensons stratégie ! Rechercher un talent digital à grands cris n'est pas la solution. Et même, très souvent, le talent digital se trouve à l'intérieur de l'entreprise, parmi les compétences des salariés. Le digital n'est qu'un outil au service d'une stratégie; il est impératif d'établir d'abord sa stratégie d'innovation et de développement avant de  faire entrer dans la course l'outil magique et miracle qu'est le numérique. Faisons d'abord appel aux talents stratégiques internes à l'entreprise.

Alors, amis dirigeants, retenez ce conseil de Bertrand Duperrin et soyez désormais des entrepreneurs avertis et prudents:
 "Oubliez le digital qui n’est quelque part qu’un écran de fumée. Un talent digital est un talent avant tout. Il deviendra digital lorsqu’on lui donnera les moyens de l’être".



Sources:

Duperrin, Bertrand. L'entreprise digitale: orientée client, rêveuse et peu collaborative. Bloc-notes de Bertrand Duperrin. [en ligne]. 27 août 2013 [consulté le 5 décembre]

Duperrin, Bertrand. Par où commencer votre transformation? [en ligne]. 20 août 2013 [consulté le 5 décembre] http://www.duperrin.com/2013/08/20/commencer-transformation-digitale-sociale/

Duperrin, Bertrand. Au fait, qu'est-ce qu'un talent digital? [en ligne]. 7 novembre 2013 [consulté le 5 décembre] http://www.duperrin.com/2013/11/07/talent-digital/

mercredi 4 décembre 2013

Licences Creative Commons, version 4.0

L'organisation Creative Commons a rendu publique fin novembre une version révisée de son système de licences de libre diffusion.  

Les travaux de révision ont abouti à une simplification de l'utilisation des licences. Une transposition de la licence pour chaque pays n'est par exemple plus nécessaire pour assurer sa validité. L'existence de la clause NC - (non commerciale) qui permet aux auteurs de réserver les usages non-commerciaux d’une œuvre est maintenue après débat entre les contributeurs.

Selon l'analyse de Lionel Maurel sur son blog Silex, un des apports importants de la révision de 2013 est la prise en compte du droit des bases de données, ce qui pourrait sous certaines conditions permettre l'utilisation des licences CC dans le cadre des projets reposant sur l'Open Data.

En France pour ces derniers, il est actuellement possible de se référer à la "Licence Ouverte / Open Licence" développée par Etalab dans le cadre des politiques publiques favorisant l'Open Data.

A lire

Creative Commons nouvelle version :

What’s New in 4.0. Creative commons.org, en ligne, consulté le 4 décembre 2013.
http://creativecommons.org/version4
 
Lionel Maurel. Deux enjeux stratégiques dans la nouvelle version 4.0 des Creative Commons : Open data et clause non-commerciale. Silex, mis en ligne le 30 novembre 2013.
http://scinfolex.com/2013/11/30/deux-enjeux-strategiques-dans-la-nouvelle-version-4-0-des-creative-commons-open-data-et-clause-non-commerciale/

Licence mise en place par Etalab dans le cadre de l'Open Data :

Etalab. Licence ouverte/Open Licence, en ligne, consulté le 4 décembre 2013.
http://www.etalab.gouv.fr/pages/licence-ouverte-open-licence-5899923.html 

Utiliser une licence CC : 

Jean-Luc Raymond.10 outils en ligne ou à télécharger pour utiliser les licences Creative Commons. Netpublic mis en ligne le 14 mars 2013. 
http://www.netpublic.fr/2013/03/outils-en-ligne-creative-commons/ 

 

Un rapport sur la place de la culture dans les grandes métropoles mondiales



     Alors que certains classements font beaucoup parler d'eux, comme le dernier rapport de l'OCDE sur l'éducation, PISA 2012, d'autres se font beaucoup plus discrets.

     Ainsi, Livres-Hebdo consacre un article à un rapport sur la "culture dans les villes monde",  le "World Cities Culture Report 2012".  Il a été commandité par la ville de Londres, sur une initiative de son maire Boris Johnson, à laquelle s'est associée l'IAU (Institut d'Aménagement et d'Urbanisme) d'Ile de France. Il a ensuite été coordonné par le bureau d'étude BOP Consulting.

     Il s'agit d'un classement sur la place de la culture dans les grandes métropoles mondiales établi à l'aide de soixante indicateurs. Son but est de connaître l'importance économique de la culture et la place qu'elle pourrait prendre à l'avenir. Une carte permet d'accéder à ces résultats.
     Son niveau de détails constitue son principal atout. On y apprend par exemple que la région parisienne détient le plus grand nombre de bibliothèques alors que Shanghai possède le plus grand nombre de librairies. Cette étude ne se limite pas au livre mais s'intéresse aussi au nombre de théâtres, de galeries d'art, de festivals voire même au nombre de parcs ou de bars par habitants.
Chaque ville exprime également son attrait pour la culture, ressentie comme créatrice d'emplois à Paris ou à Londres ou comme source de cohésion sociale à Shanghai. La culture est une composante essentielle pour ces villes. Les notions de ville et de culture sont liées et cette étude en est une nouvelle démonstration.

Sources :

 SOUEN Léger. Paris, Shanghai et Tokyo, capitales du livre. In site de Livres-Hebdo [en ligne]. 3 décembre 2013 [consulté le 04 décembre 2013]
http://www.livreshebdo.fr/article/paris-shanghai-et-tokyo-capitales-du-livre

Culture dans les villes monde. In site de l'IAU IDF [en ligne]. novembre 2013 [consulté le 04 décembre 2013]
http://www.iau-idf.fr/debats-enjeux/la-culture-dans-les-villes-mondes.html

Site worldcitiescultureforum.com [consulté le 04 décembre 2013]
http://www.worldcitiescultureforum.com/



mercredi 27 novembre 2013

Google for freedom


C'est l'histoire d'un ogre qui prend peur.
Ou plutôt qui le feint. Google, ce bon géant numérique aux contours de nuages pixellisés, aurait, il y a peu, ruminé un exil loin des Etats-Unis.

C'est ce qu'annonçait Numerama, sous la plume de Guillaume Champeau, lundi dernier, 25 novembre.
Et pourquoi donc ce départ éventuel ? Pour fuir l'entreprenante NSA et l'embarassant Patrioct Act. Eric Schmidt, Pdg de Google, aurait confié récemment que sa firme avait envisagé de déménager du sol nord-américain ses immeubles de serveurs afin de protéger des indiscrétions du pouvoir fédéral les données personnelles de ses abonnés. Belle sollicitude, réflexe citoyen ? Pragmatisme industriel avant tout.

Monsieur Schmidt reconnaît qu'en fait le gênent et l'embarrassent les initiatives étatiques pour la confidentialité des données. Ainsi les Pays-Bas qui les premiers ont imposé leur cloud national dès 2011, avant les confidences d'Edward Snowden. L'existence de clouds souverains est désormais acquise, n'en déplaise à Google. En France l'illustrent les deux consortiums Cloudwatt (Orange/Thalès) et Numergy (SFR/Bull). Mais Mr Schmidt de pointer là une menace pour l'indépendance d'Internet et de prédire un avis de tempête généralisée.


Quoi, s'est donc un instant offusqué le géant, je ne serais donc plus le seul à régner ?
Juste un effet de l'affaire Prim. Les titans de l'Internet ne l'ignorent pas : la météo politique est chose très variable mais la démocratie a pour unique baromètre la liberté.
D'ici à la résolution planétaire de ces questions, nul doute que nombre d'ouragans bien réels auront soufflé de par le monde et sur nos vies chiffrées, stockées dans des... nuages électroniques.


Sources :

Champeau Guillaume.Google a songé à déménager des Etats-Unis pour éviter la NSA. In Numerama [en ligne]. 25 novembre 2013 [consulté le 27 novembre 2013]
http://www.numerama.com/magazine/27604-google-a-songe-a-demenager-des-etats-unis-pour-eviter-la-nsa.html

Etat des lieux de l'Internet et prospective :

La dynamique d'Internet. Prospective 2030. Etude réalisée sous la direction de Laurent Gille, Télécom ParisTech et Jacques-François Marchandise, Fondation internet nouvelle génération (FING) pour le Commissariat général à la stratégie et à la prospective.
http://www.fing.org

Association internationale pour une politique industrielle des technologies de l'esprit
http://www.arsindustrialis.org

Réseaux, Politique des algorithmes, Les métriques du Web, 2013/1, n°177
http://www.cairn.info/revue-reseaux.htm



La loi de programmation militaire 2014-2019 fait débat

L'Assemblée Nationale examine actuellement une disposition du projet de loi militaire(LPM) qui suscite de vives inquiétudes chez les opérateurs et  acteurs Internet. Si cette loi est adoptée, elle permettra l'extension du régime d'exception concernant l'accès aux données personnelles.

Cette loi encadre la collecte de deux types de données: les données de connexion et le contenu des correspondances, ce qu'autorise déjà la loi actuelle.
La LPM réduirait la durée d'autorisation de la collecte des correspondances  à dix jours, contre quatre mois actuellement.
Elle élargirait aux ministres chargés de la Sécurité intérieure, de la Défense, de l'Economie et du Budget, la possibilité d'en faire la demande.
Ce projet de loi a pour objectif d' harmoniser les législations existantes (loi de 1991 et loi antiterroriste de 2006).
Par ailleurs, il  introduit également de nouvelles garanties. L'autorisation de collecte des données serait désormais du ressort du premier ministre. Ce dispositif législatif encadrerait le recueil de données issues de la géolocalisation, ce qui n'est pas le cas actuellement.

Ce texte élargit aussi les entités auprès desquelles elles pourront réclamer des interceptions. Jusqu'à présent seuls les fournisseurs d'accès étaient concernés. Il en sera désormais de même pour les  les hébergeurs de contenus, ce qui a engendré une vive riposte de  l'ASIC (Association des service Internet communautaire) qui représente des acteurs comme Yahoo, Google, Deezer, Dailymotion...
Autre sujet d'inquiétude: la collecte des données en temps réel, qui pourrait conduire à l'installation, par les autorités, de dispositifs d'interception  sur les équipements des entreprises d'Internet, comme les fournisseurs d'accès, les opérateurs de téléphonie ou les sites Web.

De leur côté, le Conseil national du numérique et la CNIL montent au créneau. Le CNNum a rendu un avis négatif sur ces mesures et rappelle la place centrale du juge dans la régulation d'Internet.
Quant à la CNIL, elle déplore ne pas avoir été consultée sur l'accès en temps réel, aux données de connexion par des agents des ministères de l'Intérieur, de la Défense et du Budget, comme le veut la  loi du 6 janvier 1978.

Sources :

Champeau Guillaume.La loi pour la programmation militaire crée une loi martiale numérique. In Numerama [en ligne]. 25 novembre 2013 [consulté le 27 novembre 2013]
http://www.numerama.com/magazine/27600-la-loi-pour-la-programmation-militaire-cree-une-loi-martiale-numerique.html

Untersinger Martin. Surveillance d'Internet : inquiétudes autour de la loi de programmation militaire. In Le Monde [en ligne]. 26 novembre 2013 [consulté le 27 novembre 2013]
http://www.lemonde.fr/technologies/article/2013/11/26/surveillance-d-internet-inquietudes-autour-de-la-loi-de-programmation-militaire_3518974_651865.html

Loi de programmation militaire : la CNIL déplore de ne pas avoir été saisie des dispositions relatives à l'accès aux données de connexion.In site de la CNIL [en ligne]. 26 novembre 2013 [consulté le 27 novembre 2013]
http://www.cnil.fr/linstitution/actualite/article/article/loi-de-programmation-militaire-la-cnil-deplore-de-ne-pas-avoir-ete-saisie-des-dispositions-rel/

Cheminat Jacques. Loi de programmation militaire : un espionnage numérique élargi et institutionnalisé. In Le Monde informatique [en ligne]. 26 novembre 2013 [consulté le 27 novembre 2013]
http://www.lemondeinformatique.fr/actualites/lire-loi-de-programmation-militaire-un-espionnage-numerique-elargi-et-institutionnalise-55801.html










lundi 25 novembre 2013

Quand les musées échangent avec le public à l'aide des réseaux sociaux

Les musées, qu'ils soient nationaux ou régionaux, ont décidé d'investir les réseaux sociaux, principalement afin de développer leurs relations avec le public mais aussi de l'élargir.

Cette démarche ne date pas d'hier. A titre d'exemple, une centaine de musées sur les 1 200 labellisés sont présents sur Twitter en 2013, alors qu'ils n'étaient que 20 en 2009. Sont également privilégiés Facebook, Instagram et Youtube comme moyens de communication, parce qu'ils permettent de s'adresser rapidement à un large public. En d'autres termes, pas nécessairement celui qui est un habitué des musées, mais aussi une cible plus jeune.

Parmi les musées les plus suivis, au-delà du Louvre ou du Centre Pompidou, on peut citer le Muséum de Toulouse, un des premiers à avoir rejoint Twitter en 2008.

Une initiative intéressante à signaler concerne la création du hashtag #jour de fermeture qui dévoile les coulisses des musées une fois leurs portes closes. Cela donne l'impression d'être dans la confidence, en même temps que cela humanise les rapports entre les musées et le public.

Un élément enfin à garder à l'esprit quant à l'utilisation de Facebook. Il dispose d'une déclaration des droits et responsabilités, qui proscrit toute "image pornographique ou contenant de la nudité".

Sources :


Site de L'oeil au carré. Quand les réseaux sociaux dépoussièrent les musées. Publication : 13/11/2013 [consulté le 25/11/2013]. <http://oeil-au-carre.fr/2013/11/13/reseaux-sociaux-musees/>

Site du Huffington Post. Comment les musées se dépoussièrent sur les réseaux sociaux. Publication : 31/03/2013 [consulté le 25/11/2013].
<http://www.huffingtonpost.fr/2013/03/30/musee-reseaux-sociaux-twitter-facebook-museogeek_n_2983611.html>

Site de Télérama. Les musées s'emparent des réseaux sociaux. Publication : 15/03/2013 [consulté le 25/11/2013]. <http://www.telerama.fr/scenes/quand-les-musees-s-emparent-des-reseaux-sociaux,94756.php>

Conférence Dreamforce 13: le pionnier du cloud computing à l'assaut du Web 3.0

La conférence Dreamforce 13 s'est tenue à San Francisco du 18 au 21 novembre 2013. 130000 personnes ont assisté à l'évènement marquant de la société SalesForce.com, l'un des dix acteurs incontournables du web.
SalesForce.com, créé en 1999, est un pionnier du cloud computing et un leader de la relation client. La firme, basée à San Francisco, propose à ses clients des solutions informatiques qui ne sont plus facturées qu'à l'usage. Le nouveau produit de Salesforces, Salesforce1, a été présenté lors de Dreamforce. Le géant intègre ainsi le web 3.0 en supportant dorénavant les technologies mobiles (tablettes, téléphones). 

SalesForce1 permet aux entreprises de créer leurs propres applications métiers destinées à améliorer la relation client. Cette solution revêt une importance capitale à l'heure du développement des objets connectés. 

La nouvelle solution de SalesForce se présente comme une plateforme permettant de centraliser les applications et les données, d'être accessible à partir de tous types de terminaux et d'en donner l'accès à des services tiers par le biais d'applications. 
Ainsi, l'administrateur peut traiter toutes les données à partir d'une même interface (gestion des droits, modifications...). L'entreprise a ainsi la possibilité de créer une application destinée à ses clients qui peuvent s'y connecter depuis leur ordinateur, leur tablette ou leur smartphone. La création de cette application se fait via un éditeur simplifié permettant, en outre de développer d'autres types d'objets pour répondre aux besoins de l'entreprise. l'enjeu ici est la gestion des données des clients. 
Ainsi, parle t-on, au delà du web des objets connectés, de l'internet of customers, le web des clients. 

Internet of Customers
Sources: 

CAVAZZA. F, compte-rendu de Dreamforce 2013, première journée, billet de blog, 20 novembre 2013 [consulté le 25 novembre]

CAVAZZA. F, compte-rendu de Dreamforce 2013, deuxième journée, billet de blog, 20 novembre 2013 [consulté le 25 novembre]
http://www.fredcavazza.net/2013/11/20/compte-rendu-de-dreamforce-2013-deuxieme-journee/

LAUER. S, SalesForce met de la mobilité dans la gestion de la relation client, Le Monde, Technologies, article de presse, 20 novembre 2013 [consulté le 25 novembre 2013]
http://www.lemonde.fr/technologies/article/2013/11/20/salesforce-se-met-au-mobile_3516771_651865.html

mercredi 20 novembre 2013

Gallica rend accessible ses fonds sonores au grand public


Riche d'une collection de plus de 200 000 disques hérités de la Phonothèque nationale, la BnF rend désormais ce patrimoine disponible auprès d'un large public au travers de sa nouvelle plateforme en ligne accessible depuis fin octobre. Au total, cette opération vise à rendre public pas moins de 700 000 titres regroupant des genres musicaux aussi variés que la musique, la chanson, le jazz, les musiques du monde, ainsi que des enregistrements parlés issus du théâtre.

Pour mener à bien ce projet, la filiale Bnf-Partenariats a fait appel à deux partenaires privés. Le premier est la société bruxelloise Memnon Archiving Services spécialisée dans la numérisation d'archives audiovisuelles. Celle-ci a rassemblé une équipe de 20 personnes chargées de vérifier, nettoyer, et numériser l'ensemble des collections. Selon Memnon, le rythme de numérisation est actuellement de 4000 disques par mois. La durée totale du projet est évaluée à 7 ans, ce qui explique qu'à ce jour seule une partie des collections soit disponible. La second partenaire est Believe Digital qui est en charge de la distribution de ses archives (rassemblées sous le label "BnF collection") auprès de 350 services de musique en ligne parmi lesquelles Amazon, iTunes, Google Play, Spotify, Deezer. De même, la BnF annonce l'ouverture prochaine de chaînes YouTube et Dailymotion consacrées à ces fonds. Les enregistrements sont également accessibles sur les postes de la bibliothèque François-Mitterrand ainsi que sous forme d'extraits sur la plateforme en ligne Gallica.

Ces fonds sonores ne concernent cependant pas que la musique puisqu'au travers de sa plateforme la BnF entend également valoriser une importante collection d'archives sonores. On y trouve ainsi le corpus des Archives de la Parole réalisé sous la direction de Ferdinand Brunot (1911-1914) puis de Jean Poirot (1920-1924) qui rassemble des enregistrements issus du studio de la Sorbonne et des enquêtes de terrain. On peut ainsi y entendre les voix de Maurice Barrès ou de l'écrivain Rudyard Kipling.

Outre ces Archives de la Parole, on y retrouve également les enregistrements de l'Exposition coloniale internationale de Paris de 1931, l'autobiographie sonore de l'écrivain, dessinateur et graveur Fred Deux, ainsi que pas moins de 180 cours donnée par Gilles Deleuze à l'Université Paris 8 entre 1979 et 1987, soit 413 heures d'enregistrement! L'auditeur peut ainsi réécouter intégralement les cours du philosophe sur des thèmes qui lui étaient chers comme Leibniz, Spinoza, Foucault, la peinture, ou encore le cinéma comme image-mouvement.

Ici encore, l'opération est loin d'être terminée. La BnF a annoncé la disponibilité prochaine d'autres fonds dont la numérisation a été rendue possible au moyen de l'opération de parrainage "Offrir une voix" issue du partenariat entre le Département audiovisuel de la BnF et l'Association des Amis de la BnF.


Sources

Fonds sonores de la BnF
http://gallica.bnf.fr/html/enregistrements-sonores/fonds-sonores

BnF Collection Sonore. Du disque aux plateformes de diffusion en ligne : la BnF ouvre largement ses collections sonores au public. Dossier de presse. 6 novembre 2013.
Fichier pdf : http://www.bnf.fr/documents/dp_bnf_collec_sonore.pdf

Memnon Arching Services, Numériser et Diffuser une collection sonore grâce à un partenariat. 15 avril 2013.
Fichier pdf accessible depuis : http://www.memnon.be/EventsPress/MemnonPressArticles/tabid/90/language/fr-FR/Default.aspx

Equipe Gallica, Les fonds sonores dans Gallica. Article de blog. 13 novembre 2013.
http://blog.bnf.fr/gallica/index.php/2013/11/13/les-fonds-sonores-dans-gallica/

Fantozzi, Marie, "Collections sonores de la BNF : bientôt dans les bacs et en ligne", Le Monde.fr, 7 novembre 2013.
http://www.lemonde.fr/culture/article/2013/11/07/collections-sonores-de-la-bnf-bientot-dans-les-bacs-et-en-ligne_3510320_3246.html

Globfree : un nouveau moteur de recherche basé sur l'analyse sémantique

Globfree, proposé par la jeune société anglaise du même nom, se veut un un outil de recherche d'articles scientifiques novateur. Basé sur l'analyse sémantique, ce moteur compare un texte aux articles contenus dans différentes sources : Pubmed, Springer, Jstor, Pubmed central, Arxiv, Nature, Cambridge University Press... soit un réservoir de près de 250 millions d'articles.

L'Observatoire des Technologies de l'INRA a testé ce nouveaux moteur et rend compte des résultats de cet essai.
L'utilisation de Globfree est gratuite mais nécessite un enregistrement. Ensuite, la recherche se fait non pas avec des mots clés, mais en saisissant un texte. Attention toutefois : le copier-coller ne fonctionne pas avec tous les formats. On peut sélectionner les sources que l'on souhaite interroger. Une recherche complète peut nécessiter jusqu'à 24 heures.

Voici comment se présente l'écran présentant les résultats d'une recherche, triés par source :

recherche en cours



Malgré des résultats de recherche intéressants, plusieurs limites se dessinent dans cette première version : un format de notice assez maigre, aucune possibilité d'affiner la requête une fois les résultats affichés, ou de trier ceux ci, et une pertinence des articles sélectionnés non garantie - elle est basée sur un algorithme non communiqué par la société Globfree.

Ce moteur devrait toutefois permettre aux chercheurs de vérifier si un sujet de travail est -ou non- novateur ou déja traité, et sous quel angle. Enfin, son système d'analyse sémantique en fait un outil de détection contre le plagiat.

Sources :

Sylvie Cocaud, blog de l'Observatoire des Technologies de l'INRA. [En ligne, consulté le 20/11/2013].
http://ist.blogs.inra.fr/technologies/2013/11/15/globfree-un-nouveau-moteur-de-recherche-base-sur-lintelligence-artificielle/

Site de Gobfree, rubrique About. [En ligne, consulté le 20/11/2013].
http://www.globfree.com/AiGlobfree.aspx?ai=9&sai=1&isai=1&disai=1

lundi 18 novembre 2013

Google Books remporte son procès contre la Guilde des Auteurs

La justice américaine a donné raison à Google pour la numérisation d'extraits dans son moteur de recherche

Depuis 2005 une bataille juridique oppose Google books à la Guilde des auteurs.  Cet organisme qui rassemble les auteurs américains dénonce une violation des droits d'auteur et demande l'arrêt de la numérisation à grande échelle par Google.
Pour alimenter son service de bibliothèque numérique Google books propose en effet des extraits dans son moteur de recherche. Le géant américain affirme aider les utilisateurs à trouver les ouvrages recherchés par les internautes grâce au référencement.

Le juge en charge de l’affaire a donné raison à Google sur la base du fair use (usage équitable), une disposition du droit américain qui permet dans certaines situations de se défendre de l’accusation de contrefaçon en cas d’usage d’oeuvres protégées.

Ainsi, selon le juge américain, les extraits de textes sont utilisés comme des pointeurs conduisant les utilisateurs vers une large sélection de livres et le juge conclut que non seulement Google Books n’occasionne pas de pertes économiques pour les titulaires de droits, mais qu’il aide même à augmenter les ventes.

La notion d'usage équitable n'existe pas en France. Le juge français est obligé de condamner s’il constate une contrefaçon, sans pouvoir prendre en compte le fait que l’acte a été commis à des fins commerciales ou non. Le juge américain a pu de son côté se demander dans quelle mesure l’usage fait par Google avait un impact sur le marché potentiel des livres.

Faut il y voir une leçon de démocratie ?

L’affaire Google Books souleve la crainte – légitime – que Google utilise la numérisation des livres pour atteindre une position dominante dans ce secteur et renforce encore la place de son moteur de recherche sur Internet.
La France a consacré beaucoup d’efforts à essayer de "contrer" les agissements de Google ces dernières années en matière de numérisation. Cette volonté a d'ailleurs abouti au vote de la loi sur les livres indisponibles du XXème siècle et sur le dispositif de la base ReLIRE gérée par la bnf.

ReLIRE  donne accès à une liste de 60 000 livres indisponibles du XXe siècle : des livres sous droits d'auteur, publiés en France avant le 1er janvier 2001, et qui ne sont plus commercialisés.Si les titulaires de droits ne s'y sont pas opposés, ces livres sont entrés en gestion collective le 21 septembre 2013 et pourront bientôt être remis en vente sous forme numérique.

Or la loi sur les indisponibles ne vise aucunement à faciliter l’accès à l’information et à développer des usages innovants de recherche. Son but unique est la recommercialisation en bloc de livres épuisés.

Dans certaines circonstances, cette notion d'usage équitable pourrait être utile pour contribuer à la sauvegarde d'archives ou de documents. Pour exemple L'Epra, banque de programmes collaborative, menacée de liquidation d’ici la fin de l’année : sa disparition met en danger un fonds de 12 000 émissions et 10 000 h d'archives. L’Epra est en effet le propriétaire exclusif de ces fonds. Les confier à un tiers impliquerait de devoir renégocier des milliers de contrats avec les auteurs et les radios. Geler les fonds les rendent inexploitables.

Dans de telles circonstances la notion d'usage équitable prendrait alors tout son sens.

Sources :

Maurel Lionel. Verdict dans l'affaire Google Books : une grande leçon de démocratie. In S.I.Lex [en ligne] 15 novembre 2013 [consulté le 18 novembre 2013]
http://scinfolex.com/2013/11/15/verdict-dans-laffaire-google-books-une-grande-lecon-de-

Google peut légalement publier des extraits de livres qu'il souhaite. In Zone Numerique [en ligne] 15 novembre 2013 [consulté le 18 novembre 2013
http://www.zone-numerique.com/google-peut-legalement-publier-des-extraits-de-livres-quil-souhaite.html

Marine Goy. Google Books : la justice donne raison à Google pour la numérisation. In LESNUMERIQUES [en ligne] 18 novembre 2013 [consulté le 18 novembre 2013]
 http://www.lesnumeriques.com/liseuse/google-books-justice-donne-raison-a-google-n31818.html

Bibliothèque nationale de France. Registre des Livres indisponibles en réédition électronique [en ligne] [consulté le 18 novembre 20013]
http://relire.bnf.fr/

Clémence Jost. Liquidationde l'Epra : des milliers d'archives réduites au silence. In Archimag [en ligne] 15 novembre 2013 [consulté le 18 novembre 2013]
 http://www.archimag.com/article/radio-liquidation-epra-archives

Est-il encore possible de faire respecter le droit d'auteur à l'ère d'Internet ?

Deux évènements récents pourraient forcer à repenser la notion de droit d'auteur à l'ère d'Internet.

Le jeudi 14 novembre, la justice américaine a rendu un jugement de nature à alimenter le débat sur la notion de droit d'auteur à l'ère d'Internet.

En 2005, la Guilde des Auteurs et l’Association des éditeurs américains avaient intenté un procès à Google, en raison du mode de fonctionnement de Google Books, qu'ils assimilaient à une violation du droit d'auteur. Le projet initial de Google Books, commencé en 2004, était de rendre disponibles par numérisation des ouvrages pour les diffuser gratuitement sur Internet et pour les rendre disponibles à des bibliothèques ayant conclu un partenariat avec Google. Cette démarche incluait les ouvrages non encore tombés dans le domaine public ; dans ce dernier cas, seuls des extraits aléatoirement choisis étaient diffusés. La Guilde des Auteurs avait alors attaqué Google en considérant que ce procédé constituait une violation du droit d'auteur.

Le juge Dennis Chin, qui a rendu le jugement, a considéré que ce procédé était légal et légitime, et relevait du "Fair Use", terme qui a généralement été traduit en français par l'expression "utilisation équitable". Dans les attendus, il a justifié sa décision en soulignant les "bénéfices" qu'en retirerait "toute la société", en particulier en ce qui concerne la diffusion du savoir et la recherche :

" [Google Books] est devenu un outil de recherche précieux [...]. Il conserve des livres, en particulier qui ne sont plus imprimés et des ouvrages anciens, qui ont été oubliés dans les entrailles des bibliothèques, et leur donne une nouvelle vie. "

Dans le même temps, Cepic, une organisation européenne qui regroupe des photographes et des agences, a déposé le 8 novembre une plainte contre Google dans le cadre d'une procédure "anti-trust". Selon Cepic, Google Images ne respecterait pas le droit d'auteur en reproduisant des images sans autorisation.

Ces informations sont de nature à soulever plusieurs questions :
- Les bénéfices que l'on peut tirer de la diffusion du savoir à très grande échelle grâce à Internet, doivent-il remettre en question la notion de droit d'auteur ?
- Est-il encore possible, sur un plan purement technologique, de faire respecter le droit d'auteur à l'ère d'Internet ?

Liens :

Sur le jugement lui-même :
http://www.actualitte.com/justice/proces-google-books-le-fair-use-respecte-le-copyright-americain-46329.htm

http://www.zone-numerique.com/google-peut-legalement-publier-des-extraits-de-livres-quil-souhaite.html

Une analyse fouillée et engagée des implications de ce jugement (comportant une brève comparaison avec la situation française) :
http://scinfolex.com/2013/11/15/verdict-dans-laffaire-google-books-une-grande-lecon-de-democratie/

Sur la procédure anti-trust concernant Google Images :
http://datanews.levif.be/ict/actualite/des-photographes-intentent-un-proces-antitrust-a-google/article-4000450803413.htm

jeudi 14 novembre 2013

L'Automne numérique et documentaire du Ministère de la Culture

Les initiatives numériques du Ministère de la Culture et de la Communication révèlent une politique documentaire innovante

La Ministre de la Culture a présenté à l’occasion de la manifestation “L’Automne numérique” les projets de son ministère favorisant l’innovation culturelle et la médiation culturelle. Les enjeux importants aux dimensions documentaires ont été soulevés :
  • ouverture des données publiques culturelles (coordonnée par la mission Etalab);
  • enjeux juridiques (partenariat avec le Creative Commons France pour la création de licences libres, partenariat avec Open Knowledge Foundation pour la réalisation d'un démonstrateur de calculateur du domaine public français);
  • enjeux technologiques (partenariat avec l’INRIA pour un cycle de conférences sur le web de données)

L’ouverture de jeux de données culturelles publiques a été mise en valeur par le Hackathon* Dataculture.  Notons que le jury a souligné encore les enjeux documentaires d’une telle manifestation en remettant le prix spécial du jury au projet “Connexe” dont l’objectif est de “créer des liens sémantiques et intelligents entre les données. L’interface propose un espace personnalisé dans lequel il est possible de créer sa propre bibliothèque de données. “[1]




* Hackathon : mot valise composé de “hack” (piratage, amateur) et “marathon” qui désigne un évènement où se regroupent sur une période très courte de quelques jours des développeurs, porteurs de projet, graphistes, spécialistes de l’information en vue de produire de façon collaborative un prototype d’application.

Sources


[1] Aurélie Filippetti a lancé le 5 octobre dernier l’Automne numérique, un événement destiné à favoriser la création et l’éducation artistique à l’heure du numérique. [en ligne]
[2] SUTTON ,Élizabeth. Automne numérique : Le ministère de la Culture crée le Silicon Valois [en ligne]. Paris France : IDBOOX, 8 novembre 2013 [consulté le 14/11/13].<http://www.idboox.com/actu-web/automne-numerique-le-ministere-de-la-culture-cree-le-silicon-valois/>