jeudi 19 janvier 2017

Le développement des compétences numériques des citoyens: quelle prise en compte au plan national et international ?


La publication du nouveau volet de l'enquête NET tendances (1) en décembre 2016 par le CEFRIO  est  l'occasion  de faire le point sur l'évaluation du niveau des compétences numériques des citoyens ainsi que les mesures mises en oeuvre en vue du développement de ces compétences au niveau de la France et de l'Europe.

Dans un contexte d'innovations technologiques affectant toutes les activités humaines (éducation, santé..),  le quotidien des citoyens est modifié. Il devient nécessaire que les citoyens se dotent des compétences qui leur permettront d'utiliser les nouvelles technologies.

Une culture générale numérique est utile dans l'exercice de la citoyenneté mais également  dans la plupart des métiers.

Dans ce contexte, l'évaluation des compétences des citoyens en lien avec les innovations technologiques constitue un enjeu majeur qui nécessite la création de dispositifs adaptés.

L' évaluation des compétences numériques des adultes au Québec

Le CEFRIO est un organisme de recherche innovant mandaté par le gouvernement québécois, en charge du développement numérique au Québec.
L'enquête du NET tendances du CEFRIO porte sur un panel de 1000 adultes de plus de 18 ans.

Elle repose sur une auto-évaluation du niveau de compétences sur une échelle de 3 niveaux par rapport à un cadre de référence constitué de 5 grands domaines de compétences:
  • le niveau général des compétences
  • communication sur internet 
  • recherche sur internet
  • transactions en ligne
  • sécurité en ligne.
Actuellement, près d’un Québécois sur deux (45 %) considère avoir un niveau de compétences numériques élevé.

Les résultats de l'enquête précisent les facteurs de vulnérabilité à l'origine de la fracture numérique:
  •  La scolarité : le niveau de compétences est fortement lié au niveau de la scolarité ; plus le niveau de scolarité est élevé, plus les personnes interviewées exprimant un sentiment d’aisance sur le plan numérique augmente.
  •  L'âge : à partir de 55 ans, le niveau de compétences exprimé baisse.
  •  La Région : les Québécois habitant en région disent se sentir moins à l’aise avec le numérique, comparativement aux résidents de la région de Montréal.  
  • Une disparité homme-femme : les femmes sont  plus nombreuses à se sentir moins habiles pour protéger leurs renseignements personnels des virus  sur Internet ainsi que leur ordinateur.

La mesure des compétences numériques au plan international 

En 2013, l'OCDE a publié les résultats de sa première enquête internationale sur les compétences requises pour évoluer dans les sociétés d'aujourd'hui: le Programme pour l'évaluation internationale des compétences des adultes (PEICA).
Les compétences évaluées sont les compétences en littératie, en numératie
auprès des adultes de 16 à 65 ans dans 24 pays. 

Le projet de cadre de référence des compétences numériques en France

Le Plan numérique pour l'éducation lancé en mai 2015 renforce la place du numérique au sein du système éducatif.Il vise le développement de moyens d'apprentissage innovants et la responsabilisation des jeunes dans l'usage des services, ressources et outils numériques.
Dans ce contexte, nouveau projet de cadre de référence  (2) élaboré en 2016  organise en 5 domaines 16 compétences numériques développées de l'école élémentaire à l'université et évaluées selon 8 niveaux de maîtrise des compétences.

Ce cadre de référence permettra de délivrer une attestation de niveau de maîtrise pour la scolarité obligatoire.

Le référentiel national est la déclinaison du référentiel européen DIGCOM pour la France. 

Enfin, la mise en place d'une plateforme d'évaluation et de certification en ligne des compétences numériques est prévue à la rentrée 2017.

Le dispositif d'évaluation sera accessible aux élèves, étudiants et aux professionnels dans le cadre de la formation continue des adultes.

Sources:
CEFRIO compétences numériques des adultes Québécois (2016)   http://www.cefrio.qc.ca/media/uploader/Fascicule2016-Comptencesnumriquesdesadultesqubcois-final-5.pdf (consulté le 18/01/2017)

Ministère de l'Education nationale de l'enseignement Supérieur et de la Recherche -cadre de référence des compétences numériques pour l'école et le collège http://eduscol.education.fr/ (consulté le 18/01/2017)

La RATP ouvre son portail Open Data

Bonne nouvelle pour les usagers des transports en communs : depuis mardi 3 janvier, la RATP ouvre ses données en temps réels concernant le trafic francilien (métro, bus et tramways).

Cette décision fait suite à la loi Macron, qui demandait aux entreprises publiques l'ouverture de leurs données à la fin 2016, mais aussi en réponse aux demandes des sociétés proposant des services de planification de trajets grâce à une application mobile (Google Maps, Moovit, Citymapper).

Un service Open Data existait déjà depuis 2012 mais restait insuffisant : la RATP y donnait la liste des stations et correspondances, des arrêts de bus, et de qualité de l’air, informations que l'on pouvait trouver facilement ailleurs. Elle permettait aussi "la réutilisation digitale des éléments relevant de la propriété intellectuelle, tels que les plans de réseau, les indices de réseaux et de lignes".

L'ouverture de ce portail est donc une double bonne nouvelle:
- pour les usagers des réseaux franciliens: jusqu'à présent, les incidents et retards n’étaient pas renseignés. Désormais, les applications pourront annoncer un temps de trajet plus proche de la réalité (et non plus celui calculé d’après l’heure de passage théorique), en donnant accès en temps réel aux informations (horaires de tous les arrêts du réseau francilien, trajet des lignes, prochains passages à un arrêt précis).
- pour les start-up spécialisées, car jusqu'à présent, seule l'application maRATP bénéficiait de ces données. D'ailleurs, Citymapper, considérant que la RATP exerçait un monopole sur les informations concernant les usagers en temps réels, avait lancé une pétition contre celle-ci lui reprochant le blocage des données. Cette pétition avait recueilli plus de 18.000 signatures.

Les données sont consultables sur un portail open data : https://data.ratp.fr. Après inscription, les internautes et entreprises qui souhaitent exploiter ces données recevront un accès à l'interface de programmation (API).

Pour fournir ce service, un million d'euros a été investi (pour doubler les serveurs informatiques et mettre à disposition du personnel pour la maintenance de l'outil). Ce dernier pourra supporter 30 millions de requêtes par mois maximum. Une application pourra donc interroger le portail environ toutes les cinq minutes. Selon Dominique de Ternay, directeur marketing de la régie publique, "cela nous semble tout à fait suffisant pour des développeurs ou des étudiants pour créer de nouveaux services".

Le temps dira si la capacité de consultation proposée sera suffisante pour des services plus lourds comme ceux de Citymapper, Moovit, Plans ou Google Maps.  A terme, les réutilisateurs de données devront souscrire à une offre payante basée sur des forfaits selon le volume de data supplémentaires demandé. Le portail Open Data sera donc payant pour les entreprises.

D'autres sociétés, comme Transit, ont essayé de contourner les régies de transports publiques dans d'autres villes en faisant confiance aux usagers et en partant du principe que les utilisateurs sont les mieux placés pour renseigner la position d'un véhicule auprès des autres utilisateurs de l'application. Cette solution est en test au Canada.

Les partisans de l'Open Data en France attendent maintenant l’ouverture des données annoncée par le Syndicat des transports d’Ile-de-France (STIF), concernant le trafic de la RATP, de SNCF Transilien et des lignes de bus de banlieue du réseau Optile. De son côté, la RATP espère enrichir les jeux de statistiques proposés sur son portail.

Sources :

Philippe JACQUE - La RATP ouvre enfin ses données en temps réels [en ligne]. Le Monde. 05 janvier 2017 [consulté le 19 janvier 2017]
<http://www.lemonde.fr/economie/article/2017/01/05/la-ratp-ouvre-enfin-ses-donnees-temps-reel_5057926_3234.html>

JOST Clémence - Les données en temps réels de la RATP sont enfin ouvertes  [en ligne]. Archimag.  05 janvier 2017 [consulté le 19 janvier 2017]

RAYNAL Juliette - La RATP libère ses données en temps réels [en ligne]. L'usine Digitale. 06 janvier 2017 [consulté le 19 janvier 2017]

Site institutionnel de la RATP - La RATP et l'Open Data  [en ligne]. RATP [consulté le 19 janvier 2017]

lundi 16 janvier 2017

Gare au design de l’addiction



Sommes-nous en mesure de lutter contre des charmeurs, des envoûteurs ? Des designers qui s’attellent à nous faire perdre notre maîtrise de nous-même...
Certains designers de la Sillicon Valley, notamment Tristan HARRIS, s'insurgent et se regroupent en label pour un travail plus responsable, une sorte de « serment d’Hippocrate pour designers », et souhaitent que les outils ne soient plus des multitudes de distractions, mais qu'ils nous permettent de de gagner du temps et de nous recentrer sur ce qui est important.

Pour HARRIS, beaucoup de gens seraient capables de payer pour une version de Facebook qui les respecterait, mais la tendance actuelle est le profit rapide et la manipulation toujours plus sophistiquée.

La "captologie", étude des formes d’influences numériques, naît dans le Laboratoire des technologies persuasives de Stanford de BJ FOGG, bien avant les médias sociaux.
Pour lui, ce n'est pas en tentant de persuader quelqu'un d'exécuter une tâche que l'on y parvient le plus aisément mais c'est en la rendant plus facile. Mais FROGG  l'a toujours avancé comme une étude et non comme une méthode pour asservir.
Sa théorie a été reprise par Nir EYAL, dans un ouvrage guide pour qui s'intéresserait à ces techniques de persuasion et souhaiterait en faire un business. Pour EYAL il s'agirait de mieux comprendre pour mieux faire son métier de designer, se sachant lucide sur les limites de ces écrits et sur la capacité des gens de faire des choix libres de toutes contraintes.

Le discours ambiant de plus en plus dans la pleine conscience ou la méditation, est très discordant avec ce qu'il se passe sur le web.
Il en va de la responsabilité individuelle, mais aussi collective.
La sphère du privé et du professionnel est devenue très floue avec les outils technologiques, nous pouvons difficilement décider de nous déconnecter pour éviter les incitations diverses. Et bien souvent la captologie est plus complexe qu'il n'y parait, il est plus facile d'accepter de se connecter que l'inverse.


Sources :  
GUILLAUD,Hubert. Comment faire attention au design de l’addiction ?. Le Monde. 19 novembre 2016 [consulté le 16 janvier 2017]

La responsabilité face aux technologies numériques, addict à l’électricité. http://www.brunodevauchelle.com/blog/. 20 novembre 2016. [consulté le 16 janvier 2017]

EYAL, Nir. Hooked: How to Build Habit-Forming Products. Ryan Hoover

Le rachat de Trello par Atlassian



Atlassian, éditeur de logiciels australien, a racheté la start-up Trello, spécialisée dans la gestion de projet.



L'entreprise Atlassian, fondée en 2002 à Sidney par Jay Simons, vend des outils collaboratifs en ligne, avec pour cible principale les équipes de développeurs. Présente dans 160 pays, elle compte 54 000 clients, dont 85 entreprises parmi les Fortune 100. Elle a engrangé plus de quatre milliards de dollars de revenus depuis 2014 et a été cotée au Nasdaq, en décembre 2015, pour 531,3 millions de dollars. 
Ses principaux logiciels sont les suivants: 
  1. - Jira, pour la gestion de projets et de bugs,
  2. - Confluence, pour la documentation collaborative,
  3. - Bitbucket, pour le partage de code, 
  4. - et enfin HipChat, pour la communication instantanée. 
Jira, aussi déclinable en version Service Desk pour les équipes de helpdesk informatique, de support client, de ressources humaines, de service juridique, etc., a une flexibilité telle qu'il peut se plier à tous les usages. Par exemple, la ville d'Helsinki s'en sert pour répertorier les interventions de plombiers sur la voirie, tandis que Sotheby's l'utilise pour coordonner les mouvements logistiques des œuvres d'art. 
Atlassian propose deux versions de ses logiciels: une sur le cloud, solution choisie par environ 800 entreprises parmi lesquelles Twitter et Dropbox, et l'autre sur serveur, utilisée notamment par BMW, la NASA, eBay, etc.
Atlassian, qui a rejoint l'Open API Initiative, offre également ses licences gratuitement aux projets libres.
    
La start-up Trello, qui possède plus de 19 millions d'utilisateurs, est le 18ème rachat d'Atlassian, qui a déboursé 425 millions de dollars pour en être propriétaire; la transaction devrait être effective dès la fin mars 2017. 
Trello, dont la simplicité et l'ergonomie en font un outil de gestion de projet "très attractif auprès d'une clientèle traditionnellement peu attirée par ce type d'outils", est, selon le communiqué de presse d'Atlassian, particulièrement populaire auprès des milieux de la finance, des ressources humaines, du droit ou du marketing. Son acquisition devrait permettre à Atlassian d'"asseoir sa position d'éditeur de premier ordre pour les solutions de gestion de projet" et de "continuer à étendre sa clientèle au-delà du milieu du développement informatique". 


Sources

L'Usine Digitale, "Oubliez Slack ou GitHub, l'australien Atlassian est le vrai champion du travail collaboratif" [en ligne],  mise en ligne le 26 mai 2016 [consultation le 16 janvier 2017].
L'Usine Digitale, "Atlassian rachète Trello pour 425 millions de dollars" [en ligne], mise en ligne le 10 janvier 2017 [consultation le 16 janvier 2017].

La dématérialisation en pratique

Dématérialiser pour une entreprise c’est avant tout remplacer ses supports d'information papier par des fichiers informatiques ou des documents électroniques. Ce mécanisme de basculement rencontre tant des avantages que des inconvénients.


Dans la pratique,  opérer une dématérialisation de ses processus prend différentes formes, chacune étant adaptée à l'objectif fixé par la démarche.
L'un des premiers avantages de la dématérialisation reste logistique, puisque cela permet un gain de place et d’espace, notamment pour les PME soucieuses d'optimiser leurs locaux.
Par ailleurs, le fait pour une entreprise de “ [....] dématérialiser ses factures, ses contrats ou tout autre document important d’échanges de données, envoyé habituellement par la poste, peut aider à accélérer les processus commerciaux et à diminuer les coûts, ne serait-ce qu’avec la suppression de l’affranchissement du courrier.”
De prime abord, il faut absolument numériser les documents, ce qui peut sembler une pratique redondante mais nécessite une expertise. Car tous les documents n'ont pas le même format, la même épaisseur, ni  la même qualité de papier ni d'écriture.
Ensuite, s’impose le traitement des informations, car les documents doivent rester accessibles, d'où l’utilisation ou le développement de logiciels adaptés qui allient efficacité et facilité d’usage.
Il faut nécessairement veiller à respecter une charte déterminée par des normes pour conserver la valeur juridique de chaque élément numérisé.
Et enfin, il est impératif d'assurer le stockage des documents.
Même dématérialisée, la documentation a un poids, dérisoire certes  par rapport au papier, mais qui doit trouver un espace.
La dématérialisation impose de trouver des serveurs pour recevoir les numérisations, les classer selon des références aisément compréhensibles par l'entreprise.


La sécurité devra notamment constituer un enjeu important au cœur des démarches de stockage, et les personnes qui s’occupent de ces processus au sein des entreprises doivent y être sensibilisées.
Toutefois, le passage au support numérique implique des coûts de mise en oeuvre et un temps d’adaptation.
C’est un réel investissement qui se fera sans doute par la formation du personnel dédié ou par de la sous traitance en engageant des experts.
Notons aussi que la dématérialisation présente parfois des inconvénients pour certaines entreprises, notamment en termes de sécurité des données.
Cet accès aux données à tout moment et partout, présente le risque qu'elles soient lues par n'importe qui.
La sécurité des données est un problème qui existait déjà avec le support physique, il fallait s'assurer que les personnes non autorisées ne puissent pas accéder aux données pour les lire ou pour se les approprier illicitement. Pour cela, on pouvait les mettre dans une pièce ou un meuble verrouillé dont seules les personnes autorisées avaient la clé.
Cependant, ce n'est pas suffisant pour les données dématérialisées : il faut aussi les protéger contre les attaques en ligne. Ces nouvelles vulnérabilités exigent des nouvelles mesures de protection, aussi bien à distance qu'à proximité.
La protection à distance la plus basique est la protection par authentification.
Pour les services en ligne, l'utilisateur doit entrer un mot de passe pour que le serveur lui autorise l'accès aux données. Cela garantit leur confidentialité, à condition que le mot de passe soit suffisamment complexe et que les employés soient vigilants.
Le risque de perte des documents numérisés est également présent, par exemple à cause d’une attaque malveillante. Il faut donc veiller à la sécurité du réseau informatique de l’entreprise.
Mais aussi, la question du stockage est également à relever, puisque les besoins augmentent à mesure que la masse de données augmente.
Le bilan sur la pérennité des données reste mitigé, la durée de vie des données stockées est estimée généralement à 10 ans.

Archivé dans de bonnes conditions, le papier reste  un support stable car on peut toujours lire son contenu ; mais ce n’est pas si simple pour le numérique, car les supports ont une durée de vie limitée et les données sont encodées selon un standard qui risque de devenir obsolète avec le temps, les rendant illisibles.
Il est donc  nécessaire de renouveler régulièrement les supports de stockage des Datacenter, ce qui peut coûter cher à l’entreprise. Mais le problème le plus important est qu’en cas de dysfonctionnement d’un serveur, il peut y avoir perte de données.
On peut pallier ce manque de fiabilité en stockant les données en parallèle à deux endroits distincts. Ainsi, si un Datacenter a un problème (panne d’un disque dur ou même incident naturel), l’entreprise possède une sauvegarde de ses archives sur l’autre ; cette recopie de données est difficilement réalisable avec des documents papier, principalement pour des questions de temps.
Cependant, les formats d’encodage changent, et les logiciels permettant de lire ces données peuvent disparaître. Cela est principalement dû au fait que le format n’est plus adapté aux technologies actuelles et est abandonné, ou qu’il n’était pas très utilisé et le logiciel permettant de le lire a été retiré du marché. Quel est l’intérêt de garantir l’intégrité des données si elles deviennent illisibles au bout de quelques années ?
Les entreprises qui se tournent vers la dématérialisation doivent donc s’assurer que leurs données sont mises à jour régulièrement pour suivre l’évolution des encodages.


Dans tous les cas, le passage vers la Gestion Electronique des Documents ou le Système d’Archivage Électronique doit faire l’objet d’une réflexion stratégique préalable visant à trouver le meilleur outil pour l’entreprise et doit être accompagné pour une transition efficace.



SOURCES

(1 ) Définition et enjeux de la dématérialisation consulté le 28/12/2016 sur le site internet de DPii Telecom & Services, Entreprise française, regroupe une équipe de développeurs http://www.dpii-telecom.com/fr/definition-dematerialisation/


(2) La dématérialisation, une application vertueuse Mis à jour le 14/02/2014 à 14:25 consulté le 22 Décembre 2016 http://www.lefigaro.fr/vie-bureau/2012/06/14/09008-20120614ARTWWW00571-la-dematerialisation-une-application-vertueuse.php


(3) Les 7 tendances de la dématérialisation du 07/09/2016  de Eric Le Ven consulté le 27 décembre 2016 http://www.archimag.com/demat-cloud/2016/09/07/7-tendances-dematerialisation

(4) Site internet consulté le 22/12/2016
http://www.dynamique-mag.com/article/avantages-dematerialisation-processus.6300

vendredi 13 janvier 2017

Google Translate : l’apprentissage autonome dépasserait les attentes des chercheurs grâce à l'Intelligence Artificielle


Google Translate


Le système neuronal de traduction de Google marque une étape importante dans l'évolution de la traduction cybernétique. Grâce au deep learning, l'Intelligence Artificielle développée par Google peut traduire une troisième langue seule avec un degré d'exactitude frôlant les 85% de réussite si elle possède les notions de traduction de cette langue dans deux autres langues communes. Cela limite au maximum le recours à l'aide humaine dont elle s'émancipe, et ouvre la porte à un auto-apprentissage de l'Intelligence Artificielle pour lui permettre de résoudre au mieux les problèmes quelle rencontre.

Procédé baptisé « zero-shot » par Google (Crédit images : archive NME)

Google Translate supporte des millions de requêtes pour quelques 140 milliards de mots traduits chaque jour pour les 103 langues inscrites dans son patrimoine. Le souhait est de s'approcher de la qualité d’une traduction réalisée par un humain. Fin septembre, les chercheurs de Google ont mis en fonction de façon expérimentale une nouvelle version du service de traduction Google Translate. Celle-ci recours aux réseaux neuronaux, technologie d’intelligence artificielle, pour proposer des traductions de meilleure qualité et plus véloces grâce au système Google Neural Machine Translate (GNMT) qui a été adapté pour être exploitable aisément avec de nouveaux duos de traductions. L'expérience est décrite dans une publication scientifique bien documentée parue le 14 novembre 2016 dans la revue arXiv.


Les chercheurs ont constatés avec surprise que l'I.A. grâce au système neuronal, a été capable d'effectuer une traduction d’une langue à une autre de façon autonome, "sans que des corrélations sémantiques et grammaticales entre ces deux langues ne lui aient été apprises", en utilisant une troisième langue, de base commune aux deux autres. Ce qu'ils ont intitulés "zero-shot". Le système neuronal a été capable de créer seul des ensembles de jonctions entre deux langues grâce aux passerelles qu'il a mis en place dans son apprentissage, ce qui constitue un langage propre dénommé "interlingua".


Passé l'effet de surprise, des questionnements se font jours parmi les chercheurs sur les mécanismes complexes mis en oeuvre dans l'apprentissage profond du système neuronal afin de déterminer précisément comment cela s’est produit et quels sont les effets de bord possibles.


Néanmoins, le fait de passer d'une traduction de type "statistique" se basant sur le big data, et son degré d'approximation à une traduction de type "neuronale" plus pertinente marque un degré d'évolution sans précédent pour tous les éditeurs de solutions de traduction.

Références sitographiques :


Renald Boulestin - Google Translate : l’intelligence artificielle apprend (trop) vite [en ligne]. itespresso. 28 novembre 2016 [consulté le 12 janvier 2017]



Sylvain Rolland - Quand l’intelligence artificielle révolutionne la traduction automatique [en ligne]. latribune. 22 décembre 2016 [consulté le 12 janvier 2017]


Paolo Garoscio - L’IA de Google peut traduire deux langues sans qu’on lui ait appris [en ligne]. clubic. 03 décembre 2016 [consulté le 12 janvier 2017]

<http://www.clubic.com/technologies-d-avenir/actualite-821360-ia-google-traduire-langues-ait-appris.html>

Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, Jeffrey Dean - Google's Multilingual Neural Machine Translation System : Enabling Zero-Shot Translation. arXiv:1611.04558 (open access) [en ligne]. arxiv. 14 novembre 2016 [consulté le 12 janvier 2017]


jeudi 12 janvier 2017

"Closed Access" à Elsevier en Allemagne, à Taïwan et au Pérou

Crédits photographiques : Mike Licht, NotionsCapital.com (Flickr)

En ce début d'année 2017, des milliers de chercheurs allemands, taïwanais et péruviens se retrouvent privés d'accès aux revues électroniques d'Elsevier.

Le même point de départ

Dans les trois pays, les tarifs exorbitants pratiqués par le géant néerlandais de l'édition ont déclenché une vague de résiliations d'abonnements.
En Allemagne, les universités et instituts de recherche membres du projet DEAL n'ont pas réussi à obtenir un accord de licence à l'échelle nationale pour le 1er janvier 2017. Dénonçant les propositions trop coûteuses d'Elsevier, ils ont annulé les abonnements en décembre dernier. Les établissements qui avaient négocié des contrats particuliers pluriannuels avant les négociations ne seront pas affectés. Mais ceux dont les licences sont arrivées à expiration fin 2016 vont perdre tout ou partie de leurs accès - cas par exemple de l'université de Göttingen.
C'est aussi à cause de prix jugés excessifs que le consortium taïwanais CONCERT, qui regroupe plus de 140 organismes de recherche, a appelé au boycott d'Elsevier le 7 décembre dernier.
Sept jours plus tard au Pérou, le Conseil national pour la science, la technologie et l'innovation technologique (CONCYTEC) renonçait au renouvellement de la licence nationale auprès d'Elsevier, la subvention gouvernementale n'ayant pas été reconduite.

Des rapports de force différents

Outre-Rhin, les pourparlers ont repris, mais la situation est tendue : un certain nombre d'établissements ont sciemment choisi de se priver des ressources d'Elsevier plutôt que de renégocier une licence individuelle. Le conflit est fortement idéologique : au delà de la question financière, il s'agit de pousser le plus loin possible la logique de l'open access. Leurs homologues hollandais ayant obtenu l'accès ouvert automatique à 20% (en 2017), puis 30% (en 2018) des articles publiés par les auteurs néerlandais dans 276 revues d'Elsevier, les Allemands du projet DEAL réclament la consultation gratuite de l'intégralité des publications signées par les chercheurs des établissements associés. Et ils comptent bien se montrer aussi intransigeants dans leurs prochaines discussions avec Springer Nature et Wiley...
A Taïwan, Elsevier a tenté de négocier individuellement avec les universités. Cela n'a eu pour effet que de convaincre d'autres établissements, comme l'Université nationale de science et technologie de Taïwan (NTUST) ou la prestigieuse Academia Sinica, de rejoindre la fronde. La tension semble retomber un peu : il y a quelques jours, Elsevier a prolongé jusqu'à la fin du mois de janvier les abonnements des universités taïwanaises qui les avaient annulés et les discussions ont repris avec CONCERT. 
Récemment encore, le Pérou bénéficiait d'un accès gratuit ou à bas coût aux principales revues académiques dans le cadre du programme HINARI de l'Organisation Mondiale de la Santé. En 2012, la croissance économique a privé le pays de cet avantage, réduisant certains chercheurs à "mendier" sur les réseaux sociaux ou auprès de leurs collègues étrangers. L'expiration de la licence nationale négociée en 2014 va contraindre les scientifiques péruviens à renouer avec le système D. 

Des expédients comparables

Pour se procurer les articles d'Elsevier en période de boycott ou de disette budgétaire, les chercheurs ont à leur disposition toutes sortes de moyens légaux : passer par des archives ouvertes, fréquenter les bibliothèques encore abonnées, s'adresser directement aux auteurs...
En Allemagne comme à Taïwan, le prêt entre bibliothèques fonctionne à plein régime. A l'instar d'autres établissements de la région, la NTUST a adhéré à un service international de "PEB express" organisé par les bibliothèques universitaires du Colorado, afin de limiter les effets néfastes du boycott.
Et puis il y a Sci-Hub, qui permet d'accéder gratuitement - et illégalement - aux articles scientifiques en contournant les paywalls classiques des éditeurs commerciaux. "Je dirais que 95% environ des gens de ma génération y ont recours", confie un biologiste péruvien de 30 ans. Même son de cloche de l'autre côté de l'Atlantique : "les jeunes générations le font tout le temps", explique la chargée des relations publiques de l'université de Göttingen. 


Sources

JOST, Clémence. 60 bibliothèques de recherche allemandes s'allient et boycottent Elsevier. Archimag.com : Bibliothèque Edition. 19 décembre 2016 [consulté le 12 janvier 2017]

MATTHEWS, David. Deal impasse severs Elsevier access for some German universities : as talks with the publisher stall, researchers in the country weigh whether they can cope without a deal. Times higher education. 6 janvier 2017 [consulté le 12 janvier 2017]

SCHIERMEIER, Quirin & RODRIGUEZ MEGA, Emiliano. Scientists in Germany, Peru and Taiwan to lose access to Elsevier journals : libraries pursue alternative delivery routes after licence negotiations break down. Richard Van Noorden, additional reporting. Nature, 23 Dec. 2016, 541:13. Corrected 3 Jan. 2017. Updated 9 Jan. 2017 [consulté le 12 janvier 2017]