lundi 30 janvier 2017

L'art du "Storytelling" analysé sous toutes ses coutures par un outil d'analyse performant : le Tropes.

D'après le site les Echos.fr, l'écrivain et chercheur Christian Salmon, pointe l'art du "Storytelling"en nous disant que c'est : "Une machine à fabriquer des histoires et à formater les esprits." Pourtant l'art du "Storytelling" n'est pas né d'hier. C'est un art qui consiste à raconter des histoires, à véhiculer des messages afin d'attirer l'attention et de créer de l'affectif. Nombre d'hommes politiques ont eu recours à ce moyen. C'est sur ce point que les réseaux sociaux vont être interpellés. Par quel moyen numérique l'art du "Storytelling" va t'il être analysé ? Comment cela se traduit-il ?

Le projet "Ideo2017", financé par la fondation UCP, lance un outil d'analyse qui permet d'étudier les nombreux tweets politiques lors des campagnes politiques. Ce dernier permettrait ainsi de traiter l'ensemble des messages produits par l'actualité politique. Il s'appuie sur les nombreuses fonctionnalités du logiciel, le "Tropes" : logiciel d'analyse sémantique des textes. Ce dernier effectue une fouille de texte approfondie sous Microsoft Windows. Il est depuis longtemps sur le marché, depuis 1994, évoluant sans arrêt. Il est même gratuit avec une licence spécialisée dérivée d'Apache. Il se décline sous trois solutions distinctes comme "Zoom", "Tropes index" et "Tropes" et il est normalement dédié à un public d'expert. Mais il s'ouvre de plus en plus au monde s'adaptant à tout public. Il offre notamment de nombreuses fonctions comme :
- le diagnostic de style de texte,
- la catégorisation des mots-outils,
- l'extraction terminologique
- l'aide aux résumés
- et bien d'autres ....

Il balaie de nombreux domaines comme :
- la Psychologie clinique, sociale et cognitive,
- la Science de l’Éducation,
- la Science de l'Information,
- l'Intelligence économique,
- la Science Politique,
- le Marketing et
- la Linguistique.


De ce fait, le logiciel "Tropes" est un bon moyen pour analyser les discours politiques et notamment ceux d'Emmanuel Macron. Ces derniers ont retenu l'attention et ils vont être décortiqués sous tous les angles au travers de plus de 500 tweets étudiés.

Sources :

Tropes (Logiciel). [En ligne]. Wikipédia. 2 janvier 2017. [Consulté le 30/01/2017].

Le discours d'Emmanuel Macron, construction d'un storytelling. [En ligne]. CET. 26 janvier 2017. [Consulté le 30/01/2017]. (Publication originale)

La 11ème journée de la protection des données a été célébrée le 28 janvier 2017. Focus sur la Convention n° 108 du Conseil de l’Europe, qui en est à l’origine

En 2006, le Conseil de l’Europe a lancé la journée de la protection des données, célébrée chaque année le 28 janvier. Le choix est symbolique car le 28 janvier est la date à laquelle en 1981 la "Convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel" (No. 108) a été ouverte à la signature des Etats.

Cette Convention, élaborée au sein du Conseil de l'Europe par un comité d'experts gouvernementaux sous l'autorité du Comité européen de coopération juridique (CDCJ), est devenue depuis son adoption en 1985 une référence dans le monde entier et la journée de la protection des données est aujourd'hui célébrée à une vaste échelle. A cette date des campagnes d'information sur les droits à la protection des données à caractère personnel et au respect de la vie privée sont organisées un peu partout dans le monde. En France, la CNIL a rappelé cette année l’importance des mots de passe pour les comptes en ligne et proposé un kit d’outils pour mieux les concevoir et les gérer [1]. Du côté des Institutions, nous signalons l'adoption par le Comité de la Convention du Conseil de l'Europe des "Lignes directrices sur les Big Data" [2], adressées aux responsables politiques et aux organisations traitant des données personnelles.

Le respect de la vie privée et la protection des données personnelles : des droits fondamentaux distincts

La protection des données personnelles naît, en tant que droit distinct, avec la Convention 108 [3]. Ce texte a pour objectif de garantir “[...] sur le territoire de chaque Partie, à toute personne physique, quelles que soient sa nationalité ou sa résidence, le respect de ses droits et de ses libertés fondamentales, et notamment de son droit à la vie privée, à l'égard du traitement automatisé des données à caractère personnel la concernant […]". Comme c'est très bien expliqué dans le site de l’EPDS "[…] Le droit à la protection des données à caractère personnel englobe la protection de la vie privée, mais il s'étend au-delà. La protection des données vise à garantir le respect des droits et des libertés fondamentales, et en particulier le droit de la personne concernée au respect de sa vie privée." [4]

Importance et actualité de la Convention 108

La Convention est le premier - et le seul - traité international contraignant qui protège les personnes contre l'usage abusif du traitement automatisé des données à caractère personnel. La Convention a été ratifiée par 47 Etats. On rappelle que ce traité définit un certain nombre de principes qu’il appartient aux États de transposer dans leur droit interne, pour faire en sorte que les données soient traitées à une fin donnée et par des procédures déterminées par la loi. En l'absence de garanties offertes par le droit interne, la Convention interdit aussi le traitement des données sensibles relatives à l'origine raciale, aux opinions politiques, à la santé, à la religion, à la vie sexuelle, aux condamnations pénales, etc... Ce Traité garantit également le droit des personnes concernées de connaître les informations stockées à leur sujet et d'exiger, le cas échéant, des rectifications. La seule restriction à ce droit se produit lorsque les intérêts majeurs de l'Etat - sécurité publique, défense etc - sont en jeu. La Convention impose également des restrictions aux flux transfrontaliers de données dans les Etats où n'existe aucune protection équivalente.

Modernisation de la Convention 108

Le processus de modernisation de la Convention 108 est en cours [5], afin qu'elle puisse répondre aux nouveaux défis des nouvelles technologies de l’information et de la communication (TIC). Ce processus assure la compatibilité avec le cadre juridique de l’Union européenne et réaffirme le potentiel de la Convention à servir de norme universelle. Comme dit Marie Anne Guibbert “Le Conseil de l’Europe a servi de modèle dans la protection des données à l’échelle internationale et la modernisation de sa Convention 108 est nécessaire si l’Europe veut continuer à jouer un rôle essentiel dans ce domaine.” [6]

*  *  * 

Pour se faire une idée d’ensemble sur la législation en vigueur sur la protection des données au sein de l’Union Européenne, consulter le site de l’EDPS - European Data Protection Supervisor à la page 
https://secure.edps.europa.eu/EDPSWEB/edps/cache/offonce/EDPS/Dataprotection

Sources:

[1] CNIL. "Journée de la protection des données: les mots de passe n’auront plus de secret pour vous!" Paris, 27/01/2017 [en ligne]. Consulté  le 30 janvier 2017.
https://www.cnil.fr/fr/journee-de-la-protection-des-donnees-les-mots-de-passe-nauront-plus-de-secret-pour-vous

[2] Conseil de l'Europe. "Lignes directrices sur la protection des personnes à l’égard du traitement des données à caractère personnel à l’ère des mégadonnées". Strasbourg, 23/01/2017 [en ligne]. Consulté  le 30 janvier 2017.
https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806ebf23

[3] Conseil de l'Europe. "Convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel"Strasbourg, 28/01/1981 [en ligne]. Consulté  le 30 janvier 2017

[4] European Data Protection Supervisor. "Data Protection Legislation (background)". Brussels [en ligne]. Consulté  le 30 janvier 2017.  

[5] Conseil de l'Europe. "Modernisation de la Convention 108 (CAHDATA)" Strasbourg [en ligne]. Consulté  le 30 janvier 2017. http://www.coe.int/fr/web/data-protection/modernisation-convention108

[6] GUIBBERT, Marie Anne "La Commission LIBE en faveur de la modernisation de la Convention 108 pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel". Brussels, 25/11/2014. [en ligne]. Consulté le 30 janvier 2017 http://www.eu-logos.org/eu-logos_nea-say.php?idr=4&idnl=3345&nea=174&lang=fra&lst=0

jeudi 26 janvier 2017

Quel cadre éthique pour les algorithmes ? La CNIL ouvre le débat

Internet, santé, scolarité… à l’heure de l’intelligence artificielle et de la multiplication des données, les algorithmes s'immiscent dans notre quotidien et posent question.
La CNIL lance un premier cycle de débats publics autour de ce thème, en présence de personnalités du numérique.

Missionnée par la loi pour une République numérique du 7 octobre 2016 pour conduire une réflexion sur les enjeux éthiques et les questions de société soulevées par l'évolution des technologies numériques, la CNIL a donné le coup d’envoi ce lundi 23 janvier 2017 avec deux tables rondes sur les algorithmes : "Des algorithmes et des hommes" et "Loyauté, transparence, pluralité".
Retransmises en direct sur Youtube et  commentées sur Twitter (#algoethique), elles ont réuni plusieurs chercheurs pour débattre de ces enjeux dans les locaux de la Commission.

Entre fantasmes et méfiance

Un sondage ifop, mené pour la CNIL en janvier 2017 auprès de 1 001 personnes, révèle que les français ont une perception confuse des algorithmes.

Si 83 % des sondés disent avoir entendu parler des algorithmes, et 72% en font un enjeu de société, ils sont 52 % à admettre ne pas savoir précisément de quoi il s’agit.
Selon Isabelle Falque-Pierrotin, présidente de la CNIL, “les algorithmes sont la proie de tous les fantasmes. D’un côté, il y a la fascination technologique pour ces objets. D’un autre côté, il y a aussi une peur irraisonnée, où l'on se dit : "Les algorithmes vont me prendre mon job, me condamner à mort si je suis un malade en fin de vie ou me conduire en prison directement parce qu'il n'y aura plus de juges”. Le débat a donc pour objectif “de cerner les questions éthiques réelles”.

Pour le moment très peu contrôlés, les algorithmes provoquent de nombreuses réactions diverses et passionnées. Partant de ce constat, la Cnil, qui voit comme «une nécessité» de faire des algorithmes l'objet d'un vaste débat public pour faire progresser la connaissance et la réflexion par la société civile, a dressé une liste non exhaustive des nombreuses questions qu’ils suscitent :

  • S’agit-il d’une nouvelle révolution industrielle, ou d’un simple moyen d’améliorer la productivité ?
  • Les algorithmes sont-ils les nouveaux décideurs ?
  • Ont-ils pour effet de nous enfermer dans une bulle informationnelle, mettant en danger ouverture culturelle et pluralisme démocratique ?
  • Sont-ils au contraire un moyen d’accéder à des idées, contenus, données ou personnes inaccessibles ou invisibles jusqu’alors ?
  • Quelle transparence à l’ère des algorithmes : comment concilier transparence et propriété intellectuelle ?
  • Faut-il repenser, face aux progrès de l’intelligence artificielle, la responsabilité des acteurs publics et privés ?
  • Comment construire le libre-arbitre dans un monde « algorithmé » ?

C’est notamment à ces interrogations que les tables rondes ont tenté d’apporter les premiers éléments de réponse.

Informer pour démystifier

Les formules mathématiques sophistiquées que sont les algorithmes ne sont pas toujours évidentes à appréhender. Isabelle Falque-Pierrotin explique que “Les catégories les plus éduquées de la population française les comprennent bien, mais [que] moins on est éduqué, moins il est facile de comprendre le rôle de ces algorithmes”. Afin de “remettre tout le monde à égalité de compréhension et de choix”, la CNIL incite les institutions publiques, la société civile et les entreprises à prendre part aux débats.
D’autres manifestations “multiformes” suivront, dont la CNIL assurera la coordination et la cohérence. De nombreuses organisations se sont d'ores et déjà associées à la démarche, afin que des discussions soient menés dans tous les domaines de la vie publique. Parmi ceux ayant annoncé leur participation, figurent les ministères de l'Education nationale et de la Culture, de grandes écoles (Sciences Po Paris et Sciences Po Lille), une quinzaine d'associations et plusieurs centres de recherche.

Une synthèse de l’ensemble des échanges et des contributions sera publiée à l'automne 2017, sous la forme d’une cartographie de l’état du débat public et d’un panorama des défis et des enjeux.


Participants aux tables rondes :

Table-ronde n°1 : des algorithmes et des hommes

- Paul Duan (Bob emploi)
- Roger-François Gauthier (Professeur de politique éducative comparée à l’Université Paris V)
- Jean-Philippe Desbiolles (VP, IBM France)
- Rand Hindi (Snips)
- Antoine Garapon (IHESJ)

Table-ronde n°2 : loyauté, transparence, pluralité

- Dominique Cardon (Sciences Po, Médialab)
- Cédric Villani (Institut Henri Poincaré)
- Antoinette Rouvroy (Université de Namur)
- Bruno Patino (Arte)


Sources

Ethique et numérique : les algorithmes en débat. Communiqué de la CNIL [en ligne]. CNIL. 23 janvier 2017 [consulté le 25/01/2017]

JOST Clémence. Suivez en direct le grand débat public organisé par la Cnil sur les algorithmes ! [en ligne]. Archimag. 23 janvier 2017 [consulté le 26/01/2017]

“Les algorithmes sont partout, ils font partie de nos vie, mais ce sont des boîtes noires" pour la Cnil. Interview d’Isabelle Falque-Pierrotin. franceinfo. 23 janvier 2017 [consulté le 25/01/2017] <http://www.francetvinfo.fr/internet/securite-sur-internet/les-algorithmes-sont-partout-ils-font-partie-de-nos-vie-mais-ce-sont-des-boites-noires-pour-la-cnil_2032315.html>

CASSINI Sandrine. La CNIL lance un vaste débat public sur les algorithmes [en ligne]. Le Monde. 23 janvier 2017 [consulté le 26/01/2017]

Lire aussi

CANIVET Marie. La difficile adoption de l'IA [en ligne]. UniVersDoc. 05 décembre 2016 [consulté le 26/01/2017]

CALVEZ Mathilde. Intelligence artificielle : vers une vision positive [en ligne]. UniVersDoc. 05 décembre 2016 [consulté le 26/01/2017]

Quand identité numérique va de pair avec identité civile...

Depuis 2009, toute personne issue d'un pays où l'obtention d'un visa n'est pas requis pour entrer sur le territoire américain a l'obligation de fournir un formulaire ESTA (Electronic System for Travel Authorization). Ce formulaire ESTA a récemment connu une modification : en effet, depuis le 20 décembre 2016, les contrôles à la frontière aux Etats-Unis demandent au voyageur d'indiquer s'il est utilisateur d'un réseau social et si oui, de fournir son nom d'utilisateur. 


Pour ce faire, les voyageurs choisissent, parmi une (longue) liste déroulante, le média social qu'ils acceptent de communiquer et le nom d'utilisateur associé.


Capture d'écran du formulaire ESTA en ligne

La démarche n'est pas obligatoire et seule la partie "publique" de son profil sera visible.

Et si l'on se posait les autres questions ? 


Cette nouveauté a bien entendu soulevé les questions - malheureusement courantes - concernant le respect de la vie privée, la conservation et l'utilisation ultérieure des données à caractère privées, et la potentielle menace à la liberté d'expression. 

Ces questionnements sont tout à fait légitimes et justifiés. 

Pourtant, quand un recruteur cherche à obtenir des informations de nature privée sur un candidat en tapant dans un moteur de recherche son nom, et qu'il accède à des éléments de sa "vie numérique", peu de gens s'en émeuvent...

C'est pourquoi, au-delà des inquiétudes premières que cela soulève naturellement, ne devrions-nous pas également nous interroger sur la définition du mot "identité" ? Doit-on considérer que la frontière entre "identité civile" et "identité numérique" n'est plus d'actualité, lorsque les éléments privés sur une personne sont aussi facilement disponibles ?

--------------------------------------------------------------------------
Source : 

> Article Le Figaro, par Alicia Paulet - "Facebook, Twitter... La douane américaine invite les touristes à déclarer leurs comptes" publié le 27/12/2016 [en ligne, consulté le 26/01/2017]


> Article Libération, par Erwan Cario - "Etats-Unis : la douane veut connaître les réseaux sociaux des arrivants" publié le 27/12/2016 [en ligne, consulté le 26/01/2017]
--------------------------------------------------------------------------

lundi 23 janvier 2017

e-santé : quoi de neuf Docteur ?

Lancement de la stratégie nationale e-santé 2020, règlement européen sur la protection des données personnelles, nouvelle loi sur la modernisation de notre système de santé… L’année 2016 a été marquée par une riche actualité politique et réglementaire, une urgence compte-tenu de l’inégalité d’accès aux soins. Tour d’horizon des dernières solutions scientifiques et technologiques.

Santé 4.0 : la révolution du numérique

Le numérique ouvre aujourd'hui une nouvelle ère pour la médecine et certaines (r)évolutions en matière d’e-santé sont déjà là. En octobre 2016, l'intelligence artificielle (IA) Watson d’IBM, conçue avec des algorithmes de deep learning, a prouvé l'efficacité de son système informatif cognitif dans la précision des diagnostics médicaux avec 99% des traitements prescrits confirmés par des cancérologues (sur 1 000 cas de cancer) et surtout 30% d'options thérapeutiques supplémentaires trouvées en plus par rapport aux médecins ! 

Les robots chirurgicaux ou assistants médecins ; le mapping du cerveau ; les prothèses “intelligentes” contrôlées par la pensée ou encore l’assistant virtuel MedWhat (le “Siri” médical développé par l’université de Stanford) dessinent eux aussi les contours d’une médecine du futur qui tenait, il y a encore quelques années, de la science-fiction.

Le Tricorder de Star Trek bientôt à l’essai !

Dans la série de science-fiction Star Trek des années 60, le Dr Leonard McCoy diagnostiquait tout type de pathologies à l’aide de son Tricorder, un scanner médical multifonctions. Portable et compact, l’appareil lui fournissait instantanément les constantes vitales de ses patients et traitait les données afin d’établir un bilan de santé. 


Le Tricorder médical de Star-Trek. Crédit : Techdigest.tv

Aujourd’hui, les deux équipes finalistes de la compétition Qualcomm Tricorder XPrize (lancée depuis 2012) finalisent leurs versions du Tricorder. Chaque appareil devrait pouvoir surveiller en permanence 5 paramètres de santé essentiels et diagnostiquer au moins 13 états de santé (anémie, diabète, fibrillation auriculaire, pneumonie…), pour un poids total avoisinant les 2,5 kg.  L’un des enjeux principaux a été de concevoir un dispositif user-friendly, aussi facile à utiliser qu’un smartphone par le patient pour faciliter l’accès au diagnostic. Les deux “Tricorders” seront testés prochainement au Altman Clinical Translational Research Institute (Université de Californie-San Diego). 

Innovation Santé : rendez-vous le 27 janvier 2017 à Paris ! 

Enfin, pour découvrir les derniers progrès scientifiques et technologiques dans ce domaine, rendez-vous aux Journées nationales de l'innovation en santé, qui se dérouleront du vendredi 27 au dimanche 29 janvier à la Cité des sciences et de l'industrie, à Paris, sous la direction du ministère des Affaires sociales et de la Santé et Universcience. 

Outre les démonstrations, ateliers, conférences et expositions prévues, une douzaine de tables rondes, enregistrées en direct et diffusées sur CNRS la radio, aborderont des enjeux clés comme les impacts de l’innovation sur la santé, l’apport des nouvelles technologies, l’éthique ou encore les nouvelles pratiques médicales. Le CNRS présentera également plusieurs de ses innovations en matière de prévention, de diagnostic ou de traitements, issues de ses laboratoires et start-up.

Sources : 

Techniques de l’Ingénieur, “e-santé : à quoi ressemblera le docteur 4.0 ?”, Livre Blanc [publication en ligne], 19 janvier 2017 [consulté le 23 janvier 2017] <http://www.techniques-ingenieur.fr/actualite/livre-blanc/e-sante-a-quoi-ressemblera-le-docteur-4-0-39585/>

mHealthIntelligence, “An mHealth Quest - The Workable Tricorder - Nears Its Completion” [publication en ligne], 5 janvier 2017 [consulté le 23 janvier 2017] <http://mhealthintelligence.com/news/an-mhealth-quest-the-workable-tricorder-nears-its-completion

“Le CNRS partenaire des Journées nationales de l'innovation en santé”, CNRS [publication en ligne] 18 janvier 2017 [consulté le 23 janvier 2017] <http://www2.cnrs.fr/presse/communique/4861.html

“Journées Innovation en Santé”, CNRS,  [publication en ligne] Janvier 2017 [consulté le 23 janvier 2017] <http://www.cnrs.fr/fr/une/actus/2017/innovationsante/innovation-sante.html>

Vers une normalisation de l’e-reputation


Aujourd’hui donner son avis de consommateur est rentré dans les us et coutumes des usagers du net.

La réputation des organisations et des entreprises devient ainsi directement impactée par cette digitalisation des comportements. D’une certaine façon les clients décident de ce que sont les entreprises et le partagent à toute heure et dans toutes les langues.
Identifier et proposer des bonnes pratiques d'avis de consommation est donc devenu un challenge pour les entreprises et les organisations.

Autre problématique identifiée : la rédaction, par les entreprises, de faux avis en ligne, le détournement de certains commentaires en leur faveur voire même la falsification des opinions clients créée une concurrence déloyale entres les organisations. Des pratiques qu’il convient de réguler. [1]

Ainsi donc, dans le but de fiabiliser les méthodes de collecte de données pour qu’elles soient représentatives des opinions réelles, l’AFNOR a décidé de lancer une nouvelle norme internationale ISO 20588 englobant toutes les techniques pour gérer l’e-reputation.[3]

"Le besoin de capitaliser sur les pratiques des professionnels d’e­réputation est partagé au niveau international." (Pixabay/geralt)

Ce projet, à l’initiative de la France, s’inscrit dans la continuité de la norme NF Z74-501 créée en 2013 et lui donne une posture internationale. En effet le comité ISO (réglementation régissant l’emploi des matériaux, produits et services) rassemble, met en commun le savoir-faire des community managers, professionnels de la communication, du marketing et de la relation client des entreprises, associations et administrations de 28 pays (9 participants actifs et 18 observateurs dont les Etats Unis). [2] 

Ce travail commun, sous forme de norme volontaire, permettra de fiabiliser les méthodes de collecte et d’affichage des avis consommateurs, s’accordera sur un glossaire commun sur l’e-reputation et étudiera le rôle des médias sociaux et autres outils dans les débats de la normalisation. Tous les acteurs pourront ainsi partager les bonnes pratiques et les diffuser auprès de leur prospect et clients.

"Interroger aujourd’hui l’e-réputation, c’est interroger les pratiques de demain." Camille Alloing "(E)réputation : médiation, calcul, émotion" [4] 


Sources :

[1] Bruno TEXIER - "eréputation : il faut une norme internationale !" [en ligne]. Archimag. 10 Avril 2015 [consulté le 23 janvier 2017] <http://www.archimag.com/veille-documentation/2015/04/10/e-reputation-norme-internationale>

[2] Anne-Laure Février "E-réputation : une norme internationale se prépare" [en ligne] Relationclientmag. 16 Février 2015 [consulté le 23 janvier 2017] <http://www.relationclientmag.fr/Thematique/la-vie-de-la-profession-1017/Breves/reputation-norme-internationale-prepare-250757.htm#cWlqkG4SbGVc5gZ0.97>

[3] "L’e-réputation régie par une nouvelle norme ISO"[en ligne] Wellcom Centre. 24 Février 2015 [consulté le 23 janvier 2017] <http://www.wellcomcentre.com/blog/e-reputation-norme-iso/>

[4] Margherita Nasi "Analyser l’e-réputation pour mieux maîtriser l’économie numérique" [en ligne] Le Monde. 22 Août 2016 [consulté le 23 janvier 2017] <http://www.lemonde.fr/emploi/article/2016/08/22/analyser-l-e-reputation-pour-mieux-maitriser-l-economie-numerique_4986316_1698637.html>

jeudi 19 janvier 2017

Le développement des compétences numériques des citoyens: quelle prise en compte au plan national et international ?


La publication du nouveau volet de l'enquête NET tendances (1) en décembre 2016 par le CEFRIO  est  l'occasion  de faire le point sur l'évaluation du niveau des compétences numériques des citoyens ainsi que les mesures mises en oeuvre en vue du développement de ces compétences au niveau de la France et de l'Europe.

Dans un contexte d'innovations technologiques affectant toutes les activités humaines (éducation, santé..),  le quotidien des citoyens est modifié. Il devient nécessaire que les citoyens se dotent des compétences qui leur permettront d'utiliser les nouvelles technologies.

Une culture générale numérique est utile dans l'exercice de la citoyenneté mais également  dans la plupart des métiers.

Dans ce contexte, l'évaluation des compétences des citoyens en lien avec les innovations technologiques constitue un enjeu majeur qui nécessite la création de dispositifs adaptés.

L' évaluation des compétences numériques des adultes au Québec

Le CEFRIO est un organisme de recherche innovant mandaté par le gouvernement québécois, en charge du développement numérique au Québec.
L'enquête du NET tendances du CEFRIO porte sur un panel de 1000 adultes de plus de 18 ans.

Elle repose sur une auto-évaluation du niveau de compétences sur une échelle de 3 niveaux par rapport à un cadre de référence constitué de 5 grands domaines de compétences:
  • le niveau général des compétences
  • communication sur internet 
  • recherche sur internet
  • transactions en ligne
  • sécurité en ligne.
Actuellement, près d’un Québécois sur deux (45 %) considère avoir un niveau de compétences numériques élevé.

Les résultats de l'enquête précisent les facteurs de vulnérabilité à l'origine de la fracture numérique:
  •  La scolarité : le niveau de compétences est fortement lié au niveau de la scolarité ; plus le niveau de scolarité est élevé, plus les personnes interviewées exprimant un sentiment d’aisance sur le plan numérique augmente.
  •  L'âge : à partir de 55 ans, le niveau de compétences exprimé baisse.
  •  La Région : les Québécois habitant en région disent se sentir moins à l’aise avec le numérique, comparativement aux résidents de la région de Montréal.  
  • Une disparité homme-femme : les femmes sont  plus nombreuses à se sentir moins habiles pour protéger leurs renseignements personnels des virus  sur Internet ainsi que leur ordinateur.

La mesure des compétences numériques au plan international 

En 2013, l'OCDE a publié les résultats de sa première enquête internationale sur les compétences requises pour évoluer dans les sociétés d'aujourd'hui: le Programme pour l'évaluation internationale des compétences des adultes (PEICA).
Les compétences évaluées sont les compétences en littératie, en numératie
auprès des adultes de 16 à 65 ans dans 24 pays. 

Le projet de cadre de référence des compétences numériques en France

Le Plan numérique pour l'éducation lancé en mai 2015 renforce la place du numérique au sein du système éducatif.Il vise le développement de moyens d'apprentissage innovants et la responsabilisation des jeunes dans l'usage des services, ressources et outils numériques.
Dans ce contexte, nouveau projet de cadre de référence  (2) élaboré en 2016  organise en 5 domaines 16 compétences numériques développées de l'école élémentaire à l'université et évaluées selon 8 niveaux de maîtrise des compétences.

Ce cadre de référence permettra de délivrer une attestation de niveau de maîtrise pour la scolarité obligatoire.

Le référentiel national est la déclinaison du référentiel européen DIGCOM pour la France. 

Enfin, la mise en place d'une plateforme d'évaluation et de certification en ligne des compétences numériques est prévue à la rentrée 2017.

Le dispositif d'évaluation sera accessible aux élèves, étudiants et aux professionnels dans le cadre de la formation continue des adultes.

Sources:
CEFRIO compétences numériques des adultes Québécois (2016)   http://www.cefrio.qc.ca/media/uploader/Fascicule2016-Comptencesnumriquesdesadultesqubcois-final-5.pdf (consulté le 18/01/2017)

Ministère de l'Education nationale de l'enseignement Supérieur et de la Recherche -cadre de référence des compétences numériques pour l'école et le collège http://eduscol.education.fr/ (consulté le 18/01/2017)

La RATP ouvre son portail Open Data

Bonne nouvelle pour les usagers des transports en communs : depuis mardi 3 janvier, la RATP ouvre ses données en temps réels concernant le trafic francilien (métro, bus et tramways).

Cette décision fait suite à la loi Macron, qui demandait aux entreprises publiques l'ouverture de leurs données à la fin 2016, mais aussi en réponse aux demandes des sociétés proposant des services de planification de trajets grâce à une application mobile (Google Maps, Moovit, Citymapper).

Un service Open Data existait déjà depuis 2012 mais restait insuffisant : la RATP y donnait la liste des stations et correspondances, des arrêts de bus, et de qualité de l’air, informations que l'on pouvait trouver facilement ailleurs. Elle permettait aussi "la réutilisation digitale des éléments relevant de la propriété intellectuelle, tels que les plans de réseau, les indices de réseaux et de lignes".

L'ouverture de ce portail est donc une double bonne nouvelle:
- pour les usagers des réseaux franciliens: jusqu'à présent, les incidents et retards n’étaient pas renseignés. Désormais, les applications pourront annoncer un temps de trajet plus proche de la réalité (et non plus celui calculé d’après l’heure de passage théorique), en donnant accès en temps réel aux informations (horaires de tous les arrêts du réseau francilien, trajet des lignes, prochains passages à un arrêt précis).
- pour les start-up spécialisées, car jusqu'à présent, seule l'application maRATP bénéficiait de ces données. D'ailleurs, Citymapper, considérant que la RATP exerçait un monopole sur les informations concernant les usagers en temps réels, avait lancé une pétition contre celle-ci lui reprochant le blocage des données. Cette pétition avait recueilli plus de 18.000 signatures.

Les données sont consultables sur un portail open data : https://data.ratp.fr. Après inscription, les internautes et entreprises qui souhaitent exploiter ces données recevront un accès à l'interface de programmation (API).

Pour fournir ce service, un million d'euros a été investi (pour doubler les serveurs informatiques et mettre à disposition du personnel pour la maintenance de l'outil). Ce dernier pourra supporter 30 millions de requêtes par mois maximum. Une application pourra donc interroger le portail environ toutes les cinq minutes. Selon Dominique de Ternay, directeur marketing de la régie publique, "cela nous semble tout à fait suffisant pour des développeurs ou des étudiants pour créer de nouveaux services".

Le temps dira si la capacité de consultation proposée sera suffisante pour des services plus lourds comme ceux de Citymapper, Moovit, Plans ou Google Maps.  A terme, les réutilisateurs de données devront souscrire à une offre payante basée sur des forfaits selon le volume de data supplémentaires demandé. Le portail Open Data sera donc payant pour les entreprises.

D'autres sociétés, comme Transit, ont essayé de contourner les régies de transports publiques dans d'autres villes en faisant confiance aux usagers et en partant du principe que les utilisateurs sont les mieux placés pour renseigner la position d'un véhicule auprès des autres utilisateurs de l'application. Cette solution est en test au Canada.

Les partisans de l'Open Data en France attendent maintenant l’ouverture des données annoncée par le Syndicat des transports d’Ile-de-France (STIF), concernant le trafic de la RATP, de SNCF Transilien et des lignes de bus de banlieue du réseau Optile. De son côté, la RATP espère enrichir les jeux de statistiques proposés sur son portail.

Sources :

Philippe JACQUE - La RATP ouvre enfin ses données en temps réels [en ligne]. Le Monde. 05 janvier 2017 [consulté le 19 janvier 2017]
<http://www.lemonde.fr/economie/article/2017/01/05/la-ratp-ouvre-enfin-ses-donnees-temps-reel_5057926_3234.html>

JOST Clémence - Les données en temps réels de la RATP sont enfin ouvertes  [en ligne]. Archimag.  05 janvier 2017 [consulté le 19 janvier 2017]

RAYNAL Juliette - La RATP libère ses données en temps réels [en ligne]. L'usine Digitale. 06 janvier 2017 [consulté le 19 janvier 2017]

Site institutionnel de la RATP - La RATP et l'Open Data  [en ligne]. RATP [consulté le 19 janvier 2017]

lundi 16 janvier 2017

Gare au design de l’addiction



Sommes-nous en mesure de lutter contre des charmeurs, des envoûteurs ? Des designers qui s’attellent à nous faire perdre notre maîtrise de nous-même...
Certains designers de la Sillicon Valley, notamment Tristan HARRIS, s'insurgent et se regroupent en label pour un travail plus responsable, une sorte de « serment d’Hippocrate pour designers », et souhaitent que les outils ne soient plus des multitudes de distractions, mais qu'ils nous permettent de de gagner du temps et de nous recentrer sur ce qui est important.

Pour HARRIS, beaucoup de gens seraient capables de payer pour une version de Facebook qui les respecterait, mais la tendance actuelle est le profit rapide et la manipulation toujours plus sophistiquée.

La "captologie", étude des formes d’influences numériques, naît dans le Laboratoire des technologies persuasives de Stanford de BJ FOGG, bien avant les médias sociaux.
Pour lui, ce n'est pas en tentant de persuader quelqu'un d'exécuter une tâche que l'on y parvient le plus aisément mais c'est en la rendant plus facile. Mais FROGG  l'a toujours avancé comme une étude et non comme une méthode pour asservir.
Sa théorie a été reprise par Nir EYAL, dans un ouvrage guide pour qui s'intéresserait à ces techniques de persuasion et souhaiterait en faire un business. Pour EYAL il s'agirait de mieux comprendre pour mieux faire son métier de designer, se sachant lucide sur les limites de ces écrits et sur la capacité des gens de faire des choix libres de toutes contraintes.

Le discours ambiant de plus en plus dans la pleine conscience ou la méditation, est très discordant avec ce qu'il se passe sur le web.
Il en va de la responsabilité individuelle, mais aussi collective.
La sphère du privé et du professionnel est devenue très floue avec les outils technologiques, nous pouvons difficilement décider de nous déconnecter pour éviter les incitations diverses. Et bien souvent la captologie est plus complexe qu'il n'y parait, il est plus facile d'accepter de se connecter que l'inverse.


Sources :  
GUILLAUD,Hubert. Comment faire attention au design de l’addiction ?. Le Monde. 19 novembre 2016 [consulté le 16 janvier 2017]

La responsabilité face aux technologies numériques, addict à l’électricité. http://www.brunodevauchelle.com/blog/. 20 novembre 2016. [consulté le 16 janvier 2017]

EYAL, Nir. Hooked: How to Build Habit-Forming Products. Ryan Hoover

Le rachat de Trello par Atlassian



Atlassian, éditeur de logiciels australien, a racheté la start-up Trello, spécialisée dans la gestion de projet.



L'entreprise Atlassian, fondée en 2002 à Sidney par Jay Simons, vend des outils collaboratifs en ligne, avec pour cible principale les équipes de développeurs. Présente dans 160 pays, elle compte 54 000 clients, dont 85 entreprises parmi les Fortune 100. Elle a engrangé plus de quatre milliards de dollars de revenus depuis 2014 et a été cotée au Nasdaq, en décembre 2015, pour 531,3 millions de dollars. 
Ses principaux logiciels sont les suivants: 
  1. - Jira, pour la gestion de projets et de bugs,
  2. - Confluence, pour la documentation collaborative,
  3. - Bitbucket, pour le partage de code, 
  4. - et enfin HipChat, pour la communication instantanée. 
Jira, aussi déclinable en version Service Desk pour les équipes de helpdesk informatique, de support client, de ressources humaines, de service juridique, etc., a une flexibilité telle qu'il peut se plier à tous les usages. Par exemple, la ville d'Helsinki s'en sert pour répertorier les interventions de plombiers sur la voirie, tandis que Sotheby's l'utilise pour coordonner les mouvements logistiques des œuvres d'art. 
Atlassian propose deux versions de ses logiciels: une sur le cloud, solution choisie par environ 800 entreprises parmi lesquelles Twitter et Dropbox, et l'autre sur serveur, utilisée notamment par BMW, la NASA, eBay, etc.
Atlassian, qui a rejoint l'Open API Initiative, offre également ses licences gratuitement aux projets libres.
    
La start-up Trello, qui possède plus de 19 millions d'utilisateurs, est le 18ème rachat d'Atlassian, qui a déboursé 425 millions de dollars pour en être propriétaire; la transaction devrait être effective dès la fin mars 2017. 
Trello, dont la simplicité et l'ergonomie en font un outil de gestion de projet "très attractif auprès d'une clientèle traditionnellement peu attirée par ce type d'outils", est, selon le communiqué de presse d'Atlassian, particulièrement populaire auprès des milieux de la finance, des ressources humaines, du droit ou du marketing. Son acquisition devrait permettre à Atlassian d'"asseoir sa position d'éditeur de premier ordre pour les solutions de gestion de projet" et de "continuer à étendre sa clientèle au-delà du milieu du développement informatique". 


Sources

L'Usine Digitale, "Oubliez Slack ou GitHub, l'australien Atlassian est le vrai champion du travail collaboratif" [en ligne],  mise en ligne le 26 mai 2016 [consultation le 16 janvier 2017].
L'Usine Digitale, "Atlassian rachète Trello pour 425 millions de dollars" [en ligne], mise en ligne le 10 janvier 2017 [consultation le 16 janvier 2017].

La dématérialisation en pratique

Dématérialiser pour une entreprise c’est avant tout remplacer ses supports d'information papier par des fichiers informatiques ou des documents électroniques. Ce mécanisme de basculement rencontre tant des avantages que des inconvénients.


Dans la pratique,  opérer une dématérialisation de ses processus prend différentes formes, chacune étant adaptée à l'objectif fixé par la démarche.
L'un des premiers avantages de la dématérialisation reste logistique, puisque cela permet un gain de place et d’espace, notamment pour les PME soucieuses d'optimiser leurs locaux.
Par ailleurs, le fait pour une entreprise de “ [....] dématérialiser ses factures, ses contrats ou tout autre document important d’échanges de données, envoyé habituellement par la poste, peut aider à accélérer les processus commerciaux et à diminuer les coûts, ne serait-ce qu’avec la suppression de l’affranchissement du courrier.”
De prime abord, il faut absolument numériser les documents, ce qui peut sembler une pratique redondante mais nécessite une expertise. Car tous les documents n'ont pas le même format, la même épaisseur, ni  la même qualité de papier ni d'écriture.
Ensuite, s’impose le traitement des informations, car les documents doivent rester accessibles, d'où l’utilisation ou le développement de logiciels adaptés qui allient efficacité et facilité d’usage.
Il faut nécessairement veiller à respecter une charte déterminée par des normes pour conserver la valeur juridique de chaque élément numérisé.
Et enfin, il est impératif d'assurer le stockage des documents.
Même dématérialisée, la documentation a un poids, dérisoire certes  par rapport au papier, mais qui doit trouver un espace.
La dématérialisation impose de trouver des serveurs pour recevoir les numérisations, les classer selon des références aisément compréhensibles par l'entreprise.


La sécurité devra notamment constituer un enjeu important au cœur des démarches de stockage, et les personnes qui s’occupent de ces processus au sein des entreprises doivent y être sensibilisées.
Toutefois, le passage au support numérique implique des coûts de mise en oeuvre et un temps d’adaptation.
C’est un réel investissement qui se fera sans doute par la formation du personnel dédié ou par de la sous traitance en engageant des experts.
Notons aussi que la dématérialisation présente parfois des inconvénients pour certaines entreprises, notamment en termes de sécurité des données.
Cet accès aux données à tout moment et partout, présente le risque qu'elles soient lues par n'importe qui.
La sécurité des données est un problème qui existait déjà avec le support physique, il fallait s'assurer que les personnes non autorisées ne puissent pas accéder aux données pour les lire ou pour se les approprier illicitement. Pour cela, on pouvait les mettre dans une pièce ou un meuble verrouillé dont seules les personnes autorisées avaient la clé.
Cependant, ce n'est pas suffisant pour les données dématérialisées : il faut aussi les protéger contre les attaques en ligne. Ces nouvelles vulnérabilités exigent des nouvelles mesures de protection, aussi bien à distance qu'à proximité.
La protection à distance la plus basique est la protection par authentification.
Pour les services en ligne, l'utilisateur doit entrer un mot de passe pour que le serveur lui autorise l'accès aux données. Cela garantit leur confidentialité, à condition que le mot de passe soit suffisamment complexe et que les employés soient vigilants.
Le risque de perte des documents numérisés est également présent, par exemple à cause d’une attaque malveillante. Il faut donc veiller à la sécurité du réseau informatique de l’entreprise.
Mais aussi, la question du stockage est également à relever, puisque les besoins augmentent à mesure que la masse de données augmente.
Le bilan sur la pérennité des données reste mitigé, la durée de vie des données stockées est estimée généralement à 10 ans.

Archivé dans de bonnes conditions, le papier reste  un support stable car on peut toujours lire son contenu ; mais ce n’est pas si simple pour le numérique, car les supports ont une durée de vie limitée et les données sont encodées selon un standard qui risque de devenir obsolète avec le temps, les rendant illisibles.
Il est donc  nécessaire de renouveler régulièrement les supports de stockage des Datacenter, ce qui peut coûter cher à l’entreprise. Mais le problème le plus important est qu’en cas de dysfonctionnement d’un serveur, il peut y avoir perte de données.
On peut pallier ce manque de fiabilité en stockant les données en parallèle à deux endroits distincts. Ainsi, si un Datacenter a un problème (panne d’un disque dur ou même incident naturel), l’entreprise possède une sauvegarde de ses archives sur l’autre ; cette recopie de données est difficilement réalisable avec des documents papier, principalement pour des questions de temps.
Cependant, les formats d’encodage changent, et les logiciels permettant de lire ces données peuvent disparaître. Cela est principalement dû au fait que le format n’est plus adapté aux technologies actuelles et est abandonné, ou qu’il n’était pas très utilisé et le logiciel permettant de le lire a été retiré du marché. Quel est l’intérêt de garantir l’intégrité des données si elles deviennent illisibles au bout de quelques années ?
Les entreprises qui se tournent vers la dématérialisation doivent donc s’assurer que leurs données sont mises à jour régulièrement pour suivre l’évolution des encodages.


Dans tous les cas, le passage vers la Gestion Electronique des Documents ou le Système d’Archivage Électronique doit faire l’objet d’une réflexion stratégique préalable visant à trouver le meilleur outil pour l’entreprise et doit être accompagné pour une transition efficace.



SOURCES

(1 ) Définition et enjeux de la dématérialisation consulté le 28/12/2016 sur le site internet de DPii Telecom & Services, Entreprise française, regroupe une équipe de développeurs http://www.dpii-telecom.com/fr/definition-dematerialisation/


(2) La dématérialisation, une application vertueuse Mis à jour le 14/02/2014 à 14:25 consulté le 22 Décembre 2016 http://www.lefigaro.fr/vie-bureau/2012/06/14/09008-20120614ARTWWW00571-la-dematerialisation-une-application-vertueuse.php


(3) Les 7 tendances de la dématérialisation du 07/09/2016  de Eric Le Ven consulté le 27 décembre 2016 http://www.archimag.com/demat-cloud/2016/09/07/7-tendances-dematerialisation

(4) Site internet consulté le 22/12/2016
http://www.dynamique-mag.com/article/avantages-dematerialisation-processus.6300

vendredi 13 janvier 2017

Google Translate : l’apprentissage autonome dépasserait les attentes des chercheurs grâce à l'Intelligence Artificielle


Google Translate


Le système neuronal de traduction de Google marque une étape importante dans l'évolution de la traduction cybernétique. Grâce au deep learning, l'Intelligence Artificielle développée par Google peut traduire une troisième langue seule avec un degré d'exactitude frôlant les 85% de réussite si elle possède les notions de traduction de cette langue dans deux autres langues communes. Cela limite au maximum le recours à l'aide humaine dont elle s'émancipe, et ouvre la porte à un auto-apprentissage de l'Intelligence Artificielle pour lui permettre de résoudre au mieux les problèmes quelle rencontre.

Procédé baptisé « zero-shot » par Google (Crédit images : archive NME)

Google Translate supporte des millions de requêtes pour quelques 140 milliards de mots traduits chaque jour pour les 103 langues inscrites dans son patrimoine. Le souhait est de s'approcher de la qualité d’une traduction réalisée par un humain. Fin septembre, les chercheurs de Google ont mis en fonction de façon expérimentale une nouvelle version du service de traduction Google Translate. Celle-ci recours aux réseaux neuronaux, technologie d’intelligence artificielle, pour proposer des traductions de meilleure qualité et plus véloces grâce au système Google Neural Machine Translate (GNMT) qui a été adapté pour être exploitable aisément avec de nouveaux duos de traductions. L'expérience est décrite dans une publication scientifique bien documentée parue le 14 novembre 2016 dans la revue arXiv.


Les chercheurs ont constatés avec surprise que l'I.A. grâce au système neuronal, a été capable d'effectuer une traduction d’une langue à une autre de façon autonome, "sans que des corrélations sémantiques et grammaticales entre ces deux langues ne lui aient été apprises", en utilisant une troisième langue, de base commune aux deux autres. Ce qu'ils ont intitulés "zero-shot". Le système neuronal a été capable de créer seul des ensembles de jonctions entre deux langues grâce aux passerelles qu'il a mis en place dans son apprentissage, ce qui constitue un langage propre dénommé "interlingua".


Passé l'effet de surprise, des questionnements se font jours parmi les chercheurs sur les mécanismes complexes mis en oeuvre dans l'apprentissage profond du système neuronal afin de déterminer précisément comment cela s’est produit et quels sont les effets de bord possibles.


Néanmoins, le fait de passer d'une traduction de type "statistique" se basant sur le big data, et son degré d'approximation à une traduction de type "neuronale" plus pertinente marque un degré d'évolution sans précédent pour tous les éditeurs de solutions de traduction.

Références sitographiques :


Renald Boulestin - Google Translate : l’intelligence artificielle apprend (trop) vite [en ligne]. itespresso. 28 novembre 2016 [consulté le 12 janvier 2017]



Sylvain Rolland - Quand l’intelligence artificielle révolutionne la traduction automatique [en ligne]. latribune. 22 décembre 2016 [consulté le 12 janvier 2017]


Paolo Garoscio - L’IA de Google peut traduire deux langues sans qu’on lui ait appris [en ligne]. clubic. 03 décembre 2016 [consulté le 12 janvier 2017]

<http://www.clubic.com/technologies-d-avenir/actualite-821360-ia-google-traduire-langues-ait-appris.html>

Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, Jeffrey Dean - Google's Multilingual Neural Machine Translation System : Enabling Zero-Shot Translation. arXiv:1611.04558 (open access) [en ligne]. arxiv. 14 novembre 2016 [consulté le 12 janvier 2017]


jeudi 12 janvier 2017

"Closed Access" à Elsevier en Allemagne, à Taïwan et au Pérou

Crédits photographiques : Mike Licht, NotionsCapital.com (Flickr)

En ce début d'année 2017, des milliers de chercheurs allemands, taïwanais et péruviens se retrouvent privés d'accès aux revues électroniques d'Elsevier.

Le même point de départ

Dans les trois pays, les tarifs exorbitants pratiqués par le géant néerlandais de l'édition ont déclenché une vague de résiliations d'abonnements.
En Allemagne, les universités et instituts de recherche membres du projet DEAL n'ont pas réussi à obtenir un accord de licence à l'échelle nationale pour le 1er janvier 2017. Dénonçant les propositions trop coûteuses d'Elsevier, ils ont annulé les abonnements en décembre dernier. Les établissements qui avaient négocié des contrats particuliers pluriannuels avant les négociations ne seront pas affectés. Mais ceux dont les licences sont arrivées à expiration fin 2016 vont perdre tout ou partie de leurs accès - cas par exemple de l'université de Göttingen.
C'est aussi à cause de prix jugés excessifs que le consortium taïwanais CONCERT, qui regroupe plus de 140 organismes de recherche, a appelé au boycott d'Elsevier le 7 décembre dernier.
Sept jours plus tard au Pérou, le Conseil national pour la science, la technologie et l'innovation technologique (CONCYTEC) renonçait au renouvellement de la licence nationale auprès d'Elsevier, la subvention gouvernementale n'ayant pas été reconduite.

Des rapports de force différents

Outre-Rhin, les pourparlers ont repris, mais la situation est tendue : un certain nombre d'établissements ont sciemment choisi de se priver des ressources d'Elsevier plutôt que de renégocier une licence individuelle. Le conflit est fortement idéologique : au delà de la question financière, il s'agit de pousser le plus loin possible la logique de l'open access. Leurs homologues hollandais ayant obtenu l'accès ouvert automatique à 20% (en 2017), puis 30% (en 2018) des articles publiés par les auteurs néerlandais dans 276 revues d'Elsevier, les Allemands du projet DEAL réclament la consultation gratuite de l'intégralité des publications signées par les chercheurs des établissements associés. Et ils comptent bien se montrer aussi intransigeants dans leurs prochaines discussions avec Springer Nature et Wiley...
A Taïwan, Elsevier a tenté de négocier individuellement avec les universités. Cela n'a eu pour effet que de convaincre d'autres établissements, comme l'Université nationale de science et technologie de Taïwan (NTUST) ou la prestigieuse Academia Sinica, de rejoindre la fronde. La tension semble retomber un peu : il y a quelques jours, Elsevier a prolongé jusqu'à la fin du mois de janvier les abonnements des universités taïwanaises qui les avaient annulés et les discussions ont repris avec CONCERT. 
Récemment encore, le Pérou bénéficiait d'un accès gratuit ou à bas coût aux principales revues académiques dans le cadre du programme HINARI de l'Organisation Mondiale de la Santé. En 2012, la croissance économique a privé le pays de cet avantage, réduisant certains chercheurs à "mendier" sur les réseaux sociaux ou auprès de leurs collègues étrangers. L'expiration de la licence nationale négociée en 2014 va contraindre les scientifiques péruviens à renouer avec le système D. 

Des expédients comparables

Pour se procurer les articles d'Elsevier en période de boycott ou de disette budgétaire, les chercheurs ont à leur disposition toutes sortes de moyens légaux : passer par des archives ouvertes, fréquenter les bibliothèques encore abonnées, s'adresser directement aux auteurs...
En Allemagne comme à Taïwan, le prêt entre bibliothèques fonctionne à plein régime. A l'instar d'autres établissements de la région, la NTUST a adhéré à un service international de "PEB express" organisé par les bibliothèques universitaires du Colorado, afin de limiter les effets néfastes du boycott.
Et puis il y a Sci-Hub, qui permet d'accéder gratuitement - et illégalement - aux articles scientifiques en contournant les paywalls classiques des éditeurs commerciaux. "Je dirais que 95% environ des gens de ma génération y ont recours", confie un biologiste péruvien de 30 ans. Même son de cloche de l'autre côté de l'Atlantique : "les jeunes générations le font tout le temps", explique la chargée des relations publiques de l'université de Göttingen. 


Sources

JOST, Clémence. 60 bibliothèques de recherche allemandes s'allient et boycottent Elsevier. Archimag.com : Bibliothèque Edition. 19 décembre 2016 [consulté le 12 janvier 2017]

MATTHEWS, David. Deal impasse severs Elsevier access for some German universities : as talks with the publisher stall, researchers in the country weigh whether they can cope without a deal. Times higher education. 6 janvier 2017 [consulté le 12 janvier 2017]

SCHIERMEIER, Quirin & RODRIGUEZ MEGA, Emiliano. Scientists in Germany, Peru and Taiwan to lose access to Elsevier journals : libraries pursue alternative delivery routes after licence negotiations break down. Richard Van Noorden, additional reporting. Nature, 23 Dec. 2016, 541:13. Corrected 3 Jan. 2017. Updated 9 Jan. 2017 [consulté le 12 janvier 2017]