jeudi 31 mars 2011

Research Gate le réseau professionnel scientifique

En novembre 2009, le réseau communautaire Research Gate rassemble déjà 800 000 chercheurs de 196 pays dont plus de 10 000 en France.


ResearchGATE est un site de réseautage social gratuit pour chercheurs scientifiques dans toutes les disciplines.
L’objectif tient en trois mots : communiquer, collaborer et découvrir.

Ijad Madisch, un jeune médecin et informaticien de 30 ans, est en train de constituer le plus grand réseau du monde spécialement conçu pour les scientifiques.

Le siège de sa Start up est à Berlin, où il travaille en équipe avec 40 jeunes salariés de 12 pays différents, sur le concept suivant : fournir à des chercheurs des applications de web 2.0.

Ainsi en se connectant sur le site http://www.researchgate.net/ les chercheurs créent leur profil, forment des groupes par intérêt de recherche commun, mettent en ligne leurs travaux, recherchent un emploi et peuvent utiliser un système unique d´auto-archivage.

Au total ce sont plus de 1 000 groupes qui ont déjà été créés dans les cadres de ResearchGate.

Les chercheurs effectuent leur recherche dans une base de données d´environ 40 millions d´articles, de publications et de textes complets.

Un nombre croissant d'organisations scientifiques se sont mises à l’utiliser comme outil de publication de notes générales et de brefs articles scientifiques.

La plate-forme lancera prochainement plusieurs nouvelles applications, dont des conférences virtuelles.



Source : U-PEC.
Présentation du site :
http://www.edbio.ups-tlse.fr/spipedbio/IMG/pdf/presentation_researchgate.pdf

MédiHal: une Archive ouverte consacrée au dépôt d'images scientifiques et de documents iconographiques de science


Créée, portée par le Centre national de la recherche scientifique (CNRS), MédiHal est ouverte le 3 février 2010.
Elle propose ses documents (images scannées, photographies numérisées, photographies numériques, images de synthèse ou des images de simulations numériques, etc.) en libre accès (open access). Elle utilise le logiciel HAL, identique à celui utilisé pour l’archive ouverte HAL.

Fonctionnalités
  • Est un réservoir de données pérennes pour les images scientifiques permettant aux chercheurs, enseignants, et personnels de la recherche et de l'enseignement supérieur d’archiver et de diffuser leurs images
  • Permet de cataloguer, géo-référencer et indexer les images
  • Privilégie une diffusion des images sous licences Creative Commons (dont la domain public mark)
  • Propose des collections dites : institutionnelles (pour une université, un laboratoire ou une équipe de recherche, ex.: l'Institut français du Proche-Orient), thématiques (dans le cadre d'un programme de recherche), géographiques, etc.
Consultation et utilisation

A l'heure d'aujourd'hui, l'archive ouverte compte 6981 documents.

Elle est accessible depuis le site, ses collections, le moissonnage des données par le protocole OAI-PMH, mais il est également déjà possible d'utiliser les flux de diffusion RSS afin de partager l'historique de ses propres dépôts dans un site web, un blog, etc

Dépôt et validation

Modalités de dépôt
Les images déposées dans MédiHAL sont accessibles en ligne soit immédiatement après le dépôt, soit après une barrière mobile appelée également embargo (qui reste modifiable), dans le respect de la propriété intellectuelle des auteurs et des personnes photographiées.

MédiHAL est fondée, en faveur du libre accès aux données scientifiques, sur le dépôt volontaire par les scientifiques (chercheurs, enseignants-chercheurs) et personnels d'accompagnement de l'enseignement supérieur et de la recherche.

Validation
Chaque dépôt, comme dans HAL, est soumis à une vérification de forme avant mise en ligne par les équipes documentaires du Centre national pour la numérisation de sources visuelles (CN2SV).

La validation des documents déposés dans MédiHAL présuppose :
  • Une appartenance des documents à une série iconographique ayant une cohérence scientifique (reportage complet, campagne d'observation, série ayant une unité scientifique de production, mission scientifique, archive scientifique)
  • Un contexte de production incluant une évaluation scientifique, par exemple : un projet ou un programme de recherche d'un laboratoire, la production d'une équipe regroupant plusieurs laboratoires, la production et les données d'un projet ANR, etc.

Conservation

On y propose un archivage à long terme, au sens de la norme ISO 14721:2003 dite OAIS (pour Open Archival Information System) grâce au partenariat avec le Centre informatique national de l’enseignement supérieur. Dans le cadre de la mise en place de l'archivage à long terme des données déposées dans HAL, les données déposées dans MédiHAL (les images elles-mêmes et leurs métadonnées) sont maintenant archivées à long terme au Centre Informatique National de l’Enseignement Supérieur (CINES).
Ces documents iconographiques sont stockés dans un dépôt sécurisé, disposant d'une forte infrastructure numérique et humaine, avec copies de sécurité des images et de leurs métadonnées.
Cet archivage tend alors à préserver la conservation, la disponibilité, la communication sur le long terme ainsi que la surveillance et le suivi de l'évolution des formats de ces données.


Ainsi, il est important d’appréhender le fait que MédiHAL n'est pas et ne se substitue pas aux photothèques institutionnelles ou disciplinaires mais offre un espace complémentaire de dépôt, stockage, archivage et diffusion des photos et images scientifiques. Toutefois, elle a l’avantage d’augmenter la visibilité, l'accessibilité, la rapidité de diffusion et l'impact des données iconographiques.


Sources:




mercredi 30 mars 2011

L'oeuvre d'art à l'heure du numérique : comparer pour comprendre

Le compte rendu du séminaire « Pratique de l’histoire de l’art à l’ère du numérique », organisé par l'école doctorale d'histoire de l'art de Paris 1 (ED 441) le 11 Février 2011, a mis en lumière l’analogie des démarches pour étudier une oeuvre d'art entre le XVIII siècle et l’ère du numérique. La comparaison, la vision rapprochée étaient déjà utilisées par les historiens d'art comme Séroux d’Agincourt au XVIII pour illustrer l'évolution des styles architecturaux des édifices.
Les différents sites internet des musées ne procèdent pas différemment. Le MOMA, le Metropolitan Museum de New-York, la National Gallery de Londres ou bien le site du musée du Louvre proposent, l' agrandissement automatique, le zoom sur l'image, l'affichage sous forme de vignette pour lire une oeuvre d'art et en restituer la complexité.
Élisabeth Doulkaridou, dans son article « vers les cabinets d’estampes en ligne : le cas du Virtuelles Kupferstichkabinett », démontre comment les outils informatiques tels que les zooms, les comparateurs d'images permettent aux chercheurs d'observer et de comparer simultanément des corpus d'œuvres en variant les images d'estampes sans qu’il soit nécessaire de quitter l’écran de travail. Les combinaisons d’observation se démultiplient et offrent une pluralité de liens possibles avec le reste de la collection.
Même s'il s'agit d'une rupture par rapport aux possibilités de visualisation des siècles précédents," comparer pour comprendre" reste plus que jamais d'actualité pour appréhender une œuvre d'art.

mardi 29 mars 2011

Une après-midi et un vade-mecum sur la gestion des abonnements aux périodiques

Le 18 mars dernier, le GFII a organisé un séminaire sur la gestion commune des abonnements aux périodiques. L'objectif : réunir autour d'une même table les acteurs concernés par la problématique - à savoir clients, agences et éditeurs - pour saisir l'évolution et les enjeux du marché.

Le point de vue client a été exposé par :
  • Catherine Baude (Ministère de la Santé, ADBS) qui a présenté les résultats de l'enquête menée par l'ADBS en 2009 sur les préoccupations des professionnels de l'info-doc relatives aux abonnements électroniques (le questionnaire est encore en ligne ici) ;

Les éditeurs ont été représentés par :
  • Toby Green, chef des éditions de l'OCDE, pour qui l'utilisateur est au centre de la problématique. Selon lui, l'éditeur offre un service et constitue un intermédiaire entre le client et les contenus (qui choisit de dresser - ou non - des murs entre l'offre et le demandeur) ;
  • Laurent Bérard-Quélin, en tant que directeur de la Société Générale de Presse et président de la Commission des médias électroniques de la FNPS, s'est concentré sur la relation entre lecteur et éditeur de presse et a parlé d'"intermédiation" et de "désintermédiation".

Enfin, quatre agences - Ebsco, Lavoisier, Swets et Prenax (respectivement représentées par Delphine Dufour, Patrick Fenouil, Philippe Glätzle et Delphine Panier) ont présenté leur vision du marché en soulignant notamment l'évolution de leur clientèle : ils constatent devoir faire face désormais à de véritables acheteurs et négociateurs et à de nouvelles exigences.

En fin de journée, Sophie Petitjean, responsable du service Négociations Portails à l'INIST, et Magali Colin, chef de projet Statistiques d'usage, ont présenté comment les statistiques sont recueillies et analysées à l'INIST et l'enjeu qu'elles représentent pour l'élaboration de la politique documentaire du CNRS et l'aide à la décision (rappelons en effet que l'INIST est l'opérateur technique des portails thématiques du CNRS et qu'il intervient pour la gestion et la négociation de ses abonnements).

Terminons en signalant que cette journée était organisée principalement dans le but de présenter les travaux du comité de pilotage du groupe inter-associations ADBS / ADBU / FNPS / GFII / SNIEL dont le vade-mecum "Clients, agences, éditeurs : comment gérer ensemble les abonnements aux périodiques" se révèle l'aboutissement. L'édition 2011 est à la fois une mise à jour et une synthèse des deux précédentes publiées en 2005 et 2007. Les quatre parties qui le composent (Les acteurs et le marché, Le cycle de vie de l'abonnement via une agence, Le cas des abonnements électroniques, Les archives électroniques et la pérennité des données) sont émaillées de 43 recommandations qui font de ce document un guide de bonnes pratiques indispensable et très attendu par les professionnels concernés par la gestion des périodiques et confrontés aux problématiques - en constante mutation - liées aux abonnements électroniques. Quatre fiches très pratiques et instructives complètent le guide : "La fiscalité de l'édition en ligne", "Le statut de la presse en ligne", "Les procédures EDI" (pour Echange de données électroniques) et une présentation synthétique du projet COUNTER ("Du constat au succès") lancé en 2002 et fédérant aujourd'hui 222 membres (éditeurs, intermédiaires, bibliothèques, associations professionnelles...) autour de l'élaboration d'un code de bonnes pratiques concernant les statistiques relatives aux revues et bases de données ainsi qu'aux e-books.

Notons enfin qu'un blog a été ouvert dans le but de poursuivre les discussions de la journée mais aussi de commenter le vade-mecum et de solliciter les auteurs si des précisions s'avéraient nécessaires.

Curator, un des nouveaux métier du web 2.0 ?


La curation semble être le nouveau mot en vogue chez les professionnels du web en ce début 2010. Comme souvent, ce terme nous vient des Etats-Unis et il n'existe pas à ce jour d'équivalent unanimement adopté en langue française.

Dans sa définition la plus simple, la curation est la pratique qui consiste à rechercher, sélectionner, contextualiser et partager du contenu. Elle s'effectue sur un domaine de connaissance précis, avec l'appui d'une expertise qui permet d’enrichir les contenus récoltés. Ce schéma d'Anthony Poncier, consultant en management et entreprise 2.0, pourrait à lui seul servir de définition :




L'activité de curation est liée au développement d'Internet, qui a induit une forte croissance du volume des informations disponibles (la désormais fameuse menace de l’infobésité) et la diversification/démocratisation des outils de partage. Aujourd’hui, la curation ne constitue pas un métier, mais une pratique personnelle. Cependant, les bénéfices pour une entreprise peuvent être nombreux, puisqu'elle permet de fournir une information ciblée.


Le concept provoque des réactions diverses ; parmi les professionnels de l’information, nombreux sont ceux qui considèrent que la curation n’est qu’une des facettes du métier de documentaliste. Pour Jean-Daniel Boutet, spécialiste de la communication sur le web, le terme de curation renvoie à un métier qui existe déjà : le curator ne serait qu’un «documentaliste à la sauce web»
. Aurélie Duclos, community manager, considère elle que le curator est un genre de "sous-documentaliste", puisqu'il ne se limite qu'au web alors que le documentaliste cherche dans tous types de ressources.
Camille Alloing, sur son blog CaddE-Réputation, et Bertrand Duperrin, consultant dans un cabinet de conseil en performance collaborative des organisations, se sont eux intéressés aux différences entre curator et veilleur. Les principales nuances sont liées au statut et au périmètre d’action : le curator agit pour lui, de manière subjective et dans des domaines qu’il choisit, alors que le veilleur agit pour et dans un entreprise donnée (il est donc soumis à des contraintes institutionnelles contrairement au curator qui lui, est libre).


Bref, la curation se rapproche des métiers de l'information, et pourrait se professionnaliser dans les années qui viennent (si on le considère comme autre chose qu'un "buzzword") ; il ne tient qu'aux professionnels déjà en place ou en formation que cela ne se fasse pas au détriment des métiers existants.


Pour en savoir plus :
http://pro.01net.com/editorial/529624/le-guide-de-la-curation-(1)-les-concepts/
http://poncier.org/blog/?p=2697#more-2697
http://jdboutet.fr/nouveaux-metiers-la-curation-et-les-web-documentalistes/
http://www.mediassociaux.fr/2011/01/07/la-tendance-2011-pour-les-medias-sociaux-la-qualite/

lundi 28 mars 2011

Le KM est-il limité ?

Comme toute discipline, le Knowledge Management connaît des limites, d’autant que le concept est nouveau, et peu clair. Parmi les obstacles que l’on peut rencontrer dans l’élaboration d’une démarche de KM, on peut noter les écueils suivants :

- Dans le cas où l’information est peu ou pas formalisable :
Tous les savoirs ne sont pas modélisables au même degré. Dans de nombreux cas, l’importance des savoirs informels est considérable. Il est donc, dans ce cas, peu évident de formaliser sous formes de procédure ou de booklet ce savoir. On se demande même s'il est réellement souhaitable de le faire.
Toute la logique de l’apprentissage repose sur ce postulat. Cette idée est bien loin d’être nouvelle.

- Trop de formalisation paralyse l’innovation :
Le savoir ne s’acquiert pas nécessairement en se conformant à un schéma établi par avance. Il faut parfois être surpris par des évènements pour susciter la curiosité, la recherche de solutions, l’innovation…
Si le transfert des connaissances est figé dans des cadres trop rigides et des procédures trop formalisées, elle empêchera l’individu et le groupe de découvrir des issues novatrices et des solutions nouvelles créées par l’incident imprévu.
C’est ce qu’on appelle la « sérendipité » ou découverte inattendue, c’est un "hasard heureux"1.

Pour que cette nouvelle découverte se fasse, encore faut-il que la gestion de la connaissance dans l’organisation ne soit pas enfermée dans un carcan trop rigide.
Le but final du KM est de mettre en place un esprit de partage des connaissances, de générer la collaboration tout en permettant dans le même temps de réduire les coûts (en temps et en argent) voire même de réaliser des bénéfices.
Cependant, bien souvent le KM se limite à proposer des logiciels hors de prix qui génèrent en plus de la réticence à les utiliser de la part des collaborateurs.
La technologie est certes importante voire même indispensable mais elle n’est qu’une étape intermédiaire. Il est impératif de définir une politique de gestion de la connaissance ainsi qu’une vrai politique documentaire afin de déterminer quels savoirs partager et comment engendrer le consentement tout d’abord et la collaboration ensuite des employés.

Le KM doit être pensé comme un véritable aspect de la culture d’entreprise et doit s’inscrire dans la durée. Son rôle est de révolutionner en profondeur les manières de penser et d’agir au sein d’une organisation. En ne s’appuyant que sur l’apport des nouvelles technologies, le KM est voué à l’échec et se résume surtout incapable de jouer son rôle de véritable levier de croissance.

1. La sérendipité : le hasard heureux : actes du Colloque de Cerisy-la-Salle [20-30 juillet 2009, Centre culturel international] / publiés sous la direction de Danièle Bourcier & Pek Van Andel. - Paris : Hermann, impr. 2011 - 1 vol. (411 p.)

dimanche 27 mars 2011

Opération « Adoptez un livre »

Lancée à l’occasion du Salon du Livre 2011 par L’Association des amis de la Bibliothèque nationale de France (AaBnF), qui contribue par ses dons et ses actions à l’enrichissement des collections de la Bibliothèque, l’opération « Adoptez un livre » permet aux internautes de soutenir la numérisation du patrimoine écrit de la BnF.

Selon le communiqué, « le donateur est invité à choisir, sur le site de l’Association (www.amisbnf.org) le ou les ouvrages qu’il souhaite voir numériser. Il s’agira toujours d’ouvrages numérisés à partir d’originaux. Le coût de la numérisation sera indiqué pour chaque ouvrage. Le donateur recevra un récépissé de déduction fiscale de 66% pour un particulier et de 60% pour une entreprise, dans le cadre de la législation en vigueur ».

Cette opération fait suite à celle lancée l’an passé (« Offrez une voix ») pour financer la numérisation des enregistrements sonores des grandes voix du passé. Le donateur a la possibilité de choisir la formule d'affichage souhaitée qui figurera pendant 10 ans sur Gallica. Les intitulés (cet ouvrage a été numérisé « grâce à » ou « à l’occasion de l’anniversaire de » ou encore « à la mémoire de ») feront l'objet d'une validation par l'association. Les dons anonymes sont aussi possibles.

Quatre thèmes ont été retenus : les femmes, panorama du XIXe siècle, les livres de sciences naturelles, les grandes entreprises françaises. Les prochains thèmes disponibles seront les suivants : gastronomie, jardin, romans populaires illustrés. Dans une deuxième phase de l’opération, les internautes pourront demander la numérisation du livre de leur choix à partir du catalogue général (sous réserve de l'accord de la Bibliothèque).


Sources :

L’Association des amis de la Bibliothèque nationale de France (AaBnF) :
http:www.amisbnf.org

Votre nom sur Gallica pendant 10 ans…
http://www.bnf.fr/documents/cp_adoptez_livre.pdf

Appel à tous les mécènes
http://www.lefigaro.fr/culture/2011/03/21/03004-20110321ARTFIG00688-appel-a-tous-les-mecenes.php

Adopter un livre, le crowfunding pour numériser la BnF
http://www.actualitte.com/actualite/25043-warhol-numeriser-soutien-adopter-livre.htm

Adoptez un livre du patrimoine
http://www.magazine-litteraire.com/content/breves/article?id=18713

jeudi 24 mars 2011

Solution web 3.0 pour entreprise 2.0

Dans le cadre du salon Documation 2011, une nouvelle méthode d'ingénierie pour l'organisation des connaissances a été présentée : Sémio Tag. Le principe du logiciel Sémio Tag repose sur la participation des collaborateurs / utilisateurs à l'indexation des documents de leur entreprise. Intégrant l'approche de la classification par facettes, les documents sont indexés à l'aide de tags graphiques (les "sémiotags") paramétrables donc évolutifs. Les avantages d'un tel outil sont multiples pour l'entreprise, notamment :

- gain de temps lors de l'enregistrement des données (automatisation des phases de nommage, d'emplacement de stockage et d'ajout des métadonnées);

- gain de temps et optimisation de la recherche: les documents sont progressivement filtrés dans l'arborescence lorsqu'on clique sur les sémiotags;

- indexation collective permettant, dans une logique de création de compte 2.0, de partager des rubriques / facettes.


Utile pour les chefs de projet, Sémio Tag est développé par la société Cogniva dont le cofondateur, Manuel Zaklad, est professeur au CNAM et directeur de l'équipe DICEN (Dispositifs d'Information et de Communication à l'ere Numérique) http://dicen.cnam.fr/


Intégré à la suite Office, cet outil permet pour l'instant de classer des documents semi-structurés : à quand une évolution vers une indexation des mails de l'entreprise?

mardi 22 mars 2011

L'intelligence culturelle, champ singulier de l'intelligence économique

Le 3 février 2011 s'est tenue à Paris, dans les locaux de l'UNESCO, une journée d’étude consacrée à l'intelligence culturelle, définie comme "nouveau territoire de l'intelligence économique".

Le poids des industries de la culture dans le développement économique national était au cœur des débats animés durant cette journée, organisée par l'Association internationale francophone d’intelligence économique (AIFIE), en partenariat avec l'Assemblée des chambres françaises de commerce et d'industrie, le magazine Diplomatie, l'IHEDN Région Paris-IDF, l'Université catholique de l'Ouest et l'Institut français de l'IE.

En quoi une analyse fine de l'écosystème culturel peut-elle venir renforcer une politique publique d'intelligence économique ?

Dans quelle mesure les méthodes, les outils de la veille stratégique et de la gestion de l'information économique peuvent-ils être exploités pour optimiser le management de la culture et garantir son rayonnement ?

En tentant de répondre à de telles questions, les intervenants invités à s'exprimer lors de la manifestation ont mis en lumière le caractère stratégique d'une synergie entre intelligence économique et dynamique culturelle.

Le compte-rendu des interventions qui se sont succédées dans le cadre de cette journée d'étude sont disponibles sur le site Web de l'AIFIE.

A lire également : l'article de Jessica Auroux, diplômée en ingénierie culturelle, qui propose une analyse de la journée sur le Portail de l'IE : "L'intelligence culturelle ou la puissance des idées".


jeudi 17 mars 2011

La gestion de l'e-réputation en entreprise : une pratique en plein essor

Avec l'expansion du web 2.0, chaque internaute est un client potentiel mais aussi un danger en puissance. Les entreprises ont toujours veillé à leur image avec une stratégie de communication mais celle-ci ne suffit plus. Des informations négatives peuvent se répandre très vite et nuire considérablement à leur activité. Elles doivent donc réagir en mettant en place des dispositifs spécifiques leur permettant de surveiller leur réputation sur le net et intervenir en utilisant les outils des internautes.

Selon Christophe Deschamps, les veilleurs e-reputation ont une pression bien supérieure aux veilleurs dits classiques car ils doivent désamorcer au plus vite les informations négatives qui peuvent circuler. Il met ainsi en garde sur le fait que ce caractère d'urgence pourrait être étendu à la veille dans son ensemble. Il est important que les décideurs fassent bien la distinction et que les services de veille qui se lancent dans la veille e-réputation réfléchissent aux contraintes spécifiques à ce type de veille avant de la mettre en place.
http://www.outilsfroids.net/

Autre manifestation de l'intérêt croissant pour l'e-réputation, de nouvelles offres arrivent sur le marché telles que Adobe Social Analytics qui sera normalement commercialisé au troisième trimestre 2011. Il se concentrera sur les réseaux phares que sont Facebook et Twitter, avec un suivi des échanges communautaires.
http://www.demainlaveille.fr/

Egalement dans l'actualité :
- le livre de Edouard Fillias et Alexandre Villeneuve "E-Réputation. Stratégies d'influence sur Internet" destiné aux professionnels de la communication et des médias,
- le forum professionnel Telmi qui se tiendra à Lille le mardi 29 mars 2011 sur le thème Entreprise & E-réputation Indices, Indicateurs, Identité.
Et pour plus d'information, un petit détour s'impose par le blog CaddE-Réputation.

Perdez la boule dans la foule !

On appelle "Crowd Gaming" un divertissement interactif réunissant une foule composée d'une centaine, voire de milliers de joueurs. Les "Human Joysticks", ou "Joysticks humains" en sont l'une de ses formes : un public dans une salle est face à un écran de projection, sur lequel s'affiche un jeu vidéo élémentaire et les mouvements du public interagissent sur l'écran. Par exemple, dans le jeu du "casse-briques", les gestes collectifs permettent de déplacer un curseur sur lequel rebondit une boule devant atteindre et casser le plus de briques possible.

Une autre manifestation, plus élaborée du "Crowd Gaming", est décrite par Yvane Jacob dans un article posté le 7 octobre 2010 sur le site du magasine RSLN (Regards sur le numérique). Il s'agit du projet Crowd2Cloud, présenté par des chercheurs de l’université de New York lors de la deuxième édition du festival Ars Electronica, en septembre 2010.

Les Squidballs (de l'anglais "Squid", Calmar et "Ball", balle) sont des boules géantes sur lesquelles ont été placés des capteurs. Les participants se les passent dans la salle et les informations sont transformées en données. Virtuellement, les mouvements sont reproduits sur un écran géant de façon simultanée au jeu bien réel.

Ce type de "Crowd Gaming" fonctionne grâce à la technique de la "Motion Capture" (ou captation de mouvements), permettant de capter et d'enregistrer des mouvements réels (par le biais de capteurs), pour les retransposer dans un univers virtuel, afin d'atteindre le plus de réalisme possible.

L'ancêtre de cette technique n'est autre que la "Rotoscopie", procédé utilisé au cinéma, consistant à "décalquer" des éléments filmés en prise de vue réelle, pour les transformer en images animées. En guise d'exemple, citons le travail remarquable du réalisateur de films d'animation, Ralph Bakshi, qui adapta en 1978 sous forme de dessin animé, The Lord of the Rings (Le seigneur des anneaux), de J.R.R. Tolkien. Bakshi filma le film tout entier avec des acteurs réels, souvent sans les décors, puis transforma les scènes en peintures animées. Il réutilisa en 1983 la technique de la "Rotoscopie" dans un autre dessin animé d'Heroic Fantasy, Fire and Ice, dont les personnages avaient été conçus par le génial artiste peintre Frank Frazetta.

Plus récemment, Avatar, de James Cameron, sorti en 2009, est une illustration fort impressionnante de la "Motion Capture" dans le cinéma d'animation en relief. La mise en abîme donne le vertige, puisque des acteurs en chair et en os, munis de capteurs sur le corps, ont servi de support pour créer les Terriens du long-métrage, qui eux-mêmes animent des espèces de marionnettes grandeur nature, employées pour infiltrer une tribu d'extra-terrestres dont elles copient l'apparence physique!

La "Motion Capture", outre son développement au cinéma, s'est épanouie dans les jeux vidéos (dont la plupart des scènes cinématiques sont conçues avec cette technique). A ce sujet, la Wii, console de jeu Nintendo, utilise les capteurs de mouvements pour reproduire les gestes des joueurs munis de manettes, ils se retrouvent alors face à leurs alter-egos virtuels qu'ils peuvent déplacer sur l'écran!

Non seulement ludique, l'objectif des chercheurs du projet Crowd2Cloud est de réintroduire l'effort physique au sein du jeu collectif. Concluons en notant que la "Motion Capture" peut aussi être utilisée dans un but plus compétitif. En effet, David Teeghman, dans un article posté le 6 octobre 2010 sur le site Discovery News, nous apprend que des athlètes professionnels américains de Baseball ont recours aux capteurs en 3 dimensions afin d'améliorer leurs performances. Qu'ils ne délaissent pas pour autant le plaisir de jouer!

mercredi 16 mars 2011

Question de références

Lors du lancement de l’encyclopédie participative de Google « Knol » en juillet 2008, les responsables de Wikipedia s’inquiétaient du détournement possible de son trafic au vu de cette concurrence potentiellement très importante. Il s’est avéré a posteriori que cette « bataille » n’a pas eu lieu. En effet, « Knol n'a pas décollé. Ni en audience, ni en contenus. Au bout d'un an, il proposait un peu plus de 120 000 contributions [, alors que] Wikipedia [en proposait plus de] 15 millions [...]. »

« Fort » de ce constat d’insuccès, il semble que Google se soit aujourd’hui tourné plus encore vers Wikipedia en aidant notamment financièrement la Fondation Wikimedia à moderniser ses serveurs et ses interfaces et en travaillant à la traduction de centaines de pages dans des langues moins communes comme l’hindi ou le tamoul (par exemple)[1].

Bien avant cette tentative d’intrusion de Google dans un domaine de la connaissance, dès 2004, nous trouvions déjà des réflexions de webmasters sur des forums s’étonnant de la grande importance qu’accordait Google (et avec lui d’autres grands moteurs de recherche) dans son référencement aux pages générées par Wikipedia. Ces dernières occupaient déjà une place prépondérantes et parfois/souvent inopportunes pour le trafic de leurs sites plus modestes certes mais de loin plus pertinents.

Aujourd’hui, loin d’avoir joué de tout son poids pour tendre à placer au premier rang les résultats de Knol devant les articles de Wikipedia, il semble au contraire que Google ait plutôt fait le choix de continuer à favoriser ces derniers dans ses classements.

Au grand dam des webmasters, une nouvelle politique de référencement de Google a été mise en place depuis le début de l'année pour faire face à la foule de sites « opportunistes » qui généraient trop de bruit dans certaines requêtes clés. Non pas que l’objet de ses modifications soit à remettre en cause, mais l'orientation qui en a découlé est néanmoins étonnante. En effet, alors que le nombre de pages s'accroît de jour en jour sur Internet, Google semble privilégier les sites de « référence » dans lesquels il à confiance, dont Wikipedia.[3]



Site ressources :

[1] http://eco.rue89.com/2010/02/18/wikipedia-firefox-pourquoi-google-finance-ses-concurrents-139266
[2] http://www.pcinpact.com/actu/news/58318-google-traduction-wikipedia-hindi-goujrati-arabe.htm
[3] http://blog.veronis.fr/2010/06/google-prime-de-plus-en-plus-forte-aux.html

Le retour de Roger T. Pédauque

C’est en 2003 qu’apparaît pour la première fois Roger T. Pédauque. Jean Michel Salaün est alors missionné par le CNRS pour définir avec les scientifiques les orientations de la recherche sur le document numérique dans le cadre des Réseaux Thématiques prioritaires (RTP-doc). Il imagine alors la rédaction d'un texte collectif sous le pseudonyme de Roger T. Pédauque (homonyme de RTP-doc).

Un processus d’écriture collective original se met en place : un texte est proposé et synthétisé par un collectif transdisciplinaire de chercheurs. Il est mis en ligne dans ses différentes versions pour bénéficier des commentaires des experts du réseau qu’il intègre au fur et à mesure. La version définitive est ensuite stabilisée par une publication. Trois textes collectifs seront ainsi rassemblés dans un ouvrage publié en 2006 sous le titre Le Document à la lumière du numérique : forme, texte, médium : comprendre le rôle du document numérique dans l’émergence d’une nouvelle modernité.

Cinq ans plus tard, un collectif de travail franco-québécois a décidé de reprendre la dynamique d’écriture de Roger T. Pédauque. Une première version d'un texte, rédigée par une dizaine de chercheurs*, a été soumise à la communauté sous le titre Le web sous tensions. Le texte reprend la proposition Tim Berners-Lee de créer une science du web en interrogeant ses enjeux et ses dimensions. Il suggère trois thèmes pour participer à ce débat : le web, un média issu de la tension entre information et communication; une transformation radicale du document dans son passage au numérique : la modification de sa temporalité; l'évolution du web sémantique vers un web de données. La dernière partie s’intéresse à l’émergence d’une nouvelle profession, l’architecte de l’information.

Depuis le 18 février et pour encore quelques semaines, chacun a la possibilité d’annoter cette première version. Une deuxième version, tenant compte des avis, sera ensuite proposée et de nouveau soumise à la communauté pendant une courte période. Un texte définitif devrait être publié le 13 mai et déposé sur une archive ouverte.

La démarche s’adresse aux experts qu’ils soient professionnels ou universitaires : une manière originale de constituer des processus collectifs de réflexion et d'expression scientifique.

* Responsables de la première version et de la synthèse : Bruno Bachimont (UTC-INA), Valérie Beaudouin (Télécom ParisTech), Jean Charlet (Inserm), Dominic Forest (Université de Montréal), Benoit Habert (ENS-Lyon), Jean-Philippe Magué (ENS-Lyon), Yves Marcoux (Université de Montréal), Alain Mille (Université ClaudeBernard - Lyon 1), Vincent Quint (Inria), Jean-Michel Salaün (Université de Montréal - Collegium de Lyon).

Pour lire ou annoter le texte :
https://espacestemps.co-ment.com/text/vsMAqHUTfIi/view/



mardi 15 mars 2011

De l'infini au point

Le web est immense et pourtant d'approche très facile.
Immense car fractal, c'est-à-dire que vu de loin ou de près, sa structure semble aussi compliquée. De plus elle est mouvante, impossible à cartographier.
Facile d'accès grâce notamment aux moteurs de recherche, très conviviaux. Mais pas seulement. C'est surtout grâce à une propriété intrinsèque du web.

Le web contient beaucoup d'informations redondantes, vaguement organisées mais sans véritable plan de classement. En pratique on a souvent l'impression d'en faire rapidement le tour et on se sent rarement "perdu dans l'espace".
En fait le web a un diamètre qui peut se mesurer. Laszlo Barabasi (1) l'a fait en 1999 : il est de 19 liens. C'est la plus longue distance entre deux liens hypertextes.

A l'intérieur du web sont apparus de petits webs : les plateformes de partage, les réseaux sociaux. Leur diamètre est de 5.67 pour FlickR, 5.10 pour YouTube par exemple (2). C'est-à-dire qu'ils sont plus petits. Et la politique ouvertement affichée de ces sites est de se rapprocher d'un diamètre 1 : chacun est directement relié à tout, en permanence. On est tous amis, on aime tous les mêmes choses. La qualité fractale du web initial disparaît : plus on se rapproche, plus la dimension se réduit.

Il y a un risque d'uniformité, de perte de la richesse et de la diversité des origines. Les sites sociaux nous invitent à aller voir ce qu'ont vu nos amis : les chemins se transforment en ornières dont on ne peut sortir. Une enquête montre qu'aux États-Unis, une page sur quatre est générée par Facebook : une fois sur quatre on va voir ce qu'ont vu nos amis. Enfermement consenti.

Dommage, car le chemin compte au moins autant que le but. Qui n'a jamais fait un détour
pour le simple plaisir de la vue ? Et il est bien connu que le meilleur moyen de faire des découvertes est de changer de chemin quotidien. Cette fameuse sérendipité !

(1) Barabasi, A.-L., Jeong H. Albert R., "The diameter of the World Wide Web", pp.130-131 in Nature, 401, 1999
(2) Alan Mislove, Massimiliano Marcon, Krishna P. Gummadi, Peter Druschel and Bobby Bhattacharjee. 2007. Measurement and analysis of online social networks. In Proceedings of the 7th ACM SIGCOMM conference on Internet measurement (IMC '07). ACM, New York, NY, USA, 29-42.

Source : http://affordance.typepad.com/mon_weblog/2010/12/le-web-un-point-cest-tout-.html

La disparition de Persée ?

Depuis plusieurs jours, une nouvelle se répand : la disparition de PERSEE.

PERSEE est un programme de numérisation, de traitement documentaire, de diffusion et de valorisation scientifique mis en oeuvre conjointement par l'Université Lyon 2, le Centre Informatique Nationale de l'Enseignement Supérieur, et le ministère de l'Enseignement Supérieur et de la Recherche après la signature de deux conventions le 15 mars 2003.
Ce programme emploie 4 fonctionnaires et 12 personnes à temps plein (contractuels ou vacataires). Il dispose également d'un budget annuel de 500 000 euros. Ainsi, il permet la consultation et le téléchargement gratuit de plus de 350 000 documents par les chercheurs et les étudiants. L'année 2010 compte plus de 3.6 millions de documents téléchargés et 19.6 millions de consultations.

Alors pourquoi une telle nouvelle?
Une pétition, lancée ce mois-ci, explique que l'Université Lumière Lyon 2 a décidé, le 7 février 2011, sans aucune concertation préalable avec le personnel et la direction de PERSEE, le comité de suivi de PERSEE, le ministère de tutelle, les organes institutionnels de l'Université (CTP, CS, CA), de mettre fin à la convention-cadre soutenant l'existence du programme le 10 mai 2011.
Cette décision serait motivée par le continuel déficit du programme depuis 3 ans à hauteur de 315 023 euros entre 2007 et 2009.

Les conséquences d'une telle fermeture:
1. Fermeture d'un portail utilisé par des millions de chercheurs et d'étudiants.
2. Perte d'un important capital technique et l'arrêt du développement des savoir-faire spécifiques au programme.
3. Suppression d'emplois

Toutefois, ce fait alarmant n'est qu'une fausse alerte.
Sur le site de l'Université de Lyon 2, le président affirme que PERSEE ne s'arrêtera pas.
PERSEE "change simplement de porteur". Le programme ne sera plus rattaché à l'Université de Lyon 2, mais au Pôle de Recherche et d'Enseignement Supérieur (PRES) de l'Université de Lyon. Il aura le soutien du Ministère de l'Enseignement Supérieur et du CNRS.
Cette décision a été votée le 1er mars 2011 avant que la signature du prochain contrat quinquennal 2011-2015 à la fin mai-début juin de cette année. Cette décision permet, dès lors, d'engager des discussions afin de mettre en place le transfert du programme.

Enfin, même si l'arrêt de PERSEE était prévu, l'Université de Lyon 2 n'est pas en mesure de décider de cela seule. Elle ne fait pas partie du comité de pilotage du programme; elle ne participe pas à la nomination du directeur du programme; les bilans ne lui sont pas transmis; et elle ne gère pas la politique d'orientation de Persée.

Persée existe et existera encore.

Source:
- Mise au point concernant la situation du programme PERSEE, Université Lumière Lyon 2.
- Pétition contre la fermeture du programme Persée
- Article de Cécile Mazin sur Actualitté.com: Lyon abondonne la bibliothèque numérique PERSEE.

vendredi 11 mars 2011

La France de l'Open data

Depuis la directive du 17 novembre 2003 publiée par le Parlement européen et le Conseil au Journal Officiel de l'Union européenne, l'ouverture des données publiques gouvernementales et leurs réutilisations sont à l'ordre du jour dans l'union.

Quelques pays ont déjà ouvert leurs données publiques comme l'Espagne, la Norvège, la Suède, l'Italie, les Pays-bas, l'Allemagne ou encore la France.
L'Open data en France

En France, l'ouverture des données publiques a débuté par des initiatives de certaines collectivités territoriales et locales.

Le 23 février 2010, Rennes métropole, la ville de Rennes et Kéolis Rennes (exploitant du réseau Service des Transports de l'Agglomération Rennaise (STAR) et de véloStar) annonçait conjointement l'ouverture de leurs données publiques respectives, via un communiqué de presse. Ces données sont accessibles depuis le 1er mars 2010 sur data.keolis-rennes.com.
Ces données sont à destination des usagers et des développeurs qui souhaiteraient s'en servir pour proposer de nouveaux services au grand public.

Le 27 janvier 2011, c'est au tour de la ville de Paris de lancer sa plateforme de consultation Paris data.

Nantes et Bordeaux sont sur le point d'ouvrir également leurs données alors que d'autres villes françaises sont en cours de réflexion pour rejoindre le mouvement.

Ces initiatives locales se sont finalement transformées en projet de l'État français. En effet, le 21 février 2011 un décret fut publié annonçant officiellement la création de la mission Etalab dans le cadre de "France numérique 2012". Elle aura pour objectif de créer un portail unique de consultation des données publiques des ministères et des collectivités territoriales en vue de communiquer "l'ensemble des informations publiques de l'état, de ses établissements publics administratifs et, si elles le souhaitent, des collectivités territoriales et des personnes de droit public ou de droit privé chargées d'une mission de service public".

Rendez-vous d'ici à 2012 pour pouvoir tester le portail des données publiques de l'État français.














jeudi 10 mars 2011

Organisez vos données personnelles : l’essentiel du Personal Knowledge Management

Submergé par les dizaines de mails quotidiens qui arrivent sur votre messagerie électronique? Impossible de retrouver les fichiers mp3 du dernier CD que vous vous êtes acheté? Pire, la copie du rapport que vous avez ramené à la maison pour le finir durant le week-end? Vous n'arrivez plus à maintenir à jour votre agenda électronique? Vous avez un profil facebook et viadeo, un compte twitter, et vous avez mis tous vos sites favoris en marque-page sur votre navigateur pour rester à la pointe de l’information, mais vous avez néanmoins l’impression d’être toujours le dernier à savoir ce qui se passe? Si vous vous êtes reconnus en lisant ces interrogations, alors je ne peux que vous conseiller la lecture de l’ouvrage Organisez vos données personnelles - L’essentiel du Personal Knowledge Management aux éditions Eyrolles.

A l’origine de ce livre, trois professionnels du management de l’information : Xavier DELENGAIGNE, spécialiste de la veille et de la cartographie de l’information, Pierre MONGIN, expert en cartes heuristiques, et Christophe DESCHAMPS, plus connu sous le pseudo Crid sur Twitter et auteur du blog Outils Froids.

Ils ont mis en commun leur approche personnelle du traitement de l’information pour nous permettre de faire face à l'abondance d'informations que nous gérons au quotidien. L’intérêt de ce livre est double :

- Tout le monde peut apprendre de ce livre. En effet, il ne s’adresse pas uniquement aux personnes ne maîtrisant pas les outils Web 2.0. Les personnes ayant grandi dans un environnement numérique et pensant avoir une excellente connaissance et usage du Web, des smartphones, des réseaux sociaux, etc. découvriront que la maîtrise technique est nécessaire mais pas suffisante. Une réflexion sur leurs usages de l'Internet, sur l’information qu’ils manipulent et la façon dont ils l'utilisent s'impose, et cet ouvrage les aidera grandement dans ce travail laborieux à première vue, mais vitale à l’époque où nous possédons une identité physique et une numérique ;

- Il ne faut pas se tromper sur le titre. Données personnelles ne sont pas uniquement les photos de familles, la musique, les vidéos ou relevés bancaires numériques que nous avons sur notre ordinateur personnel. Les données que nous collectons au travail le sont également, et les stratégies de management de l'information que nous mettons en place sur le plan personnel peuvent tout à fait s'appliquer à notre activité professionnelle, permettant ainsi de gagner en temps et en efficacité. Enfin, cet ouvrage peut également servir d’outil de base à une petite structure (très petite entreprise, association, etc.) qui souhaiterait mettre en place un politique de gestion des connaissances sans faire appel à des outils payants.

Un livre donc indispensable aussi bien pour sa vie personnelle que professionnelle afin de ne plus subir l’information, mais d'en profiter pleinement.



Rencontre à Bruxelles des professionnels de l'information : Etude "Métiers" ADBS

Le 28 janvier dernier, l'ABD-BVD (Association belge de documentation) a reçu à Bruxelles l'ADBS pour une rencontre interprofessionnelle. Cette journée s'est déroulée en trois temps, à commencé par une présentation de l'enquête métiers ADBS. Elle visait à faire un état des lieux de la profession, mais aussi à dégager un support de réflexions. Les tables rondes qui ont suivi, ont confirmé les évolutions métiers en France et en Belgique. Enfin, dernier temps fort, la présentation des activités documentaires du Parlement Européen, où là encore on constate des évolutions, amenant à la mise en place de knowledge management.

Pour en savoir plus sur cette journée des métiers de l'information, les échanges et l'étude "Métiers/Salaires" :

http://www.adbs.fr/quand-des-documentalistes-belges-et-francais-se-rencontrent-ils-parlent-metiers-99446.htm?RH=1227533334193

Le projet Azahar ou la notion de médicament technologique

"Adoucir la vie des autistes en réduisant leurs angoisses à travers de nouveaux outils numériques", telle est la mission que se donne le groupe de travail "autisme et difficulté d'apprentissage" de l'université de Valence (Espagne).
Azahar a vu le jour en 2009 grâce à la création de la fondation Adapta qui s'occupe de récolter des fonds et d'établir des partenariats pour le développement et la pérennité du projet. Par exemple, un partenariat établi avec la fondation Orange a permis de traduire des applications en français et en anglais. L'objectif des recherches est de créer des applications sur de nouveaux outils numériques (téléphone, tablette, ordinateur, etc. ) pour améliorer les conditions d'apprentissage et le quotidien des autistes. L'équipe est actuellement dirigée par Javier Sevilla et se compose d'informaticiens, de dessinateurs industriels, de psychologues et d'éducateurs.

Les autistes, enfants et adultes, présentent des troubles de l'attention, de la communication et de l'interaction sociale. Cela engendre une hypersensibilité et une difficulté de l'appréhension de la société et plus particulièrement du milieu éducatif "Il [l'autiste] se sentira constamment agressé par la multiplicité des bruits, des odeurs et des mouvements, ce qui peut l'angoisser, voire le faire souffrir physiquement". Mercy Pilkington met en avant le contraste entre un environnement d'apprentissage "classique" et la possibilité d'une isolation devant un support technologique, cette comparaison met en avant l'aspect apaisant et stimulant du support numérique. Les nouveaux outils technologiques avec leur ergonomie épurée (présentation simplifiée, souvent en noir et blanc, moins d'interaction tactile qu'avec un objet conventionnel tel qu'un livre, etc.) et les possibilités d'interaction adaptable offertes apparaissent comme des supports privilégiés pour l'apprentissage et le repérage.
Ainsi, Anne-Laurence Margérard assimile les ebooks à des "médicaments technologiques", elle propose un bilan du projet, qui a maintenant un an, et met en avant un exemple: 5 des 10 applications prévues ont été développées dont "Tic-Tac" une application qui permet d'évaluer le temps qui passe. La majorité des autistes n'ont pas de repérage dans le temps, ce qui peut devenir une source d'angoisse, "Tic-Tac" propose des repères visuels simples (sablier, barre de progression ou horloge) qui leur permettent de se positionner dans leur quotidien et de se rassurer.

Actuellement évalués auprès de 8 autistes, les résultats sont probants : améliorations au quotidien, moins de crise d'angoisse, meilleur apprentissage et communication.

Ces nouveaux outils ont de plus l'avantage indéniable de coûter moins cher que les appareils spécialisés utilisés jusqu'à maintenant, donc plus accessibles aux familles, mais ils restent limités à la technologie Windows.

Le projet est aussi mis en avant et reconnu par les associations, par exemple : le Centre de Ressources Autisme Ile-de-France présente Azahar dans son bulletin de novembre 2010.
Vous pourrez suivre toutes les actualités du projet et son développement grâce au site français Azahar et à leur compte Twitter.

mercredi 9 mars 2011

Optimiser son réseau professionnel avec LinkedIn

LinkedIn est un réseau professionnel en ligne qui revendique actuellement plus de 90 millions de membres dans plus de 200 pays, dont 20 millions en Europe et environ 2 millions en France. L’un de ses principaux concurrents est Viadeo avec 35 millions d’utilisateurs dans le monde dont environ 4 millions en France.

LinkedIn permet de :
- Reprendre contact avec d’anciens collègues
- Booster sa carrière en prospectant par son réseau pour trouver un poste
- Consulter des experts

Il propose ainsi une multitude de services et d’outils complémentaires, gratuits ou payants, qui permettent d’organiser, de qualifier ses contacts, mais aussi de se promouvoir et de s’informer.
Plusieurs fonctionnalités innovantes sont parues tout dernièrement et permettent de tirer encore davantage profit de LinkedIn.

Year in review : découvrir l’actualité de son réseau

Year in review génère la liste des relations de son réseau ayant modifié leur profil (nouveau poste, nouvelle entreprise, autres updates).
Il permet aux utilisateurs de suivre l’actualité et les évolutions de leur réseau.

Source : http://parfrancis.blogspot.com/2011/03/trois-nouveaux-outils-pour-tirer_07.html

LinkedIn Skills : mettre en valeur ses compétences

Avec LinkedIn Skills, les utilisateurs peuvent désormais ajouter des compétences particulières à leur profil en précisant leur niveau ainsi que la durée de leur expérience dans le domaine.

Pour rechercher une compétence, pour les recruteurs ou les utilisateurs, il suffit de se rendre dans le menu « Plus » puis dans « Compétences ». Il faut ensuite taper la compétence et LinkedIn trouve dans sa base de données une description de cette compétence, les compétences liées, une liste de personnes et de groupes ayant cette même compétence, les professionnels du secteur ainsi que les entreprises spécialisées dans ce domaine. Des postes à combler dans ce champ d’expertise sont également accessibles.

L’intérêt de cet outil est d’identifier et de mettre en valeur ses atouts et de voir les atouts que ses compétiteurs possèdent. Il est utile de s’inspirer de la base de données pour trouver des compétences similaires à ajouter à son profil.

Source : http://www.affluences.ca/linkedin-lance-linkedin-skills/

In Map : visualiser son réseau sous forme de carte interactive

In Map est un produit qui permet de créer la « social map » de son réseau professionnel dès que l’utilisateur a plus de 50 relations et si 75% de son profil est complété. Les couleurs des contacts et des liens correspondent à différents types de relations : employeur actuel, anciens collègues, collaborateurs, ancien employeur, anciens camarades de classe, etc. En cliquant sur un contact, son profil s’affiche à droite de la carte et les liens qui l’unissent à l’utilisateur sont mis en valeur sur la carte.

Cartographie sociale de LinkedIn


Source : http://www.christianamauger.com/creez-une-carte-de-votre-reseau-professionnel-linkedin-avec-inmap

Signal : rechercher et filtrer des articles partagés

Cet outil a trois grandes fonctions :
  • Rechercher et filtrer des articles partagés et des Tweets. Pour cela, Signal s'appuie sur 8 filtres de recherche dynamique : réseau, industrie, entreprise, date de publication, critère géographique, école, ainsi qu'un filtre pour les hash tags les plus populaires.
  • Enregistrer la recherche et y revenir plus tard pour voir les dernières mises à jour sur ce sujet
  • Consulter les articles les plus populaires du secteur.
L'un des exemples d'utilisation de cette fonctionnalité est l'intégration d'un flux Twitter dans l'application, qui permet par exemple de suivre séparément les messages twittés par les membres de son réseau LinkedIn.

Signal devrait nettement améliorer les possibilités de veille d'informations sur LinkedIn. Par ailleurs, il préfigure l'arrivée de nouveaux outils basés sur la recommandation sociale sur le réseau professionnel.

Source : http://www.commentcamarche.net/news/5853248-avec-signal-linkedin-se-transforme-en-outil-de-veille


Etre en veille avec LinkedIn : créer des alertes

LinkedIn permet de créer des alertes et de recevoir en « push » les infos qui vous intéressent. Il suffit pour cela :
  • D’entrer une requête dans le module de recherche.
  • De préciser sa catégorie (personnes, entreprises, groupes, etc.) en cliquant sur le menu déroulant à gauche (« Personnes » est sélectionné par défaut) ou cliquer sur « Avancé » à droite de ce même module, si on souhaite ajouter des critères à sa recherche. On peut également affiner à nouveau les résultats de sa requête en utilisant les filtres proposés par LinkedIn (lieu, formation, entreprise actuelle, etc).
  • D'enregistrer sa recherche lorsque l’on est satisfait du ciblage de la recherche
  • De choisir de recevoir ces alertes toutes les semaines, tous les mois ou jamais.
Les requêtes enregistrées sont dans l’onglet « Recherches sauvegardées ».

Pour aller plus loin dans la veille avec LinkedIn : http://oeil-au-carre.fr/2011/03/01/cas-pratique-etre-en-veille-avec-linkedin/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+LoeilsurleNet+%28L%27Oeil+au+Carr%C3%A9%29&utm_content=Netvibes

Consulter LinkedIn depuis son IPhone

La dernière version V 3.0 permet de rechercher un membre de LinkedIn parmi les 55 millions d'utilisateurs dans le monde en situation de mobilité, directement depuis son iPhone.

Elle intègre le temps réel avec une fonction de mise à jour, grâce à laquelle on obtient les dernières informations de son réseau avec la possibilité de les commenter directement depuis l'iPhone. Parmi les autres nouveautés : la possibilité d'envoyer des messages et des invitations à d'autres membres, celle de rapatrier ses contacts dans son répertoire d'iPhone et une nouvelle interface de profil qui intègre principalement un résumé des informations relatives à l'utilisateur, à son expérience et à son réseau.

Source : http://www.les-infostrateges.com/actu/1001878/linkedin-lance-son-application-v30-pour-iphone

Tous ces outils font de LinkedIn un réseau professionnel actif et incontournable, notamment lorsque l'on est en recherche d'emploi.

Pour s’inscrire, si ce n’est pas déjà fait : http://fr.linkedin.com/
Les fonctions de base (inscription, profil, recherche de membres par nom, ajout de contacts, participation aux hubs ou groupes de discussion) sont gratuites, mais les fonctions les plus avancées sont payantes et nécessitent la souscription d’un abonnement : recherche de membres par nom d’entreprise ou par fonction, envoi d’un mail à une personne qui n’est pas un contact direct, mise en relation par le biais de la chaîne de contacts, connaissances des personnes ayant consulté votre profil.

lundi 7 mars 2011

Salon Documation 2011

Le salon Documation est encore de retour cette année pour sa 17ème édition. Il se tiendra les 23 et 24 mars au CNIT de la Défense.
Ce salon est centré sur les acteurs de la gestion de l'information et des documents. Il regroupe près de 150 exposants (éditeurs, prestataires, fournisseurs, SSII) et espère attirer plus de 6000 professionnels du secteur (comme cela fut le cas l'année passée).

Plus d'une centaine de conférences sont prévues tout au long de ces 2 jours. Le programme est accessible depuis le site web officiel du salon.
25 thèmes seront présents (à la fois au niveau des exposants et des sujets de conférence) :
  • Archivage
  • Business Process Management
  • Certification
  • Dématérialisation
  • Digital Asset Management
  • Edition, formation
  • Editique
  • Etudes et Conseil
  • Gestion de catalogues
  • Gestion de contenus
  • Gestion de documents
  • Intranet, Portail d'informations
  • Knowledge Management
  • Lecture automatique de documents (LAD)
  • Management de projet
  • Moteur de recherche
  • Open Source
  • Output management
  • SAAS
  • Sécurité
  • Sûreté de l’information
  • Traduction, contenus multilingues
  • Travail Collaboratif
  • Veille, Intelligence économique
  • Web 2.0
Le site du salon propose un panorama de l'ensemble des produits et services qui seront présentés. Ce choix peut s'avérer judicieux afin que les visiteurs puissent déjà se mettre au courant de ce qu'ils vont découvrir.

Quelques évènements...

Le salon va également être le théâtre de la remise du prix E-Doc Awards (concours organisé par la FedISA, association spécialisée dans le domaine de la dématérialisation). Celui-ci est décerné à toute entreprise ayant développé ou mis en place un processus de dématérialisation de documents (entendez ici le mot "dématérialisation" au sens du passage du papier vers le numérique).
Les projets sont examinés par un jury spécialiste du domaine (constitué de sept professionnels). Le prix sera décerné à trois lauréats, la sélection se basant d'après leurs réponses aux critères demandés (originalité, conformité, sécurité, gains, évolutivité et interopérabilité). Vous pouvez vous référer au Règlement du Concours pour plus d'informations.

A noter également la présence pour la deuxième année consécutive du Village SharePoint Project. Cet espace sera le lieu de rencontre d'avec les solutions de gestion d'information et de documents développées par Microsoft. Ayant rassemblé près de 2000 visiteurs l'année précédente, le "Village" joue de sa notoriété : un stand d'accueil, un bureau de rendez-vous, des stands de présentation et une salle de conférence d'une capacité de 35 personnes. Tous les atouts seront réunis pour attirer une foule adepte des produits du leader de l'informatique.

Si vous avez besoin d'informations complémentaires pour votre visite, n'hésitez pas à vous rendre sur le site du salon (Informations Pratiques). Et n'oubliez pas de commander votre badge! Bon salon!

dimanche 6 mars 2011

Les licences nationales discutées au sein du GFII

Depuis décembre 2010, un groupe de travail du Groupement français de l’industrie de l’information est consacré à la problématique des licences nationales. Y sont représentés des acteurs majeurs du marché de l’information et de la connaissance : Reed Elsevier, Ebsco, Thomson Reuters, Swets, TSP Diffusion, Lavoisier, Cairn, l’INIST-CNRS, HEC, ainsi que l’INTD-CNAM (en la personne de G. Chartron, directrice de l’Institut).

Rejoints en janvier 2011 par Couperin, l’ADBU et l’IABD, les membres de ce groupe discutent des aspects économiques, politiques, stratégiques et techniques ainsi que des risques, enjeux et conséquences de la mise en place d’un tel dispositif. Celui-ci revient à acquérir la documentation électronique des établissements de l’enseignement supérieur, des organismes de recherche et des grandes écoles au niveau du pays et non plus au niveau individuel de chaque structure. Une démarche qui se doit d’être inscrite, pour le contexte français, dans un cadre plus large : celui de la LRU et de la réorganisation générale de la recherche française, ainsi que celui de la coordination nationale des acquisitions numériques que met en place le MESR et, plus précisément, la MIST-RD (Mission de l’Information Scientifique et technique et du réseau documentaire qui dépend de la Coordination stratégique et des territoires) [1].

On se rappelle du manifeste commun Couperin-ADBU-AURA qui soulignait, dès mai 2009, les difficultés rencontrées par les établissements de l’enseignement supérieur et les organismes de recherche français et prônait déjà « une politique nationale de l’IST ». Acquérir les ressources numériques au niveau du pays permettrait de desservir l’ensemble de la communauté scientifique, et ce dans un souci d’économie bien sûr – est-il utile de rappeler combien les abonnements aux ressources numériques grèvent les budgets des établissements ? –, mais aussi et surtout d’équité. En effet, l’objectif premier – mais non unique, comme le synthétise très bien Grégory Colcanap dans sa Note sur les licences nationales – est bien de viser une égalité d’accès à l’IST pour tout enseignant et chercheur quel que soit son lieu d’exercice.

Cela dit, au-delà des bonnes intentions, si les membres du GFII s’intéressent de près au programme de licences nationales engagé par le MESR, c’est notamment pour mesurer les éventuels dangers, effets de bord et de structure susceptibles de concerner l’ensemble des parties prenantes du marché. Lieu d’échange, d’analyse et de débat, le groupe de travail est aussi l’occasion pour ses membres de mutualiser les informations, d’étudier et de tirer profit des expériences étrangères en la matière [2] afin d’éviter toute distorsion du marché et, éventuellement, de proposer à terme un certain nombre de recommandations.

[1] Pour aller plus loin concernant la réorganisation du paysage universitaire, la fin de la sous-direction des bibliothèques et les missions de la MIST-RD, lire l’article d’Alain Colas : « Administration centrale et bibliothèques universitaires » paru dans le BBF (n° 6, 2009).

[2] Pour en savoir plus sur l’expérience allemande notamment (sur laquelle se fonde en grande partie le MESR), voir le support de l’intervention de Frédéric Blin au Congrès ADBU : « Les licences nationales : une vision de l’expérience allemande » (18 septembre 2009).