lundi 31 janvier 2011

Norme pour l' archivage/records management

ICA-Req ou « Principes et exigences fonctionnelles pour l'archivage dans un environnement électronique » est une norme internationale publiée par le Conseil international des Archives (ICA) en 2008.

ICA-Req offre une synthèse des travaux existants en matière d'exigences fonctionnelles relatives à la production et à la gestion des documents engageants, à archiver ou archivés électroniquement. Elle prolonge et précise la norme internationale sur le records management, ISO 15489, en parallèle de MoReq2 qui détaille les fonctionnalités des logiciels d'archivage électronique.

La traduction française de ce nouveau texte est maintenant disponible, au moment même où ICA-Req est reprise par ISO sous le titre ISO16175.

L'ensemble des recommandations et des exigences fonctionnelles est organisé en trois modules :

- Module 1 : Contexte et déclaration de principes : contexte, organisation, principes fondamentaux et autres éléments contextuels ;

- Module 2 : Recommandations et exigences fonctionnelles pour les systèmes d'archivage électronique : une déclaration générale de haut niveau sur les exigences essentielles et optionnelles, comprenant des recommandations et une check-list de conformité ; et

- Module 3 : Recommandations et exigences fonctionnelles pour l'archivage des documents dans les applications métier : lignes directrices et exigences principales et optionnelles pour l'archivage dans les applications métier.

Pour faciliter leur diffusion et appropriation, et dans la continuité des travaux de traduction, le projet international « ICA-Req » s'engage maintenant à produire des outils d'aide à la mise en ouvre de ces principes et exigences sur le terrain.

(texte communiqué par Marie Anne Chabin)

samedi 29 janvier 2011

Le prix unique du livre numérique

Le 26 octobre 2010 le Sénat a adopté un texte dans la perspective de l'adoption d'une Loi relative au prix du livre numérique.

Le GFII (Groupement français de l'industrie de l'information) souligne que le prix unique du livre numérique convient aux éditeurs de littérature générale et aux libraires généralistes, mais qu'il n'est pas adapté au marché de l'édition scientifique et professionnelle. Celle-ci regroupe l'édition universitaire, médicale, juridique, technique, informatique ainsi que l'édition d'ouvrages de management. Elle représente aujourd'hui en France plus de 85% du marché de l'édition électronique.
Le Groupement français pense que le régime de prix unique va rendre plus complexe la commercialisation d'abonnements à des collections de documents, et attire l'attention sur le fait que dans le domaine de l'édition scientifique et professionnelle, le prix des licences d'accès aux ressources documentaires numériques fait l'objet de négociations entre éditeurs et clients (clients parfois rassemblés dans des groupements d'achat ou dans des consortia).
Le GFII souligne combien il est important de disposer d'un cadre réglementaire souple, adapté aux particularités de l'édition scientifique et professionnelle et suggère que le texte de Loi soit complété par un alinéa supplémentaire.

La position du GFII sur le prix unique du livre numérique

mercredi 26 janvier 2011

Wikipedia : dix ans déjà

L’encyclopédie en ligne vient de fêter ses dix ans. Deux Américains, Jimmy Wales et Larry Sanger, sont à l’origine du projet. Né en 1966, Wales a fait fortune en spéculant sur la fluctuation des taux d’intérêt et de change. Après avoir travaillé à la création de Bomis, un moteur de recherche spécialisé dans la commercialisation d’images… érotiques, il finance grâce à ce dernier un premier projet d’encyclopédie libre nommé Nupedia pour lequel il embauche Larry Sanger comme rédacteur en chef. Sanger est chargé de coordonner une équipe de rédacteurs pour produire une encyclopédie de qualité comparable aux encyclopédies professionnelles. Le projet Nupedia échoue, mais Sanger lance début 2001 l’idée d’utiliser un wiki pour créer une encyclopédie collaborative en ligne, gratuite, rédigée par des internautes, à laquelle tous, experts ou néophytes, pourraient contribuer, en créant, complétant ou corrigeant les articles. Wales installe alors un moteur de wiki sur un des serveurs... de Bonis, son moteur de recherche érotique, et c’est ainsi que Wikipedia est officiellement lancé le 15 janvier 2001.

Wikipedia est initialement prévu pour permettre aux contributions d’alimenter Nupedia, que son fondateur espère relancer. Cependant, le wiki croît à toute allure et dépasse rapidement les capacités de vérification de Sanger, qui est demeuré rédacteur en chef du projet. Après la démission de Sanger dès 2002, Wales met en place pour soutenir Wikipedia une organisation à but non lucratif, la “Wikimedia Foundation”, qui veille à la promotion du site, à sa croissance et à sa distribution, ainsi qu’à l’hébergement de ses serveurs. La gestion du contenu est, elle, laissée aux internautes. Les nouveaux articles et les modifications de ceux-ci donnent lieu à des discussions souvent enflammées, parfois interminables. Rappelons que ces discussions, tout comme l’historique des articles et de leurs modifications, sont visibles par tous les internautes, et que tout un chacun a la possibilité d’intervenir, de modifier, de corriger, de discuter, de compléter... ou de lancer une procédure pour supprimer une page qu’il trouverait erronée ou inutile.

Dix ans après son lancement, Wikipedia est le cinquième site le plus fréquenté du monde avec 17 millions d’articles et près de 25 millions d’utilisateurs enregistrés. Le français est la troisième langue du site, derrière l’anglais (3,4 millions d’articles) et l’allemand (1,1 million). On dénombre environ 260 000 contributeurs francophones réguliers, et le millionième article en français est paru le 24 septembre dernier. Le premier contributeur français, “Polmars”, a près de 242 000 contributions à son actif. Parmi elles, on trouve essentiellement des corrections, mais aussi plus de 600 articles rédigés dans des domaines aussi éclectiques que la Formule 1, la photographie, l’histoire ou le droit. Dans une récente interview à Slate (1), Polmars avoue écrire de moins en moins d’articles, et se consacrer de plus en plus à ce qu’il nomme la “maintenance” du site, à savoir le classement et la catégorisation des articles, à la “wikification (création de liens vers d’autres articles)”, activités dont il déclare qu’elles lui paraissent “tout aussi importantes que la création d’articles proprement dite et qui semblent quelque peu délaissées par les autres contributeurs. C'est ainsi (qu’il) a été amené à créer plus de 2.000 catégories pour classer les articles et faciliter leur consultation.” Le premier contributeur de France semble avoir pris conscience qu’il ne suffit pas de produire de l’information en quantité : faute d’être organisée, gérée, indexée, celle-ci est rapidement inutilisable. Une vocation de documentaliste viendrait-elle d’éclore ?

La consultation de Wikipedia est devenue un réflexe pour nombre d’internautes. Les élèves et étudiants en usent... et en abusent, à en croire les enseignants, qui déplorent régulièrement l’absence d’imagination de leurs élèves. Ces derniers se contentent souvent de recopier sur leurs devoirs le contenu de l’encyclopédie sans en changer une virgule... et sans imaginer un instant que le “prof” (malgré son grand âge) a, lui aussi, une connexion internet... Sur le blog “le Guide des Egarés”, le professeur-documentaliste Olivier Le Deuff relate qu’il a constaté que tous les élèves présents ce jour-là dans son CDI étaient connectés en même temps sur une même page Wikipedia consacrée à la pile voltaïque : pour un devoir à rendre, ces élèves devaient réaliser un schéma de ce type de pile (2).

Délit de “wikiplagiat”... Même les plus grands n’y échappent pas : le dernier Prix Goncourt s’est ainsi fait épingler, par Slate encore, qui titrait en septembre 2010 : “Houellebecq, la possibilité d’un plagiat”. Vincent Glad y relevait, citations à l’appui, que plusieurs extraits de “La Carte et le territoire” semblaient bel et bien recopiés de Wikipedia (3) .On citera pêle-mêle une description de Beauvais, une description de la mouche domestique, un portrait de Frédéric Nihous... Micro-tempête dans le microcosme littéraire, ferme démenti de l’éditeur, défense nettement plus molle du côté de l’écrivain : il s’agit, dit-il, de l’emploi “d’un matériau un peu rare par son extra-littérarité” et non d’un plagiat (4).

Wikipedia est entré dans les moeurs et dans le langage. Comme le relève Camille Gévaudan sur le site Ecrans de Libération (5), on “wikipide”, du verbe du premier groupe “wikipédier”, on est un “wikipidien”, on est “wikisceptique”... Le site est devenu une institution, et, à ce titre, il est parodié par une Désencyclopédie : humour potache à toutes les pages (âmes sensibles et accros du bon goût s’abstenir), détournement de la charte graphique et des moeurs wikipédiennes (6).

Après ces dix années de formidable expansion, les Cassandre prédisent une nette et récente perte de vitesse pour l’encyclopédie collaborative : le nombre de contributeurs serait en chute libre, notamment en France. Et surtout, les utilisateurs sembleraient se lasser et avoir tendance à ne plus considérer Wikipedia que comme un expédient. Sur son blog, Jean Véronis fait part d’une étude utilisateurs menée en 2010 auprès d’étudiants de l’Université de Provence (7). Il y apparaît que ceux-ci perçoivent de moins en moins favorablement le contenu des pages de l’encyclopédie. Jean Véronis avance plusieurs explications à cette baisse d’agrément : un niveau d’exigence de plus en plus élevé de la part de jeunes internautes nés avec le web, une meilleure maîtrise des moteurs de recherche permettant l’accès à des sites plus “pointus” ou encore une baisse de la qualité des articles de l’encyclopédie...

Même investi par les marques, les entreprises, les spécialistes de la e-réputation, les professionnels de la communication, Wikipedia demeure une de plus belles inventions du web, parce que des milliers de gens y passent du temps sans compter, à partager, à échanger, à communiquer du savoir à tous ceux qui ont la chance d’être équipés d’un ordinateur et d’une connexion. Merci à eux.


Références bibliographiques :

(1) GIRARD Quentin. Polmars, 241.920 modifications de Wikipedia. [en ligne]. Slate, 7 avril 2010.
http://www.slate.fr/story/19537/wikipedia-polmars-contributeur [consulté le 25 janvier 2011]

(2)LE DEUFF Olivier. Wikipedia comme source unique ? [en ligne]. Blog Le Guide des Egarés, 8 novembre 2010.
http://www.guidedesegares.info/2010/11/08/wikipedia-comme-source-unique/ [consulté le 25 janvier 2011]

(3) GLAD Vincent. Houellebecq/ Wikipedia : la possibilité d’un plagiat. [en ligne]. Slate, 2 septembre 2010.
http://www.slate.fr/story/26745/wikipedia-plagiat-michel-houellebecq-carte-territoire [consulté le 25 janvier 2011]

(4) GLAD Vincent. Houellebecq/ Wikipedia : la possibilité d’une méprise. [en ligne]. Slate, 7 septembre 2010.
http://www.slate.fr/story/26933/houellebecq-wikipedia [consulté le 25 janvier 2011]

(5) GEVAUDAN Camille. Wikipedia,bulle de savants. [en ligne]. Liberations Ecrans, 15 janvier 2011.
http://www.ecrans.fr/Wikipedia-bulle-de-savants,11767.html [consulté le 25 janvier 2011]

(6) http://desencyclopedie.wikia.com/wiki/Accueil

(7) VERONIS Jean. Google : de plus en plus de Wikipedia, mais les internautes semblent se lasser. [en ligne]. Blog Technologies du Langage , 02/12/2010.
http://blog.veronis.fr/2010/12/google-de-plus-en-plus-de-wikipedia.html [consulté le 25 janvier 2011]

jeudi 20 janvier 2011

Interstices : subst. masc. Espaces de temps

Interstices, du latin intersare, « se trouver entre », est le nom du site Web que proposent depuis 2004 l’INRIA, le CNRS, les universités et l’ASTI. Il met à la portée du grand public francophone de manière non-institutionnelle les résultats des activités des chercheurs en sciences et technologies de l'information et de la communication (STIC).

Son mot d'ordre : rendre accessibles à un large public les connaissances de la communauté scientifique et faire connaître la variété des recherches menées dans le domaine des STIC. Un comité éditorial préside aux choix rédactionnels des articles (déjà 300 publications). Les documents proposés sont classés par rubrique (résultats de recherche, débats, approches chronologique ou ludique…) et peuvent également faire partie de dossiers thématiques aussi pointus que la robotique, la modélisation numérique, la bioinformatique ou les réseaux.

Des sujets en lien étroit avec l’info-doc
Quel sont les liens avec l'info-doc, me direz-vous ? Pour trouver la réponse, rendez-vous par exemple dans le dossier Algorithme pour lire l’article de Michael Eisermann intitulé « Comment Google classe les pages Web ». Dans ce document, l'auteur explique le type de modélisation auquel Google fait appel pour évaluer la pertinence des pages. Dans la rubrique Débattre, Florent Masseglia propose de revenir sur une « Idée reçue : les premiers résultats de Google sont les meilleurs » et Michèle Battisti sur l'« Idée reçue : Je peux utiliser comme je veux tout ce que je trouve sur le Web ». Le site propose également de visionner une conférence de Michel Serres de 2007 dans laquelle le célèbre académicien part du postulat que « les nouvelles technologies nous ont condamnés devenir intelligents ».

Pourquoi un billet sur ce site aujourd’hui ? Parce qu’il offre une approche différente de celle proposée sur les blogs des « travailleurs du savoir » dont je commence à faire partie ; il offre une ouverture scientifique qui fait du bien et repose face au « torrent de pensées à court terme »… mais là je vous renvoie à l’article de Clive Thomson (en anglais) paru sur le site Wired et c’est une autre histoire.


Interstices : http://interstices.info

mercredi 19 janvier 2011

Réseaux sociaux et révolution : cas de Tunisie

La contestation en Tunisie a été massivement relayée par les réseaux sociaux : Twitter et Facebook ont sans aucun doute contribué à précipiter les événements. Mais quel rôle jouent-ils au juste quand il s'agit d'affronter le pouvoir ?

Dans la situation où l'accès aux sites d'information est bloqué, les médias sociaux permettent de contourner la censure. Les informations factuelles sur ce qui se passe dans les rues y sont diffusées, ainsi que les idées politiques sur la constitution et les partis. Mais ils véhiculent et démultiplient aussi d'autres contenus créatifs, comme blagues, dessins, caricatures, spots musicaux, qui sont tout autant des outils de la lutte. Des milliers d'amis des amis ont remplacé la photo de leur page Facebook par un drapeau tunisien, noir ou maculé de sang (Réseaux de la révolte tunisienne, première partie de La place de la toile, France Culture, dimanche 16/1).

Sommes nous à l'ère du cyberactivisme ? La question a été soulevée lors des manifestations iraniennes et le débat a animé les colonnes des journaux américains à l'automne 2010, autour de la publication de "Small change - Why the revolution will not be tweeted" de Malcolm Gladwell dans le New Yorker. L'auteur y qualifie des amitiés sur internet de liens faibles - les réseaux étant d'excellents outils de participation et de collaboration - par opposition aux liens forts qui caractérisent l'activisme politique : une communauté réelle de personnes déterminées que l'action menée expose à des risques bien réels. Par conséquent, ni Facebook ni Twitter ne peuvent donner la force et le courage de se confronter au pouvoir établi.

Or, en Tunisie, c'est peut-être justement les réseaux qui "(...) ont envoyé les signaux qui ont allumé l'étincelle de la révolte. Ces signaux ont circulé grâce cette multitude de liens faibles que sont les amitiés sur internet" (Idées claires de Julie Clarini sur France Culture, lundi 17 janvier : Réseaux sociaux, gros ou petits changements pour les activistes).

Les liens faibles peuvent-ils mener à de grands changements ? Révolution 2.0 en Tunisie ?

jeudi 13 janvier 2011

La saga Google continue : Google contre l’Europe

Le moteur de recherche Google a moins de 13 ans. Moteur de recherche ? Pas uniquement. C’est aussi de la recherche spécialisée (d’images, de vidéos, d’actualités, d’articles de blogs, d’articles scientifiques etc.), une régie publicitaire, un opérateur mobile, des services (trouver un itinéraire, gestion de flux RSS, outils de travail collaboratifs en ligne etc.), un programme de numérisation de livres…et depuis décembre, une bibliothèque d'e-books. L’entreprise se positionne sur tous les secteurs du marché de l’information avec une tendance au monopole (du moins dans certaines régions du monde).
L’Autorité de la concurrence française a publié le 15 décembre un avis suite à une enquête sur la position dominante de Google pour les recherches sur Internet et pour la publicité en ligne. Parallèlement la Commission européenne a commencé à interroger les poids lourds du Web de l'UE sur les pratiques de Google .


Google vs l’Autorité de la concurrence

L’Autorité de la concurrence s’inquiète principalement de la position dominante du moteur américain. Cette situation centrale a généré des critiques de la part de nombreux acteurs :
  • les moteurs de recherche concurrents estiment que l'hégémonie de Google résulte de pratiques de fermeture du marché.
  • les clients annonceurs ou éditeurs de sites Internet membres du réseau de syndication publicitaire de Google dénoncent, compte tenu de leur faible pouvoir de négociation, les agissements arbitraires et opaques de la firme.
  • la presse, à la fois cliente, partenaire, concurrente et potentiellement fournisseur de Google, s'estime victime de pratiques de parasitisme et de prix prédateurs qui aggraveraient la situation déjà difficile du secteur.
L'Autorité estime que Google est en position dominante sur le marché de la publicité liée aux moteurs de recherche, position qui n'est, bien sûr, pas condamnable en soi mais dont l’excès abusif pourrait être sanctionné. Elle préconise de clarifier les règles « définissant les contenus pouvant être admis sur le service Adwords » (système publicitaire du moteur de recherche qui affiche des bannières publicitaires ciblées en fonction des mots-clés que tape l'internaute).
Parmi les griefs évoqués par la presse, on peut noter le « parasitisme » de Google News qui présente un contenu sur un mode similaire que les sites de presse mais sans avoir à en supporter les coûts de production. Sur ce dernier point, l’Autorité suggère à Google d’offrir aux titres de presse une option de déréférencement de Google News découplée du référencement sur le moteur généraliste.


Google vs la Commission Européenne


Dans le cadre de l'enquête ouverte fin 2010 à l'encontre de Google pour abus de position dominante, la Commission européenne a adressé un épais questionnaire aux plus importants groupes Internet en Europe. Le moteur de recherche est accusé de violation d’abus de position dominante (la loi anti-trust européenne)
La Commission se pose principalement trois questions :
  • Google traite-t-il équitablement ses rivaux dans son référencement ? Google a-t-il volontairement déréférencé ou abaissé dans ses résultats de recherche des services de recherche verticale concurrents
  • Les clauses d'exclusivités AdSense (la régie publicitaire de Google utilisant les sites Web comme support pour ses annonces) ? La Commission s'intéresse à d'éventuelles clauses d'exclusivité mentionnées dans les contrats passés entre Google et les éditeurs. Une partie des questions porte sur la motivation des éditeurs AdSense à accepter de telles clauses d'exclusivité et les gestes commerciaux consentis par Google. Bruxelles cherche enfin à savoir dans quelles mesures ces clauses pouvaient limiter le recours à la concurrence pour les éditeurs.
  • Quels liens entre l'achat de mots-clés et le référencement naturel ? Google a-t-il tendance à minorer le référencement naturel de certains annonceurs pour les pousser à accroître leurs dépenses de search (achat de mots clés) ?
Les acteurs ont jusqu'au 11 février pour répondre.

La suite au prochain épisode…

mardi 11 janvier 2011

Du bistouri à la souris

Les évolutions du système de santé sont à la confluence de la demande sociale et de l'évolution technologique.
L'organisation du système de santé subit l'influence de la décentralisation et de la déconcentration. C'est une véritable gouvernance qui se met en place.
Ainsi l'Agence régionale de santé est à la pointe de la refonte du système. Les collectivités territoriales et notamment les conseils régionaux sont confrontées : à une refonte du système de santé et de protection sociale, à une réorganisation des services de l'Etat, au développement des technologies de l'information, à une menace sur l'égalité d'accès pour la population, à un affaiblissement du contrôle de l'aménagement du territoire et enfin à des problèmes de coordination.
Un chantier est ouvert. Il concerne la télésanté et la téléassistance. Trois systèmes sont en développement : la téléradiologie entre établissements, les plates-formes d'interopérabilité et les
systèmes de surveillance et d'assistance à domicile.

La loi HPST (Hôpital,Patients, Santé et territoires) propose de nouvelles perspectives.
Le décret d'application relatif à la télémédecine a été édicté le 19 octobre 2010.
Article R.6316-7" Les programmes et les contrats [de télémédecine] précisent les conditions dans lesquelles s'exerce l'activité de télémédecine, en tenant compte notamment des spécificités de l'offre de soins dans le territoire concerné".
L'idée générale du rapport est d'aider les autorités locales à construire les futures organisations de télémédecine en liaison étroite avec les tutelles de santé.

Billet écrit à partir d'une étude thématique, rédigée par Philippe OURLIAC le 20 décembre 2010 et mise à jour le 3 janvier 2011, parue sur le site de l'OTeN.

jeudi 6 janvier 2011

22 janvier 2011 - Conférence sur "l’Intelligence Economique en France : Tendances et Avenir"

Conférence sur "l’Intelligence Economique en France : Tendances et Avenir"

Elle se déroulera vendredi 22 janvier à l'école Militaire de 10H à 16H.
Pour y assister et y participer, inscrivez-vous gratuitement en cliquant sur le lien suivant : http://goo.gl/g7tJv

Cette manifestation est organisée par SKEMA Business School et l’Institut National des Hautes Etudes de Sécurité et de Justice (INHESJ), à l'occasion de la rentrée des Mastère spécialisé Intelligence Economique et Management des Connaissances (MS IEMC).

Elle se déroulera sous forme d’exposés et de tables rondes, avec la participation de nombreux professionnels, intervenants et diplômés du MS IEMC.

Cette conférence s'avère être très pertinente pour toutes celles et ceux qui s'orientent vers l'ingénierie documentaire et plus spécifiquement vers des disciplines de veille et le Knowledge Management.

Objectif de la conférence :
  • Aller au-delà du constat et identifier voire proposer des pistes pour le futur
Programme :
  • Face aux défis ; les scenarii du futur pour l’IE française
  • l’information de demain ; la sécurité économique à l’épreuve
  • Intelligence nationale, intelligence territoriale, quel est le bon lien entre l’Etat et les entreprises ?
  • Géoéconomie et influence de demain
  • Le rôle de l’État stratège

Plus d'info, rendez-vous sur le blog de la SKEMA :


mardi 4 janvier 2011

Quand Goldman Sachs et Digital Sky valorisent Facebook.

Selon le New-York Times du 3 janvier, Goldman Sachs (société américaine) et Digital Sky (société russe) ont respectivement investi 450 millions de dollars et 50 millions de dollars dans le site communautaire Facebook. La société de Mark Zuckerberg vaut désormais 50 milliards de dollars devançant ainsi sur le marché eBay, Yahoo et Time Warner. Cette valorisation financière aurait un impact positif sur la crédibilité de la société et lui permettrait de concurrencer Google.com.

L'intérêt que porte Goldman Sachs pour Facebook n'est pas anodin. L'éventuelle introduction en bourse de la société et l'existence d'actions, appartenant notamment aux salariés de Mark Zuckerberg, attisent la convoitise des investisseurs. De fait, il s'est constitué un "marché gris". Des actions se vendent en ligne par le biais des sites sharespost.com et secondmarket.com. La SEC, Securities and Exchange Commission, autorité de régulation du marché de Wall Street a ouvert une enquête. Face à une demande croissante, Goldman Sachs procède à la création d'un véhicule d'investissement uniquement composé d'actions Facebook destinées à ses plus gros clients. Et cela avant même que la société ne soit entrée en bourse. Ces pratiques semblent néanmoins être tolérées.

En agissant de la sorte Goldman Sachs illustre bien l'intérêt que portent les anciennes sociétés pour les nouvelles entreprises numériques. L'enjeu est de taille, l' ancienne banque d'investissement new-yorkaise accède ainsi au monde des réseaux sociaux et de ses cadres dirigeants. Les investisseurs s'allient aux nouvelles technologies afin de conquérir le marché du net.


Les sources :
1er paragraphe :

Leblanc Barbara. Facebook, le site qui vaut 50 milliards de dollars. L'Usine nouvelle, 4 janvier 2011.
http://www.usinenouvelle.com/article/facebook-le-site-qui-vaut-50-milliards-de-dollars.N144176

2ème paragraphe :

Calixte Laurent. Facebook : Goldman Sachs crée l'introduction en bourse privée. Challenges.fr, 4 janvier 2010.
http://hightech.challenges.fr/actualites/20110104.CHA1805/facebook___goldman_sachs_cree_lintroduction_en_bourse_p.html











Payer ou ne pas payer : telle est la question ?

Selon le résultat d'une enquête menée par Pew Internet, 65% des utilisateurs d'internet aux Etats-Unis ont payé pour télécharger ou pour avoir accès à certains types de contenus en ligne. L'enquête diffusée le 30 décembre 2010 et réalisée entre le 28 octobre et le 1er novembre 2010 avec 755 utilisateurs d'internet a proposé la question suivante :
"Avez-vous déjà payé pour accéder ou télécharger quelqu'un(s) des 15 types de contenu en ligne ? "

La consommation des contenus en ligne a été ainsi déclinée :

* 33% des utilisateurs d’internet ont payé pour de la musique en ligne
* 33% ont payé pour des logiciels
* 21% ont payé pour des applications destinées à leurs mobiles ou leurs tablettes
* 19% ont payé pour des jeux en ligne
* 18% ont payé pour des journaux, magazines, articles de journaux, rapports
* 16% ont payé pour des vidéos, films ou émissions de télévision
* 15% ont payé pour des sonneries
* 12% ont payé pour des photos numériques
* 11% ont payé pour des contenus exclusifs aux membres pour leurs sites web
* 10% ont payé pour des livres numériques
* 7% ont payé pour des podcasts
* 5% ont payé pour des outils ou du matériel pour l’usage des vidéos ou des jeux vidéos
* 5% ont payé pour “cheats ou codes” pour les jeux en ligne/vidéos
* 5% ont payé pour accéder à des sites particuliers de services ou de rencontre
* 2% ont payé pour du contenu pour adultes

6% des utilisateurs d'internet ont répondu qu'ils avaient déjà payé pour d'autres contenus qui n'étaient pas compris dans la liste ci-dessus.

Presque la moitié, soit 46%, des internautes a payé pour un ou deux types de contenus listés et 16% en ont acheté six ou plus.

Le montant dépensé par ceux qui ont acheté des contenus en ligne est de 47 dollars par an, y compris les abonnements payants, les accès aux fichiers individuels et aussi le streaming.

De nombreux secteurs des médias sont bouleversés par les perturbations que les réseaux numériques ont créé. La volonté des internautes à payer pour le matériel en ligne a des implications énormes pour les sociétés de médias, créateurs artistiques, et d'autres qui espèrent se maintenir - ou développer de nouvelles entreprises - en augmentant les recettes grâce à des achats en ligne. C'est, donc, à eux d'encourager les 35% manquants !

Source : Bibliomancienne

lundi 3 janvier 2011

Tous au numérique ! Les TICE à l'école : le premier salon EUROMED pour l'Education

Du 21 au 23 février 2011 aura lieu à Tunis le premier Salon EUROMED pour l'Education. Il sera entièrement consacré aux TICE (technologies de l'information et de la communication dans l'enseignement).

Ce salon est une initiative des 5 + 5 Education c'est-à-dire des 10 Ministres de l'Education des 10 pays du pourtour méditerranéen : France, Espagne, Italie, Portugal, Malte, Maroc, Algérie, Mauritanie, Libye et Tunisie. Ils se sont réunis pour la première fois en 2009 à Biarritz pour échanger sur 2 grands domaines d'action relevant du développement numérique à l'école :
- les plans nationaux d'équipement : matériel, logiciel et ressources numériques pédagogiques.
- la formation des enseignants aux usages pédagogiques des nouvelles technologies.

Ils ont finalement abouti à 5 propositions :

- la création d'une charte méditerranéenne d'usage de l'internet à l'école destinée à sensibiliser et responsabiliser enseignants et élèves à l'usage du numérique et de l'internet ;
- la mise en place d'une certification commune des compétences TICE des enseignants qui pourrait s'inspirer de la certification française C2i "enseignant" ;
- la création d'un service d'information et de formation collaboratif pour les enseignants de la région sur l'usage des TIC : Pairform@nce
- la mise en place d'un jumelage électronique méditerranéen avec l'ouverture du projet européen eTwinning, lancée en 2005, aux pays de la zone méditerranéenne ;
- la création de contenus pédagogiques numériques communs.

Ce premier salon EUROMED pour l'Education sera donc l'occasion de rencontres entre tous les acteurs du secteurs et permettra de mieux préciser les besoins dans l'enseignement et de découvrir les nouveautés du marché. Les organisateurs misent beaucoup sur la création de partenariats régionaux pendant le salon pour aider au développement des TICE.

Parallèlement à cette manifestation, les 10 ministres poursuivront leurs réflexions et leurs échanges sur le développement du numérique à l'école, lors d'une réunion qui se tiendra également à Tunis..

Sources et en savoir plus :
www.lematin.ma/Actualite/Journal/Article.asp?idr=116&id=144141
www.euromededucation.com/fr/
www.education.gouv.fr/cid49076/5-5-education.html
eduscol.education.fr/cid49221/pairform@nce.html
www.etwinning.fr/