L’avenir des systèmes d’information géographiques 3D

Nous avons pu voir que l’essor de la cartographie 3D est assez récent et ce domaine est en pleine évolution. On remarque plusieurs tendances dans cette évolution.

Un logiciel unique :

Au lieu d’avoir un logiciel pour le SIG, et d’autres pour la CAO (Conception Assistée par Ordinateur), la BI (Business Intelligence) ou la gestion de l’ERP (Enterprise Resource Planning : progiciel de gestion intégré), la normalisation des formats des données permettra de développer des SIG 3D s’intégrant au cœur du système d’information d’une entreprise.

Rassembler toutes ces fonctionnalités dans un seul logiciel permettra non seulement de faire des économies de temps, comme l’utilisateur n’aura plus à jongler entre les différents logiciels, mais aussi et surtout, ce logiciel unique ouvrira la porte à des usages nouveaux, à l’interface de ses différentes composantes, sources de nouvelles richesses.

Utilisation d’internet :

Internet offre plusieurs capacités qui pourraient être utilisées par un SIG : plateformes de Cloud, architecture de services web, appareils mobiles connectés, nouveaux contenus, nouveaux capteurs, Big Data, … C’est ainsi qu’en 2013 on a pu voir apparaître ArcGis Online, plateforme géospatiale sur le Cloud. Esri a aussi mis en place ArcGis for Server, un moyen de diffuser des services web à des applications web, mobile et bureautique associées au SIG, qui permet aussi d’intégrer les Big Data au SIG.

Avec le développement du Web 2.0 et le principe du crowdsourcing, l’implication et la participation des utilisateurs est un aspect prometteur dans la cartographie libre sur Internet. En proposant des outils de développement adaptés et en facilitant la publication de données Open Data, une communauté d’abonnés peut se former, et les utilisateurs peuvent alors mettre en commun un grande quantité de contenu. L’exemple le plus connu dans le domaine de la cartographie est OpenStreetMap qui se limite aux données 2D. Les données 3D, de par leur complexité et l’absence d’une norme, ne sont pas encore adaptées à ces usages participatifs, mais la normalisation des formats ouvrira probablement la voie à des cartographies 3D participative, au moins pour les premiers niveaux de détail.

Par ailleurs, dans la base de brevets mondiaux de l’INPI (Institut National de la Propriété Industrielle),  on trouve des brevets reliant SIG 3D et l’Internet des objets (CN203165208 (U), CN202976500 (U), CN202976181 (U), …). L’Internet des Objets (IdO) désigne l’ensembles des données (codes, puces, URL, ..) qui sont rattachées à un endroit ou un objet du monde réel. Ces données sont présentées sous formes d’étiquettes, et présentent un intérêt majeur pour la réalité augmentée, mais aussi pour les SIG 3D, qui peuvent s’en servir pour de nombreuses applications.

L’intégration des smartphones et tablettes :

A l’avenir, on verra sûrement une multiplication des applications multiplateformes : bureautique, smartphone et tablette, avec un renforcement de l’intégration des plateformes mobiles au sein du SIG 3D.

Un nouveau type d’IHM :

Même si l’interaction est souvent à l’aide d’un clavier et d’une souris, on peut aussi envisager une application de réalité virtuelle associée au SIG 3D, qui permet la modification des données avec de nouvelles technologies : gants interactifs, ou détection de mouvements avec la Kinect ou la Leap Motion.

La réalité augmentée :

Les applications de réalité augmentée (RA) sur smartphone et tablette utilisent souvent la position GPS du téléphone, elles peuvent donc facilement intégrer des données issues d’un SIG. Par exemple, on peut créer une application qui ajoute par dessus la scène filmée les anciens bâtiments d’une ville.

La réalité augmentée peut aussi permettre d’explorer une carte 3D en déplaçant une caméra autours d’un support.  On peut voir cela comme un nouveau type d’interaction avec une modélisation 3D.

Exemple : http://www.youtube.com/watch?v=yFwzFby2eNo

Géolocalisation en intérieur :

La géolocalisation en intérieur (indoor positionning) n’en est qu’à ses débuts, avec notamment Indoor Google Maps, mais peut présenter un enjeu déterminant pour certains lieux (aéroports, centres commerciaux, hôpitaux, …).

La géolocalisation en intérieur permettra aussi de cartographier les intérieurs des bâtiment, comme il est actuellement possible de cartographier les extérieurs pour OpenStreetMap en utilisant le GPS du téléphone. Ce système permettra donc de faciliter l’acquisition de données 3D et ainsi permettre l’essor du crowdfounding pour les données 3D.

Sources :

http://www.inpi.fr

http://fr.wikipedia.org/wiki/Internet_des_objets

http://www.arcorama.fr/

http://www.arcorama.fr/2014/01/vous-devriez-aimer-2014.html

http://www.gislounge.com/opinion-future-gis/

Creative Commons License
Ce projet est mis à disposition selon les termes de la licence Creative Commons Attribution-NonCommercial-ShareAlike 3.0 Unported License, par Thomas Brunel et Jules Party.

Le livre électronique : aspects juridiques et modes d’utilisation

Dans l’article précédent nous avons présenté les aspects économiques du livre électronique à travers l’étude des modes de distribution ainsi qu’une comparaison des ventes en France par rapport aux autres pays européens et aux États-Unis. Nous allons dans cet article nous pencher sur les aspects juridiques et sociaux de ses livres électroniques.

Nous allons dans un premier temps analyser la politique controversée d’Apple en matière de fixation des prix des livres électroniques, puis nous allons étudier les contraintes règlementaires influant sur le prix. Enfin nous allons nous pencher sur l’adoption de ces types de livres dans la société ainsi que les nouveaux comportements sociétaux qu’ils ont engendrés.

1-      Apple maître du prix

Durant l’année 2013 s’est déroulé un procès opposant le département de la justice américain contre Apple et 5 principaux éditeurs : Hachette, HarperCollins, MacMillan, Penguin, Simon & Schuster. Ceux-ci sont en effet accusés d’une entente afin de faire monter les prix de vente des livres numériques et limiter la concurrence en forçant les distributeurs à adopter des méthodes identiques de vente. Une procédure similaire a été menée par la commission européenne contre les mêmes acteurs.

Pour comprendre ce procès, il faut revenir à la période pré-2009. A ce moment-là, Amazon est le grand leader sur le marché des e-books, avec une politique de prix agressive. Le modèle de vente négocié avec les éditeurs permet en effet à Amazon de pratiquer les tarifs qu’il désire. Cependant les principaux éditeurs mis en cause dans le procès considèrent que ces tarifs sont trop bas et nuisent à leur marge. Ils trouvent alors comme allié Apple qui va leur permettre de bouleverser le mode de vente des livres électroniques.

En 2009, au moment de lancer le premier iPad, afin de proposer une offre de produits complète et adaptée à ses appareils, Apple souhaite se positionner sur le marché de la vente des e-books. Afin de se démarquer de la concurrence, la firme va proposer un modèle d’agence : les éditeurs choisissent le prix du livre numérique dans une gamme de prix proposée, et Apple se rémunère à hauteur de 30% du prix de vente. Afin d’asseoir leur modèle, Apple et les éditeurs réussissent à imposer une clause obligeant les autres distributeurs à vendre au même prix en leur interdisant toute remise.

Cette stratégie a permis une nette augmentation des prix : les nouveautés sortaient au prix de 13$, alors qu’Amazon avait l’habitude de pratiquer des prix de l’ordre de 10$. Avec le soutien des éditeurs, et grâce au succès de sa tablette, Apple a ainsi pu se tailler une bonne part de marché dans le secteur.

Cependant l’accord de justice trouvé entre certains éditeurs incriminés et la justice américaine propose un dédommagement aux personnes lésées ainsi que la suspension de la clause empêchant les détaillants de vendre à un prix inférieur à celui pratiqué par Apple. On peut donc espérer une plus forte concurrence et finalement que le prix des e-books soit amené à diminuer à l’avenir, au bénéfice du consommateur.

Cette entente sur le prix du livre électronique pratiquée par ces éditeurs et Apple amène à se demander quelles marges de manœuvre possèdent les différents acteurs dans la fixation du prix de vente. Nous allons dans la prochaine partie nous focaliser principalement sur les contraintes existantes en France.

2-      Contraintes règlementaires sur le prix du livre électronique

Depuis le 1er janvier 1982, afin de protéger la diversité de l’offre et le réseau de distribution, particulièrement dense en France, le livre imprimé est soumis à un prix unique quel que soit le mode de distribution et la période de l’année, avec un rabais autorisé pour le détaillant d’uniquement 5%. Afin de soutenir sa distribution, le livre imprimé est aussi soumis au taux de TVA réduit.

Dans le cas du livre numérique, depuis 2011 une mesure similaire permet à l’éditeur de fixer un prix qui sera le même pour l’ensemble des distributeurs. Cependant la loi permet donc à l’éditeur de faire varier ce prix dès qu’il fait varier un paramètre de l’offre (DRM, téléchargement ou streaming, nombre de copies possibles, etc.).

Depuis janvier 2012 le livre électronique est également soumis au taux de TVA réduit. On peut donc noter que les règles sur les livres électroniques rejoignent progressivement celles existantes pour les livres imprimés, ce qui semble cohérent puisque l’on considère des produits ayant le même contenu. Néanmoins la décision d’appliquer un taux réduit de TVA pour les e-books a été remis en cause par l’union européenne : celle-ci considère que le bénéfice du taux réduit n’est ouvert qu’au livre imprimé sur support physique et que le législateur français, en l’étendant au livre numérique, a créé de “graves distorsions de concurrence”. Ce taux de TVA réduit est donc éventuellement amené à évoluer, selon les accords qui seront trouvés entre le droit français et le droit européen.

En définitive, après application de toutes ces contraintes, les livres électroniques se vendent en France 25 à 30 % moins cher que les versions papier. Un prix inférieur à la version physique semble logique, les livres électroniques ne subissant pas les coûts d’impression. En revanche les coûts de numérisation des œuvres ne sont pas négligeables, et il existe un grand nombre de coûts fixes tels que la rémunération de l’auteur, de l’éditeur, du distributeur ainsi que les actions promotionnelles, qui se répercutent de la même manière sur le coût final du livre électronique et du livre imprimé. Cela peut expliquer que la différence de prix ne soit pas aussi importante que les acheteurs puissent l’espérer.

3 – Usages du livre numérique

Le prix des livres numériques est un des principaux freins à l’achat pour les Français. Même si une personne sur cinq affirme avoir déjà lu un livre électronique, les revenus engendrés par le numérique restent très faibles en comparaison des autres pays européens ou des États-Unis. En effet, ces revenus ne représentent que 2,1% du total générés par les éditeurs en France, contre 3% en Espagne où le marché est en forte hausse en raison de la crise qui pousse les lecteurs à se tourner vers les versions numériques – moins chères – de leurs ouvrages, 5% en Allemagne et 15 % au Royaume-Uni. Quant aux États-Unis, ceux que l’on appelle là-bas les ebooks représentent 20% du marché du livre. On pourra cependant remarquer que le marché n’est pas le même : le réseau de librairies étant bien moins dense aux États-Unis, les lecteurs trouvent plus facilement ce qu’ils cherchent en téléchargeant une œuvre numérique sur le site d’un éditeur que dans une librairie.

Cependant, si les Français restent attachés au support papier pour leurs lectures, le numérique se développe également pour d’autres utilisations que la simple lecture d’un roman. Il y a bien sûr les bibliothèques, qui par la numérisation prolongent la vie de leurs ouvrages (l’acidité du papier le dégrade inévitablement au cours du temps) et les rendent plus facilement accessibles. Ainsi la Bibliothèque Nationale de France numérise ses collections, parmi lesquelles des œuvre vieilles de plusieurs siècles, depuis 1990 et les met à disposition sur le site Gallica. Les livres numériques sont également utilisés dans les écoles. Si les manuels scolaires sont encore très majoritairement vendus sous forme papier, la démocratisation des tablettes et la volonté de former tous les élèves à l’outil numérique conduit les établissements à se tourner vers ces nouveaux supports. Les élèves semblent d’ailleurs plus motivés pour lire sur les écrans, que ce soit à l’école ou chez eux, selon une étude menée auprès de 35 000 jeunes en Grande-Bretagne. Enfin, la multiplication des supports numériques conduit aussi au développement des versions informatiques d’autres écrits, tels que les journaux ou les magazines, qui sont de moins en moins lus sous leur forme papier.

Ainsi, même si le roman ou la nouvelle ont encore du mal à se diffuser sous forme numérique en France, le livre numérique est déjà utilisé dans de nombreux domaines et sur de nombreux supports, et sa popularité va certainement aller en grandissant.

 

Sources

http://www.sne.fr/dossiers-et-enjeux/prix-unique-du-livre.html : prix unique du livre

http://www.01net.com/editorial/564130/comment-apple-et-les-editeurs-ont-fait-grimper-le-prix-des-e-books/ : entente Apple – éditeurs

http://www.lemonde.fr/economie/article/2013/10/09/livre-numerique-la-fracture-europeenne_3492453_3234.html : Livre numérique : la fracture européenne par Alain Beuve-Méry

http://www.bbc.co.uk/news/education-22540408 : Young people ‘prefer to read on screen’ (Les jeunes préfèrent lire sur un écran) par Sean Coughlan, analyse d’une étude sur les habitudes de lectures des jeunes Britanniques (en anglais)

http://www.latribune.fr/technos-medias/electronique/20130325trib000755876/les-editeurs-de-livres-scolaires-bonnets-d-ane-du-numerique.html : Les éditeurs de livres scolaires, “bonnets d’âne” du numérique par Isabelle Boucq

http://www.educnet.education.fr/numerique/dossier/lectures/livrelec/aspects-socio-culturels : dossier du portail national éduscol sur le livre numérique

http://www.bnf.fr/fr/professionnels/innov_num_numerisation.html : page du site de la Bibliothèque Nationale de France consacrée à la numérisation

 

Auteurs : Claire Lefeuvre & Félix Lecuyer

 

Encadrant : Didier Lime

 

Licence : Creative Commons - Attribution, Pas d'utilisation commerciale, Partage dans les mêmes conditions

Le poids du Web social

Voici donc notre dernier article sur les API des réseaux sociaux. Comme promis, nous allons exposer dans la première partie de cet article les conditions d’utilisation de Facebook concernant l’utilisation des outils et API pour ensuite ouvrir sur une réflexion sur le web social.

CGU Facebook (Utilisation de facebook plateform)

Nous ne pouvions définitivement pas passer à côté des CGU de Facebook que plusieurs d’entre nous seront vraisemblablement amenés à étudier s’ils envisagent de travailler un jour dans le monde de l’entreprenariat et du web.

Ici, nous nous attacherons donc à décrire la partie concernant l’utilisation des outils et de l’API. En effet, décrire l’ensemble des CGU ne rentre pas dans le cadre de nos articles et d’autres site le font très bien, de manière assez complète comme clubic ou encore numerama.

 

Utilisation des données :

Ce qui nous intéresse ici, c’est la partie “Autre sites web et applications” qui parle plus spécifiquement de l’usage des informations transmises à des applications ou à des sites tiers.

 

Cas des applications :

Lors de votre première connexion à une application facebook, celle-ci demande à avoir accès à vos informations facebook afin de vous identifier. Lorsque vous validez, le réseau social va transmettre l’ensemble des “informations publiques” de votre profil ainsi que “la liste de vos amis”.

 Autant “la liste de vos amis” est un terme assez transparent (liste de toute les personnes que vous avez acceptées en tant qu’amis), autant les “informations publiques” semblent plus obscures. Plus en avant dans cette déclaration on en trouve la définition.

Il est décrit qu’elles contiennent au minimum :

  • votre nom
  • votre photo de profil
  • votre photo de couverture
  • vos réseaux
  • votre sexe
  • votre nom d’utilisateur
  • votre identifiant
  • toutes les autres informations non configurées comme privées (les précédentes étant nécessairement publiques)

Selon la manière dont vous aurez paramétré votre compte, elles auront accès à plus ou moins d’informations sur vous. Dans le cas où une application nécessiterait des droits d’accès plus importants à vos informations comme par exemple à vos photos, elle devra le demander explicitement et il vous revient d’accepter ou non.

 

En revanche, il est possible de désactiver l’accès par des applications à vos informations par l’intermédiaire de l’onglet “Application” du paramétrage de votre compte.

Tant que l’application n’a pas été désactivée, elle pourra avoir accès à vos informations, les mettre à jour et les stocker. Une fois celle-ci supprimée de votre compte, elle n’y a bien entendu plus accès, mais elle garde celles qu’elle a pu collectées sur vous. Il faudra donc personnellement contacter les éditeurs des applications afin de leurs demander de supprimer ces informations.

 

Cas des sites web :

Lorsque vous désirez vous identifier sur un site web via facebook, il existe deux moyens de procéder.

  • soit le site va vous proposer de vous identifier via les outils sécurisés fournis par le réseau social
  • soit celui-ci va utiliser l’adresse mail de votre compte pour le site en question, l’envoyer à facebook (de manière sécurisée) afin de pouvoir associer les deux comptes

Une fois l’authentification faite, le site aura accès aux mêmes informations que les applications.

La présence de facebook peut aussi se faire de manière plus discrète via des modules sociaux tels que des boutons, des cases ou encore des actualités (comme par exemple les boutons “J’aime” ou des champs de commentaires avec votre photo de profil). Le plus souvent ils fonctionnent exactement comme des applications et récoltent les mêmes informations. Mais de son côté, facebook va lui aussi collecter des informations sur le site ainsi que les interactions effectuées via le module social.

 

Déclaration des droits et des responsabilités : https://www.facebook.com/legal/terms

 Cette déclaration regroupe toutes les directives de bonne conduite sur le site et ses applications afin d’assurer une bonne expérience utilisateur.

 Le paragraphe 9 s’intéresse plus particulièrement aux développeurs utilisant les outils et API de facebook.

 Ce paragraphe précise la manière dont doit se comporter le développeur de l’application quant à l’utilisation des données reçues. Il y est précisé qu’il ne peut en aucun cas en faire usage en dehors de son application. Il ne peut en aucun cas les transmettre à un tiers, ni les revendre, ni les conserver après que l’utilisateur lui ait demandé de les supprimer. Afin de signifier clairement à l’utilisateur l’usage qui en sera fait, une politique de confidentialité des données doit être publiée.

Facebook oblige aussi à se conformer à sa politique envers les utilisateurs quant à la mise disposition d’un moyen simple de contacter ou encore de supprimer le lien entre l’application et le compte utilisateur.

Par ailleurs, le réseau social se donne certains droits comme celui de rendre la plateforme regroupant API et outils payante, de modifier l’application par ajout de publicités ou informations diverses, voire même de faire une application similaire à la vôtre…

 N’est décrite ici qu’une partie des conditions d’utilisation concernant les outils de développement car elles sont présentées à travers une dizaine de documents différents. Chaque terme important tel que les informations publiques ou la notion de “personnes de manière à ce qu’elles n’aient plus aucun lien avec vous” ne sont pas redéfinies explicitement mais des liens vers d’autres documents donnent des éléments de réponse et en font une quête intéressante.

 

Vous savez donc maintenant par où transitent vos données et ce qui peut leur arriver (en partie)… mais au final, pourquoi se logue-t-on avec Facebook ? Pourquoi retwittons nous une information ? Pourquoi les plateformes de musiques proposent de se connecter aux réseaux sociaux ? Pourquoi les e-boutiques vous invitent elles à commenter un produit acheter ?

Pour résumer, d’un point de vu développeur comme utilisateur, qu’est ce qui explique cette floraison des api sociales ?

L’un d’entre nous a travaillé durant son stage ingénieur dans l’agence Web Colorz, en tant que chef de projet et au cours des échanges avec les clients, les fonctionnalités sociales des sites étaient souvent abordées. En effet : Le web est passé d’un statut statique à un statut collaboratif, et avec ce web 2.0 c’est un web social qui s’est dessiné. Ce web social s’appuie en effet sur une demande de l’internaute qui souhaite plus de personnalisation et plus de recommandation des autres personnes comme lui.

 Ainsi, on peut voir dans les commentaires des boutiques en ligne un prémice de ces API sociales que des géants comme facebook ont proposé de généraliser en offrant aux créateurs de sites des possibilités d’interconnexions entre différentes plateformes et ce de façon simplifiée.

Intégrer une API social sur son site va en effet permettre à une boutique ou un blogueur de toucher une grande communauté de personnes, de mieux positionner et segmenter son offre grâce aux préférences des profils sur les réseaux sociaux, de fidéliser ses consommateurs en leur proposant de partager des articles ou d’y réagir et enfin de se promouvoir de manière indirecte par ce même partage.

C’est donc une stratégie à part entière, à faible coût et pensée pour cibler son public dans un web où les géants sociaux semblent s’intégrer à tout en dressant une nouvelle table de références des utilisateurs, véritable base de données (ou plutôt fichage de l’internaute) dans laquelle pourront venir piocher les services externes de manière réglementée (comme nous vous l’avons fait comprendre avec l’étude des CGU) et que l’utilisateur continue d’alimenter.

Ce Web social s’immisce ainsi dans notre réseau et même nos navigateurs, en atteste la socialAPI de firefox permettant de donner à notre navigateur une allure “facebook like” en rajoutant la barre latérale bien connue du réseau social où d’autres features liées au contenu des réseaux sociaux.

Il est donc important lors de la création d’un site de penser cette part de sociale comme un plus et une assurance de meilleure audience, si toutefois les réseaux sociaux ciblés sont les bons (professionnel, social, microblogage).

Aristote n’avait semble-t-il pas tort lorsqu’il décrivait l’homme comme “un animal social”. En tout cas, le développement du web semble bel et bien aller dans ce sens.

Nous reviendrons donc dans 2 semaines pour une synthèse sur ces quelques mois dans laquelle nous résumerons les points importants qui traduisent l’évolution de notre pensée vis à vis de cette découverte des API sociales ainsi que le plan de notre rapport.

Sources :

 

Auteurs : Nicolas DAVID & Sylvain PALOMINOS
Encadrant : Morgan MAGNIN
Licence Creative Commons

Quelques outils web utiles pour créer du contenu

TedEd (1)

Le premier des outils que nous souhaitons présenter correspond à la plateforme TedEd. Elle permet d’allier un support vidéo depuis YouTube à un questionnaire que l’apprenant est invité à compléter. Les deux types de questions, fermées comme ouvertes, sont possibles. Il a la possibilité de s’auto-corriger car, après chaque question, l’utilisateur obtient un lien vers la seconde à laquelle la réponse est donnée dans la vidéo.

Le créateur peut également ajouter du contenu supplémentaire pour approfondir le sujet. Enfin, pour chaque vidéo, un espace est réservé pour que les apprenants puissent discuter.

Capturer son écran

Il existe beaucoup d’outils de “Screencast” pour enregistrer ce qui passe sur son écran.

Nous retiendrons d’abord Screencast-o-matic (2) qui est un outil très simplifié mais suffisamment complet pour des usages classiques.

On peut également parler de Screencastify (3) qui est une nouvelle extension pour Google Chrome qui enregistre l’audio et la vidéo dans un onglet de votre choix.

Prezi (4)

Prezi est une application web qui permet de créer des supports de présentation plus dynamiques que des diaporamas classiques. Il est possible d’y intégrer des médias comme des images ou des vidéos YouTube. L’outil permet aussi de créer quelques animations mais surtout il propose une large collection de formes et de dessins permettant de représenter de façon originale vos idées.

Timeline JS (5)

L’appplication web Timeline JS permet de créer facilement des frises chronologiques.

YouTube (6)

Nous en avons déjà parlé à plusieurs reprises dans ce billet. YouTube est un acteur incontournable dans l’hébergement en ligne de vidéos. Il a su s’imposer sur ce secteur en devenant un véritable réseau social. Les outils de création sont très faciles à utiliser même si l’on devient assez vite bloqué pour créer des montages plus élaborés.

Sources

(1) http://ed.ted.com/

(2) http://www.screencast-o-matic.com/

(3) https://chrome.google.com/webstore/detail/screencastify-screen-vide/mmeijimgabbpbgpdklnllpncmdofkcpn?hl=en

(4) https://prezi.com/

(5) http://timeline.knightlab.com/

(6) http://www.youtube.com/

Licence Creative Commons
Projet de veille technologique 2013 – Les outils de création d’un cours en ligne de http://veille-techno.blogs.ec-nantes.fr/ est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 3.0 non transposé par Florent Godard & François Neber

Des langages fonctionnels aux langages multi-paradigmes

Nous avons vu dans les articles précédents les différentes caractéristiques de la programmation fonctionnelle, ses particularités ainsi que les limites qu’elle présente. Dans ce cadre, nous allons voir ce qu’ils apportent au développeur et comment les langages fonctionnels multi-paradigmes (ou hybrides) permettent de contourner certaines limites.

1. D’où vient cette idée ?

Comme nous l’avons remarqué au fil de notre étude sur la programmation fonctionnelle c’est qu’elle fait peur, car elle propose des concepts nouveaux avec un langage nouveau. Ce qui est en train de se passer, c’est que les concepts intéressants découverts grâce à l’approche fonctionnelle sont repris par des langages venant d’autres paradigmes. Finalement, plutôt que d’avoir une rupture dans l’utilisation d’un paradigme plutôt qu’un autre, l’idée est d’avoir une étape transitoire avec des langages multi-paradigmes. C’est à ce titre que des langages comme LINQ, F#, ou Scala ont vu le jour. LINQ est un langage dérivé du C++ qui intègre des concepts de programmation fonctionnelle. Il en est de même pour le langage F# de Microsoft.
L’autre exemple intéressant est le langage Scala. C’est un langage multi-paradigmes : principalement basé sur les concepts de la programmation objet, il utilise des principes des paradigmes objets et impératifs. Ce langage est déjà bien connu, puisqu’il en existe un Framework « Lift ». L’avantage de ce langage est qu’il est basé sur Java et donc qu’il bénéficie de tous les atouts bien connus de ce langage (bibliothèques, multiplateformes, …).

2. Avantages par rapport aux langages fonctionnels purs

Voici une liste de quelques avantages qu’on les langages hybrides :

  • Langage compilé : en général ces langages sont compilés, contrairement aux langages fonctionnels purs. Cela présente un avantage en termes de performance et de rapidité d’exécution.
  • Richesse des bibliothèques : Contrairement aux langages fonctionnels qui ont peu de bibliothèques à l’heure actuelle, les langages hybrides profitent des bibliothèques du langage de base choisi. Par exemple F# qui est intégré au Framework .NET et qui peut accéder à l’ensemble des API de cette plate-forme, ou Scala avec la multitude de bibliothèques de Java.
  • Parallélisme : la plupart des langages hybrides introduit la notion de parallélisme afin d’améliorer les performances et d’accélérer le temps de traitement. F# par exemple manipule bien la notion de multithreading.
  • Clarté syntaxique : contrairement aux langages fonctionnels purs qui ont généralement une syntaxe compliquée, les langages hybrides proposent une syntaxe simple et plus accessible aux développeurs novices.

Ces avantages ont donné un succès rapide aux langages fonctionnels hybrides, en particulier dans l’industrie. La capacité de ces langages de manipuler de grandes quantités de données, amène les langages fonctionnels hybrides à être exploités pour la simulation financière, le calcul scientifique et pour la manipulation de datamining.

3. Différences entre Java et Scala par l’exemple

Nous allons prendre un exemple simple et comparer le code entre Java pur tel qu’on l’apprend à l’école et le code Scala.

L’exemple consiste à découper une liste de personnes en deux listes : les mineurs et les majeurs (le test s’effectuant sur l’âge de l’individu).
Voici tout d’abord le code de la classe Personne :

Java
private class Personne
{
  protected String nom;
  protected int age;

  public Personne(String nom, int age)
  {
    this.nom = nom;
    this.age = age;
  }

  public String getNom()
  {
    return nom;
  }

  public int getAge()
  {
    return age;
  }
 }
Scala
class Personne(nomP: String, ageP: Int)
{
  private val nom = nomParam;
  private val age = ageParam;

  def getNom() = nom;
  def getAge() = age;
}

On voit déjà la longueur du code et la simplicité. La notion de constructeur et de getter sont beaucoup plus facile à coder en Scala. Et la différence ne s’arrête pas là, voici la partie du code qui permet de trier :

Java
List population = new ArrayList();
population.add(new Personne("Pierre", 25));
population.add(new Personne("Paul", 15));
population.add(new Personne("Jaques", 22));

List mineurs = new ArrayList();
List majeurs = new ArrayList();
  for (Personne individu : population)
  {
    if (individu.getAge() < 18)
    {
       mineurs.add(individu);
    }
    else
    {
       majeurs.add(individu);
    }
}
Scala
val population: Array[Personne] = Array(
                           new Personne("Pierre", 25),
                           new Personne("Paul", 15),
                           new Personne("Jacques", 22));
val (mineurs, majeurs) = population partition (_.getAge() < 18);

Nous n’allons pas détailler le code Java qui est assez simple. Cependant, en Scala, tout est fait en deux lignes :

  • Ligne 1 : création de la liste des personnes
  • Ligne 2 : création implicite de deux variables : mineurs et majeurs. Mineurs contiendra la partition de la liste Population dont l’âge est inférieur à 18 et Majeurs le reste de la population.

Cet exemple permet de voir assez rapidement les avantages proposés pas le langage Scala qui est un langage multi-paradigmes.

4. Des limites ?

Nous venons de voir de nombreux avantages des langages hybrides. Il faut cependant faire attention car certains inconvénients ne sont pas négligeables. A commencer par les lacunes dans l’environnement de tels langages. Pour revenir à Scala, nous avons pu lire que les outils d’aide au développement se font rares et que le compilateur scalac est lent. Ce sont donc des notions à ne pas oublier avant de migrer vers Scala.

5. Utilisation dans le monde de l’entreprise

Ces langages hybrides ont déjà une place dans des projets informatiques. Par exemple, depuis quelques années, Twitter remplace certaines applications de leur back-end développées en Ruby par des applications développées en Scala. D’après eux, Ruby est très bien pour la partie front-end des applications web mais est limité en termes de performances pour le traitement des données. C’est une des raisons pour lesquelles ils se mettent à utiliser Scala.
La présence du Framework open source « Lift » depuis 2007 incite les développeurs web à utiliser le langage Scala. Les sites internet openstudy.com, sgrouples.com, ou encore fr.foursquare.com ont par exemple été développés à l’aide de ce Framework.
Le langage F# présent dans la plateforme .NET de Microsoft montre que même les grands de l’informatique se mettent aux langages fonctionnels. Ce langage est utilisé dans de nombreux projets que Microsoft met en avant. Voici quelques exemples pour ceux qui sont intéressés : Cabinet de services financiers ou Grange Insurance (Compagnie d’assurance)

Références :

http://scala-boss.heroku.com
http://scala-lang.org/
http://www.theguardian.com/info/developer-blog/2012/nov/02/functional-programming-scala-the-final-push
http://msdn.microsoft.com/fr-fr/vstudio/gg634701.aspx#Who_Uses_F_sharp
http://www.madrognon.net/informatique/haskell-pour-quoi-faire
http://www-igm.univ-mlv.fr/~dr/XPOSE2011/le_langage_scala/presentation.html
http://blogdesexperts.infotel.com/2013/04/30/la-programmation-fonctionnelle-deferle-sur-java/
http://pro.01net.com/editorial/367047/la-programmation-fonctionnelle-aux-portes-de-lentreprise/
https://github.com/paradigmatic/cours_scala/tree/master/1-Introduction
http://www.scriptol.fr/programmation/scala.php
http://blogdesexperts.infotel.com/2013/04/30/la-programmation-fonctionnelle-deferle-sur-java/
http://www.artima.com/scalazine/articles/twitter_on_scala.html
http://blog.normation.com/fr/2012/04/16/choisir-scala-en-entreprise-est-ce-bien-raisonnable/


Licence Creative Commons Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 non transposé.

L’économie du livre numérique

Suite à nos précédents articles traitant de l’historique, puis du matériel et des technologies existantes pour la lecture de livres numériques, nous allons nous focaliser dans cet article sur les aspects économiques des ebooks. Nous allons ainsi dans un premier temps présenter les principaux modèles de distribution des livres numériques, ainsi que  les acteurs choisissant ces modèles. Dans un second temps nous analyserons la dynamique des ventes du livre numérique en France puis nous la comparerons aux autres pays européens et nord-américains. Nous comparerons enfin le poids des différents acteurs sur ce marché.

1-    Les modes de distribution

Les modes de distribution des livres numériques se regroupent en plusieurs modèles :

Le premier est celui d’une chaîne de distribution entièrement fermée, à l’image d’Amazon et de sa liseuse Kindle : le distributeur de contenu est aussi le vendeur du terminal et les deux sont totalement couplés : il est impossible d’utiliser la liseuse pour lire des fichiers provenant d’un autre distributeur, et les fichiers achetés sur la plateforme ne sont pas lisibles sur les autres types de liseuses. Ce mode de fonctionnement, bien que restrictif pour l’utilisateur, s’avère fonctionner correctement, en raison d’une grande offre de livres numériques qui empêche l’acheteur de se sentir limité dans ses choix par la marque.

Le second modèle consiste pour les éditeurs à recourir à une plateforme externe pour stocker et distribuer leurs ouvrages numériques. Les revendeurs (comme le site internet de la Fnac par exemple) viennent ensuite brancher leur site sur le catalogue du distributeur. Ces prestataires regroupent de nombreuses maisons d’éditions, offrant ainsi un catalogue important et une meilleure visibilité. C’est le modèle privilégié actuellement par les éditeurs, et les principales plateformes françaises sont Eden Livre, Numilog, Immatériel et Editis.

Certains éditeurs moins nombreux choisissent de monter seul leur propre plateforme de distribution. C’est le cas de la maison d’édition Eyrolles, pionnière en la matière, qui a su se placer très tôt sur le marché du livre numérique et dispose aujourd’hui d’une plateforme très bien référencée. Même si elle travaille aujourd’hui avec le distributeur Immatériel, 80% de ses ventes de titres numériques se font sur son propre site. Cette méthode, si elle a l’avantage de laisser à l’éditeur la propriété totale de ses fichiers, reste toutefois plus difficile à mettre en place en raison de la logistique nécessaire et de la concurrence des géants de la vente en ligne. Les maisons d’éditions à se lancer dans cette aventure sont donc peu nombreuses.

Un autre mode de distribution est celui du bouquet d’abonnement. C’est le modèle des revues scientifiques, mais aussi c’est celui que choisissent certains éditeurs, de livres scientifiques, techniques ou de niches, ou encore le modèle utilisé par certains journaux. Il s’agit de plateformes de distribution où l’on accède à un ensemble de contenus pendant la durée d’un abonnement – cela correspond en fait à une vente de licence. Le principal utilisateur de ce modèle dans le domaine scientifique est Elsevier, qui a par ailleurs créé une polémique sur le coût de la connaissance en raison de tarifs d’abonnements jugés trop élevés par les membres de la communauté scientifique.

Enfin le dernier modèle de distribution est celui du monde libre. Il s’agit principalement d’une distribution non marchande (comme pour Wikipedia, le projet Gutenberg…) dont la seule caractéristique commune est de ne se satisfaire d’aucun autre modèle. Il n’y a pas une plateforme dédiée mais de nombreux moyens de récupérer, transférer et partager les documents : contenus disponibles en téléchargement gratuit, peer-to-peer… De même, les formats sont très variés (du fichier texte au pdf, en passant par des documents Word). Même s’il est très difficile d’évaluer son importance, c’est un modèle très présent dont on peut supposer qu’il continuera à concurrencer les modes de diffusions « officiels » pendant encore longtemps.

2 – L’économie du livre numérique

Malgré un marché du livre globalement en recul, les ventes de livres numériques en France sont en très forte croissance. Il y a eu effectivement une augmentation du volume de vente de 80% en 2012. La croissance est donc très forte, mais au final le marché du livre numérique ne représente que 0,6% du marché du livre global.

Pourtant comme le montre la figure 1 – Equipement des français en matériel permettant la lecture numérique, avec 500 000 liseuses et plus de 5 millions de tablettes les français sont plutôt bien équipés en appareils électroniques permettant la lecture de ces livres numériques. Les réticences des lecteurs français proviennent plutôt d’une offre non suffisante ainsi que d’un prix trop élevé par rapport aux versions papiers. En effet les nouveautés ebooks ont un prix inférieur de seulement 30% par rapport à la version papier, un prix qui n’est pas suffisamment attractif pour séduire les lecteurs hésitant à passer à la lecture numérique. Cependant la baisse de TVA sur le livre numérique, qui rejoint le niveau du livre imprimé en passant à 5% en 2014 va rendre les ebooks plus compétitifs.

Graphique présentant l'évolution du matériel disponible en France pour la lecture de livres numériques

Figure 1 : Equipement des français en matériel permettant la lecture numérique

 

En Europe, le livre numérique a plus de succès qu’en France : au Royaume-Uni les ebooks représentent en 2012 8% du marché du livre, en Allemagne déjà 5% et en Espagne 3%. Mais ce sont les Etats-Unis qui sont les plus dynamiques : les ventes sont en forte croissance et le marché du livre numérique représente en 2012 15% du marché total du livre. L’attrait des américains pour les ebooks peut s’expliquer par un réseau de libraire beaucoup moins dense qu’en France : les lecteurs américains ont plus de difficultés à trouver un exemplaire imprimé de l’ouvrage qu’ils cherchent, et sont ainsi amenés à acheter une version numérique plus facile d’accès.

3 – Les acteurs du marché numérique

Nous allons nous focaliser sur deux types d’acteurs économiques du marché du livre numérique : les vendeurs de livre numériques à proprement parler et les vendeurs de liseuses.

La figure 2 présente les parts de marché des principaux vendeurs de liseuses et de livres numériques au niveau mondial. On remarque la forte  présence d’Apple dans la vente d’ebooks : cela vient du fait qu’un grand nombre de personnes utilisent des iPad pour lire les livres numériques, et passent leurs commandes sur le magasin en ligne d’Apple : iBooks.

Globalement on peut remarquer que les principaux vendeurs d’ebooks sont ceux qui ont choisis comme modèle une chaîne de distribution totalement fermée, tels qu’Amazon et Apple. En effet ces marques sont en position de force sur les marchés respectivement des liseuses et des tablettes, et une fois que les utilisateurs possèdent un de leurs appareils ceux-ci se retrouvent obligés d’acheter sur les magasins en ligne proposés par ces marques.

Graphique présentant les parts de marché des différents acteurs

Figure 2 - Parts de marché des vendeurs de liseuses et d'ebooks

 

Finalement, les modes de distribution sont liés et les parts de marché sont liés. Proposer un modèle de distribution totalement fermé se révèle le plus rentable pour l’entreprise car elle gagne de l’argent au moment de vendre l’appareil électronique mais elle touche également une commission importante (généralement 30%) sur toutes les transactions ultérieures. Cependant pour que le client soit prêt à accepter ce modèle il faut proposer une expérience utilisateur très intuitive et des produits attractifs.

 

Sources

http://lafeuille.blog.lemonde.fr/2010/03/29/les-modeles-de-plateformes-du-livre-numerique/ : Les modèles de plateforme du livre numérique, par Hubert Guillaud

http://www.crossmedias.fr/fr/2013/02/les-problemes-que-soulevent-ledition-numerique-comment-evoluer-innover-et-penser-une-nouvelle-edition/ : Les problèmes que soulèvent l’édition numérique : comment évoluer, innover et penser une nouvelle édition ?  par les étudiants du Master Création et Edition Numériques de l’Université Paris 8

http://fr.wikipedia.org/wiki/Elsevier_%28%C3%A9diteur%29 : présentation de la maison d’édition Elsevier

http://www.xerfi.com/XerfiResearch-Distribution_du_livre_face_au_num%C3%A9rique_2DIS46.awp#.UuE2_7RKHIU : une analyse de la distribution du livre numérique

http://lafeuille.blog.lemonde.fr/2010/09/26/bookcamp3-comprendre-le-role-des-plateformes/ : une article expliquant le rôles des plateformes dans la distribution des livres numériques

http://www.lemonde.fr/economie/article/2013/10/09/livre-numerique-la-fracture-europeenne_3492453_3234.html : article présentant les parts de marché du livre numérique

http://www.actualitte.com/legislation/ebook-croissance-de-100-pour-ibooks-avec-20-du-marche-43069.htm :  article présentant les parts de marché des distributeurs de livres numériques

http://www.gfkrt.com/imperia/md/content/rt-france/cp_gfk_cc_bilan_du_march___du_livre_en_2012.pdf : étude GFK – bilan du marché du livre en 2012

 

Auteurs : Claire Lefeuvre & Félix Lecuyer

 

Encadrant : Didier Lime

 

Licence : Creative Commons - Attribution, Pas d'utilisation commerciale, Partage dans les mêmes conditions

Vers une autre utilisation des données Open Data

Avec des phénomènes tels que le big data ou l’Open Data, un des enjeux de demain sera l’utilisation des données qui nous entourent. Si l’exploitation des données Open Data passe la plupart du temps par des applications mobiles, elle peut aussi passer par une visualisation graphique de ces données. Un nouveau mouvement journaliste est même  né : le data-journalisme. Devant l’abondance de données, un certain esprit de synthèse semble primordiale. Nous verrons dans ce billet différentes initiatives de visualisation de données ainsi qu’un approfondissement sur le data-journalisme.

Commençons par certainement la plus originale mais pas forcément la plus utile, le site internet We Are Data, une campagne de publicité virale pour le jeu vidéo Watch Dogs, d’Ubisoft. Le jeu se basant sur la manipulation des données nous entourant (caméra de surveillance, téléphones portables et autres appareils connectés), l’équipe Marketing du jeu a décidé d’agréger les contenus Open Data de 3 capitales (Paris, Londres et Berlin) afin de démontrer que le monde décrit dans le jeu n’est pas si irréel que cela. On découvre alors une autre facette des données, celle de l’information graphique.  Cela passe alors par une vue de nombreuses informations dans une carte interactive des villes (sous forme d’un player flash) : l’affichage des stations de vélos et du nombre de vélos disponibles (via les données libres de JCDecaux), des stations de métro avec même un positionnement de la rame en temps réel (en réalité la RATP ne donnant que les horaires de passage théorique des rames, l’application ne fait qu’une interpolation suivant l’heure actuelle), les positions des antennes téléphoniques, etc.

Le plus intéressant dans cette expérience, c’est la synthèse de multiples informations, qu’elles soient ponctuelles (stations de vélo par exemple) ou étendues (les informations économiques sur les arrondissements de Paris). On peut retrouver la liste des données utilisées par l’application web dans les mentions légales du site.

Il s’agit donc d’une belle représentation graphique des données Open Data et une démonstration de leur diversité.

Revenons maintenant sur l’ ”Open Data Transport”, dont on avait beaucoup parlé lors du précédent article. Pour mémoire, de très nombreuses applications mobiles s’appuient sur des données libres orientées transport (routier, en commun, …). Mais il existe d’autres outils permettant de consulter ces données, et ce de manière plus originales ! Certains vous paraîtront d’ailleurs futuristes, mais tout ceci est bien réel.  

Le premier, le City Dashboard, est tout simplement une page web, sous forme d’un tableau de bord. Il s’agit d’un unique écran présentant différentes données pour la ville de Londres. Ce tableau de bord a été développé par des universitaires londoniens, en s’appuyant sur de nombreuses données ouvertes, toutes en temps réel.
Parmi les données affichées, on peut citer le nombre de trains et bus en service, les perturbations dans le métro, le nombre de vélos disponibles, … mais aussi des données non inhérentes au transport, telles que la pollution de l’air, le temps et la température, le niveau de l’eau, les nouvelles journalistiques, …
La fréquence de mise à jour dépend du type de données, variant ainsi de quelques secondes (pour les photos du trafic routier ou la météo) à 30 minutes (pour les prévisions météo ou la pollution de l’air).
Sachez que tous les éléments de ce tableau de bord sont déplaçables à souhait (tout au moins sur un ordinateur, l’opération n’étant pas possible sur navigateur mobile). Les Londoniens ont ainsi toutes leurs données préférées sous la main, et ce très rapidement. Sans oublier qu’elles sont toutes temps réel. Il est par ailleurs possible d’afficher les données voulues dans n’importe quel lieu public, via un simple écran de PC.

Un deuxième moyen d’avoir accès à des données de tranport : une montre qui vous informe sur les horaires de bus ! “Muni Watch” (tirant son nom du réseau de transport de San Francisco) indique en effet les trois prochains horaires de passage pour l’arrêt de bus le plus proche.
Pour cela, elle communique en Bluetooth avec un smartphone Android, lequel fait tourner le code permettant de récupérer l’arrêt le plus proche et les horaires associés.
Petit bémol cependant, cette montre est un exemplaire unique : émanant d’un hobby personnel, Joe Hughes l’a développée pour lui et lui seul. Ce projet datant de 2009, il est d’ailleurs étonnant qu’aucune montre intelligente n’ait été mis en vente pour le grand public… Est-ce une question économique ? Ou bien un intérêt relativement limité qui n’attire pas le grand public ?

Dans un autre genre, Baptiste Gaultier travaille sur le projet “La boîte” depuis 1 an et demi, à ses heures perdues. Il s’agit en fait d’une petite boîte qui donne l’heure, la météo de demain, le nombre de minutes avant le prochain bus, le nombre d’emails non lus, les tweets, … et ce n’est que la version 0.2 !

Du point de vue fonctionnement technique, la boîte est connectée à un serveur contenant une application web, celle-ci permettant de mettre à jour les boîtes et d’y installer de nombreuses applications. Ainsi, il est possible d’interagir avec le serveur grâce à son ordinateur ou smartphone, afin de modifier les informations affichées par chaque boite connectée au serveur.
Ce projet Open-Source est en ligne sur laboite.cc. Si vous voulez faire un test ou bien aider Baptiste Gaultier, ingénieur R&D rennais, dans son projet, allez y jeter un oeil !

Face à l’émergence des données, les journalistes se sont adaptés et certains se proclament comme étant des data-journalistes. Ce mouvement, particulièrement présent en Angleterre, se trouve une caisse de résonance par le magazine The Guardian qui dispose d’une rubrique dédiée à la mouvance du data-journalism.
Un de ses journalistes, Simon Rogers, est intervenu lors d’un TEDx au Panthéon-Sorbonne en déclarant “Les data-journalistes sont les nouveaux punks”. Il argumente son discours en expliquant qu’être punk, tout monde pouvait le faire, tout comme faire le boulot de data-journaliste. En effet, il a présenté les outils que lui et ses collègues utilisaient pour leur travaux : de simples tableurs à des outils google (ex : Google Fusion Table), les outils sont à portée de main du grand public.
Traiter un tel ensemble de données requiert de prendre du recul mais permet aussi de mieux comprendre le monde qui nous entoure. Simon a ainsi produit une carte des dépenses de toutes les différentes entités du gouvernement anglais. Une information utile mais pourtant bien cachée derrière une myriade de données.

Le data-journalisme, c’est donner du sens aux données.

Dans le même domaine, David McCandless, un journaliste designer, est un des pionniers dans la représentation des données façon graphique. Il a notamment écrit deux livres sur le sujet, regorgeant de pas mal de ses créations (Information is Beautiful est son dernier).
En faisant un tour sur son site, on peut s’amuser avec quelques créations graphiques interactives : on trouve, par exemple, une carte sur les plus grosses fuites de données utilisateurs.

D’un point de vue plus globale encore, on trouve déjà des sociétés de design spécialisées dans la synthèse de données massives. C’est le cas de l’agence, DatavEyes. Que cela soit par la mise en place d’un design interactif (ou non), voire de motion design (graphismes animées en vidéos), la société surfe sur le phénomène et a ainsi pu créer une carte du métro parisien “permettant d’interroger les temps de transports en métro à Paris, et de montrer l’affluence dans les stations de métro parisien.” Vraiment bien faite et qui donne envie de s’y plonger ! Allez donc y faire un tour ! D’ailleurs, en parlant de motion design, l’agence s’est faite une vidéo promotionnelle très sympa qui explique bien l’enjeu de l’exploitation des données.

Enfin, si le sujet du data-journalisme vous intéresse, nous ne pouvons que vous recommander chaudement ce blog de veille : http://jeanabbiateci.fr/blog/ où de nombreux autres exemples sont présentés (comme un sur le match des étoiles sur allocine).

Pour conclure, l’ouverture de données a fait naître de nouvelles vocations ou de nouveaux hobby. On voit ainsi apparaitre de plus en plus d’outils basés sur ces données ouvertes, développés par des particuliers qui y prennent goût. En parallèle, un nouveau métier a vu le jour : le data-journaliste, un journaliste basant ces recherches sur l’Open Data. Et face aux immenses bases de données ouvertes, ces journalistes d’un nouveau genre ont forts à faire !
Il convient d’ailleurs de se demander quelle est la qualité de toutes ces données, dont le quantité croit exponentiellement. On abordera cette question lors du prochain article, en montrant la limite des données mis à jour par les entreprises, collectivités, …

Sources (visitées le 23 janvier 2014) :

http://wearedata.watchdogs.com
City Dashboard
Muni Watch
laboite.cc
Intervention Simon Rogers (TEDx)
Site David McCandless
Agence DatavEyes
http://jeanabbiateci.fr/blog/

Licence :
Licence Creative Commons

Auteurs :
Sébastien COHENDET & Maxime TERRADE

Le collectif Regards Citoyens : militantisme, enjeux et pouvoirs autour de l’Open Data

 Open Data : l’avenir ?

  • Rappel du contexte

Un vieil adage dit que « celui qui détient l’information détient le pouvoir ».

Ainsi, dans la continuité de notre projet de Veille Technologique centré sur le thème “Open Data : L’avenir ?” , nous nous intéresserons ce mois-ci au sujet suivant : “Le collectif Regards Citoyens : militantisme, enjeux et pouvoirs autour de l’Open Data”.

Suivant la logique de nos deux derniers articles («cf article précédent du mois de Décembre : « OpenStreetMap : l’enjeu particulier de la donnée géographique »), nous nous sommes tournés cette fois-ci vers un libriste militant passionné et passionnant : Tangui Morlier.

Président puis vice-président de l’April (Association pour la Promotion et la Recherche en Informatique Libre)  jusqu’en 2013. Il est maintenant membre du conseil d’administration collégial du collectif Regards Citoyens qui milite pour la diffusion et le partage de l’information politique.

Logo Regards Citoyens - CC-BY-SA

NOTE : Discussion téléphonique oblige, les propos que nous attribuons ici à Tangui ne sauraient être leur retranscription exacte et exhaustive.

  • Rencontre avec Tangui Morlier

Tangui Morlier : L‘aventure a commencé bien avant la création du collectif Regards Citoyens (2009) : de formation artistique/informatique, c’est en 2005 suite au projet de loi DADVSI (Droit d’auteur et droits voisins dans la société de l’information) qui punit le contournement des DRM (Digital Right Management) que j’ai rencontré des incompatibilités entre ma manière de travailler et les dispositions prévues dans la loi. J’ai donc décidé d’interpeller les parlementaires et notamment ma député et découvre alors qu’une mobilisation citoyenne peut faire bouger les politiques, et ce, malgré leurs divergences idéologiques. Trois ans plus tard, c’est autour du projet de loi Hadopi (Loi Création et Internet) que je retrouve Benjamin Ooghe-Tabanou. Nous assistons alors aux débats et prennons des notes sur la composition de l’assemblée, les prises de paroles et positionnements des différents parlementaires avant de résumer les séances sur le site deputesgodillots.info.

“ Un godillot est ainsi un représentant élu du peuple qui va se présenter aux débats en séance parlementaire mais ne va participer que de façon mineure dans le seul objectif de voir voter par le législatif exactement ce que l’exécutif souhaite, au mépris de la séparation des pouvoirs établie par la Constitution.” [1]

Tangui Morlier : Notre activité est clairement militante, se développait sur un ton sarcastique et rencontrait un certain succès sur la toile, en particulier nos outils maisons pour “noter” les parlementaires. Interpellés par des lecteurs, nous avons décidé de renforcer notre objectivité et de continuer l’aventure sur une logique transpartisane.

  • Les débuts de Regards Citoyens

Tangui Morlier : C‘est en Juillet 2009, après avoir rencontré Jean-Baptiste Gabellieri et Brice Person, que le collectif Regards Citoyens a vu le jour. Tous animés par l’envie de développer un service de suivi des parlementaires, NosDéputés.FR voit le jour en septembre et sera suivi de NosSénateurs.FR. On peut notamment y traiter de l’expertise des différents parlementaires, ouvrir un dialogue entre les citoyens et leurs représentants pour amener à la remise en question ou encore consulter la fiche détaillée d’un parlementaire. Nous utilisons une approche scientifique en rendant tous nos outils, informations et méthodes d’analyse ouverts pour que nos papiers soient critiquables par un tiers.

→ Défi au lecteur : êtes-vous capable de citer le nom de votre député ? son orientation politique ? … si ce n’est pas le cas, découvrez  ici les députés par circonscription ! Impressionant non ?

Fiche issue de NosDéputés.fr sur Michel Ménard , député SRC de la 5ème circonscription de Loire-Atlantique

Tangui Morlier : Il nous aura notamment fallu trois mois de travail pour extraire les données de l’ensemble des documents publics au format PDF. Après ce lourd travail d’extraction, nous avons développé un logiciel CPC et proposé une API pour offrir un accès aux données de NosDeputes.FR ou NosSenateurs.FR aux formats ouverts XML, JSON et CSV. L’accès aux documents administratifs et la réutilisation des informations publiques est un devoir depuis 1978 [2] mais cet accès ne doit plus se faire uniquement sur demande : il faut exiger une politique pro-active.

C’est face à ce constat que le collectif Regards Citoyens a commencé à militer pour obtenir un accès direct et libre aux bases de données : c’est le début d’une demande pour l’ouverture des données.

  • De l’ouverture des données publiques

C’est deux ans plus tard, en 2011, qu’est créé Etalab (Service du Premier Ministre chargé de l’ouverture des données publiques et du développement de la plateforme française Open Data), poussé par le militantisme de Regards Citoyens et l’exemple de collectivités territoriales pionnières comme Toulouse, Rennes, Paris et Nantes.

Tangui Morlier : Pour développer une logique Open Data, il faut lever les barrières à la réutilisation [3] :

  • financières : la gratuité des données par défaut
  • juridiques : adopter des licences libres (accès, réutilisation, modification, redistribution)
  • techniques : utiliser des formats ouverts, lisibles par les hommes comme par les machines sans risques juridiques

Ainsi nous avons été déçus chez Regards Citoyens par la mise en service, fin 2011, de la plateforme ouverte des données publiques françaises : data.gouv.fr. Et pour cause : de très nombreux fichiers sont encore en format propriétaire, comme le format Excel.

data.gouv.fr - plateforme ouverte des données publiques françaises

  • Du public au privé, il n’y a qu’un pas…

Tangui Morlier : Désormais, un enjeu majeur de l’ouverture des données publiques en France est que l’administration doit posséder la donnée ce qui n’est pas forcément le cas comme le montre l’exemple de l’entrerpise Experian qui possède les données géographiques relatives aux limites des circonscriptions administratives en France. Il faut « créer de l’agilité au sein de l’administration qui se fait avoir par des clones privés de services publics ». Il manque notamment les données géographiques publiques (IGN), les données sur les marchés publics (dont seulement 50 % sont accessibles et, de surcroît, payantes), les résultats financiers accompagnés des numéros de SIREN/SIRET, les données liées aux lois (textes, mise-à-jours…) que l’on peut lire mais dont l’analyse est réservée à quelques structures privées.

Ces entreprises font donc des bénéfices sur des données publiques qu’elles percoivent gratuitement et revendent aux citoyens. C’est à la limite du répréhensible, surtout lorsque ces entreprises sont étrangères, qu’elles ne paient pas d’impôts et négocient des accords commerciaux.

  • Et du privé au public il n’y a que des lobbies ?

Tangui Morlier : Il existe un gros lobbying des entreprises pour les données liées aux lois via des réseau et des connaissances personnelles au sein de l’administration. Cela peut par exemple se traduire par des pressions sur les fonctionnaires motivés travaillant chez Etalab. On peut également noter le lobby des notaires pour les bases de données des prix des logements ou encore le lobby autour des données géographiques avec l’IGN (NDLR : inventaire non-exhaustif). A l’origine de ces lobbies il y a le sentiment de perte de pouvoir pour ceux qui administrent les bases de données, la volonté de cacher des scandales politico-financiers…

  • Le mot de la fin …

Tangui Morlier : Il faut absolument éviter que des individus s’approprient un savoir collectif, c’est un élément primordial de la démocratie pour éviter la corruption ou les abus de biens sociaux. Dans une démocratie, les prises de décisions doivent être publiques et transparentes et les données personnelles protégées, contrairement à une dictature où l’état à accès aux données personnelles de ses « citoyens » mais ne rend pas publiques ses décisions. Heureusement il existe des méthodes de crowd-sourcing qui permettent de (re)créer l’information comme le projet OpenStreetMap qui garantit la souveraineté des citoyens et une information objective.

  • Remerciements

Un grand merci à Tangui et à toute son équipe pour le travail qu’ils réalisent dans l’intérêt de tous, bon courage pour la suite !

  • Auteurs:

Augustin Doury et Raphaël Traineau

  • Sources

[1] Définition du « godillot » sur deputegodillots.info

[2] Loi du 17 Juillet 1978 (qui définit notamment le rôle de la CADA : Commission d’Accès aux Documents Administratifs)

[3] Conférence « Open Data et Transparence » par le collectif Regards Citoyens sur Youtube

Projet de veille technologique 2013-Le contenu des articles traitant du sujet “Open Data: l’avenir?” sera publié sous la licence WTFPL .

Mise en place d’un SIG 3D

La mise en place d’un SIG 3D passe par des étapes communes à une majorité de projets industriels, mais il y a aussi des spécificités à cet outil, notamment au niveau des données géométriques. Nous présentons les points spécifiques à envisager pour mettre en place un SIG 3D.

Etude préalable :

Lors de l’analyse des besoins, il faut notamment déterminer le territoire qui sera modélisé. Le niveau de détail souhaité dans le modèle doit aussi être évalué, ainsi que la précision des données spatiales. Ces données varieront bien entendu selon les traitements que devront subir les données : un SIG 3D modélisant des couches de sédimentation n’aura pas besoin de données aussi précises qu’un SIG reconstituant un bâtiment en détail.

Il est important d’avoir conscience lors de l’étude préalable qu’un SIG 3D ne se résume pas seulement à un logiciel, il s’agit d’un ensemble comportant bien sûr un logiciel de traitement des données, mais également une chaîne d’acquisition des données et les compétences associées à ces activités.

Acquisition des données :

Les données peuvent être récupérées ou acquises. On trouve plusieurs organismes nationaux et internationaux qui produisent et/ou vendent des données (En France : IGN : Institut Géographique National, INSEE : Institut National de la Statistique et des Etudes Economiques, SHOM : Services Hydrographiques et Océaniques de la Marine par exemple). Des cabinets de géomètre, sociétés de services, services de l’Etat et autres prestataires peuvent aussi apporter les données du SIG 3D.

Pour acquérir les données directement, nous avons déjà évoqué plusieurs solutions (images satellites, plan de cadastre, scanner 3D, …). Plus généralement, les données peuvent également s’obtenir à partir de documents existants, de photographies, d’images satellites, de données alphanumériques ou directement sur le terrain.

Il faut prendre en compte le type de données souhaitées, et sa disponibilité sur le marché. Les deux grands types de données sont les vecteurs et les rasters. Le format raster désigne des données sous formes d’images matricielles. Chaque cellule de la grille a une valeur qui correspond à un attribut (toit, forêt, plan d’eau, route…). La représentation vectorielle stocke l’information avec des points, lignes et surfaces. C’est généralement ce format qui est utilisé, car il permet de représenter des formes plus complexes.

Une fois le type de données déterminé, il faut aussi récupérer les données dans le bon format. Il existe de nombreux formats pour les différentes structure de données d’un SIG (SHP, DXF, OSM, OBJ, DAE, Images, FBX, RIB, MI, MAS, COLLADA, KML, …), et il faut s’assurer que ces formats pourront être importés dans le système d’information. Par ailleurs, le système de référence de coordonnées peut varier selon les données, il faut y prendre garde lors de la mise en commun de données issues de sources différentes.

Les données sont l’élément majeur d’un SIG. Leur coût peut beaucoup varier d’un projet à un autre, mais il peut représenter une part importante du coût total du SIG.

Aspects législatifs :

Le SIG repose sur une base de données, qui doit suivre le Code de la Propriété Industrielle. Il faut distinguer les informations contenues, la forme des données et l’architecture de la base.

Si les données ne sont pas libres de droit, elles nécessitent d’obtenir l’accord des propriétaires des droits, et les droits d’auteur s’appliquent. Le fournisseur peut céder les droits d’utilisation des données, mais cela doit faire l’objet d’un écrit précisant la nature des droits cédés, l’étendue des droits, la destination des données, la durée de la concession et la rémunération de l’auteur. De plus, si la base de données comporte des données à caractère personnel, elle doit être déclarée à la CNIL (Commission nationale de l’informatique et des libertés).

En ce qui concerne la protection de la base de données, la structure (l’architecture) est protégée par le droit d’auteur sous condition d’originalité de la base. L’auteur de la base est le titulaire de ces droits. Une protection du contenu de la base s’ajoute aux éventuels droits d’auteur sur les données et droit d’auteur sur l’architecture de la base. Le producteur de la base dispose de ces droits sur le contenu.

Mise en œuvre :

Outre les logiciels cités dans les articles précédents, le SIG peut être développé grâce à un service Web, avec un client, un serveur d’application et une base de données spatiales. Ainsi, la mise en œuvre du système n’est pas toujours dans l’infrastructure de l’entreprise. Généralement, la mise en place d’un SIG nécessite un matériel spécifique pour la gestion d’un grand nombre de données.

Maintenance :

Une fois la base de données mise en place, il faut aussi prendre en compte sa maintenance. En effet, un SIG 3D est amené à changer rapidement au cours du temps, et la maintenance est nécessaire pour garder des données cohérentes. Le SIG 3D nécessite donc un personnel formé permanent, une adaptation à l’organisation des services, et l’élaboration d’un scénario d’évolution. Les entreprises commercialisant des SIG 3D proposent aussi des services de maintenance. Ces problématiques de maintenance concernent d’autant plus les SIG 3D que les différents systèmes de stockage de données ne font pas encore l’unanimité et sont amené à évoluer dans les années à venir.

Sources :

Cahier méthodologique sur la mise en œuvre d’un SIG, IAAT 2003 :
www.iaat.org/telechargement/sig.pdf

“Mettre en place un SIG” :
seig.ensg.ign.fr

Blog francophone consacré à l’actualité des technologies Esri
www.arcorama.fr

Cours de SRETI (Systèmes, Réseaux et Technologies de l’Information) de Morgan Magnin, professeur à l’École Centrale de Nantes

Creative Commons License
Ce projet est mis à disposition selon les termes de la licence Creative Commons Attribution-NonCommercial-ShareAlike 3.0 Unported License, par Thomas Brunel et Jules Party.

Twitter et java, C++, php, javascript

Si nous avions au départ prévu de présenter les étapes de développement d’une application avec Twitter (notamment pour sa facilité d’utilisation dûe au nombre restreint de fonctionnalité et pour la pertinence des recherches à effectuer, l’information y étant à vocation plus publique) nous nous sommes dit que développer et présenter l’utilisation d’un langage était quelque peu réducteur face à l’immensité des librairies présentes. C’est pourquoi aujourd’hui nous allons revenir sur ce point en laissant l’aspect “développons une application ensemble” de côté et en préférant vous accompagner dans le choix de la librairie vous convenant.

Précédemment, nous avons donc vu les principes fondamentaux d’une application Twitter (création, obtention des informations, connexion). Nous allons donc prolonger cette démarche en nous appuyant sur quatre langages : Java, C++, PHP, JavaScript dont nous vous présenterons l’utilisation pour l’authentification, l’envoi d’un tweet et la recherche d’un message. Ces APIs permettent d’avoir accès aux fonctions de Twitter sans avoir à passer par les requêtes HTTP. Bien que non officiels, elles sont publiées sur le site Twitter pour les développeurs :

 

Quelques informations préliminaires :

  • Twitter utilise une syntaxe précise pour la formulation des requêtes de recherches. (La syntaxe des requêtes est expliquée ici)
  • Les retours des requêtes se font sous la forme d’une chaîne de caractère arborescente qui contient l’ensemble des informations du tweet. Cela va du texte du message au fuseau horaire de l’utilisateur émetteur du tweet. (La structure exhaustive est décrite ici)

Java

Connexion :

Comme pour l’article précédent, nous allons utiliser l’API Twitter4J : http://twitter4j.org. Nous avons déjà vu comment se connecter via l’objet ConfigurationBuilder et une TwitterFactory.

Recherche :

Une fois la connexion effectuée, il est simple d’effectuer une recherche de tweets grâce à l’objet Query qui va représenter le requête à transmettre à Twitter. Elle prend la forme décrite sur le site de Twitter comme par exemple q=socialapi qui va servir à chercher les tweets contenant le texte socialapi. La méthode search(ObjetQuery) va permettre d’effectuer la requête et son résultat sera stockée dans un objet QueryResult. Ensuite il devient facile d’obtenir les tweets par la fonction getTweets() puis les différents éléments les constituant comme par exemple getUser() pour obtenir l’objet utilisateur.

Poster un message :

L’objet Twitter contient la fonction updateStatus(TextDuTweet) qui permet de publier un tweet sur le compte enregistré.

C++

 Twitter propose la bibliothèque twitcurl pour le C++.  Elle fournie un ensemble de fonctions compatibles avec la dernière version de l’API Twitter et le site https://code.google.com/p/twitcurl/ fournit toutes les instructions nécessaires à l’installation.

 Authentification :

L’objet twitcurl est la base de la connexion entre une application C++ et Twitter. Une fois l’objet créé, il faut définir les information d’authentification via les méthodes suivantes :

 getOAuth().setConsumerKey();

getOAuth().setConsumerSecret();

getOAuth().setOAuthTokenKey();

getOAuth().setOAuthTokenSecret();

 Une fois cela fait, l’objet twitcurl est configuré et va pouvoir servir pour envoyer les requêtes et récupérer les informations.

 Recherche :

La méthode search(MessageAChercher, NombreDeTweet) va envoyer une requête de recherche constituée des paramètres q=MessageAChercher et count=NombreDeTweet. Le retour se fait sous la forme d’une chaîne de caractère représentant le résultat tel quel venant de Twitter que l’application pourra décomposer pour l’analyser.

Poster un message :

A l’image de Twitter4J, twitcurl fournit une fonction statusUpdate(Message) qui permet de publier un tweet.

PHP 

Contrairement au Java et au C++ où très peu de bibliothèque existent, Twitter propose une très grande variété de projets visant à fournir les fonctionnalités en PHP. Parmi toutes, nous avons décidé de présenter Zend Framework faisant partie des plus élaborées.

L’objet principale est Zend_Service_Twitter. Il est composé de sous objets suivant l’arborescence présentée sur le site de développement de Twitter, comme par exemple le statut de l’utilisateur, son compte … depuis lesquels seront appelées les différentes fonctions de l’API.

 Authentification :

Par l’intermédiaire de cette bibliothèque, l’authentification est rapide. Il suffit de créer un objet Zend_Service_Twitter initialisé avec un tableau de deux valeur :

    ‘username’ => NomDUtilisateur ,

    ‘accessToken’ => TokenUtilisateur

 Il suffit ensuite d’appeler la méthode verifyCredentials() du sous objet account. Pour terminer la session de l’utilisateur il faudra appeler la méthode endSession().

 Recherche :

La recherche de tweets se fait par l’intermédiaire d’un objet spécifique qui retourne le résultat sous format JSON ou Atom. De futures évolutions de la bibliothèque permmettront la prise en compte des réponses XML.

 Tout d’abord il faut créer un objet Zend_Service_Twitter_Search auquel on spécifiera le format de sortie des données (‘json’ ou ‘atom’). Ensuite il faut appeler la méthode search(TexteAChercher, array(Arguments => Valeur)). Les arguments correspondent a ceux définis sur le site de Twitter dans la section API search https://dev.twitter.com/docs/api/1.1/get/search/tweets.

 Poster un message :

Le poste d’un tweet se fait par l’intermédiaire de la fonction  update(Message) à appeler depuis le sous objet status.

JavaScript 

 Enfin nous allons voir la bibliothèque JavaScript/nodeJS : TwitterJSClient.

Cette bibliothèque de fonctions JavaScript  est encore en développement mais les membre sont très actifs. Toutes les fonctionnalités ne sont pas implémentées.

 Authentification :

Pour l’application et l’utilisateur, il faut créer un objet Config qui contiendra les tokens et identifiant de l’utilisateur et de l’application.

Il faut ensuite créer l’objet Twitter qui servira d’élément centrale prenant en argument le Config créé juste avant.

 Autres fonctionnalités :

Bien que les fonctions de recherches et de poste de tweets ne soient pas présentes telles quelles, il est possible par exemple d’obtenir la majorité des informations voulues comme les données d’un message ou les tweets d’utilisateurs via des fonctions comme getUserTimeline() ou getTweet().

 

Conclusion 

 En observant les bibliothèque de fonction prenant en charge l’API de Twitter des 4 langages précédents, nous voyons que la couverture est très variable. En C++ la seule bibliothèque proposée par Twitter prend en charge les fonctionnalités principales, mais n’est pas complète et non mise à jour depuis longtemps. Elle ne permet pas, par exemple, de parser le retour de la recherche de tweets sous la forme de plusieurs objet. En PHP, il existe un florilège d’APIs prenant en compte la totalité des fonctionnalités.

On peut néanmoins remarquer que les langages adaptés au web (PHP, Javascript …) couvrent beaucoup mieux l’API de Twitter que les langage permettant de coder des logiciels (ce qui paraît compréhensible). Pour ces derniers Java est a privilégier avec Twitter4J.

Vous voilà donc paré à l’utilisation de l’API twitter mais attention à ne pas faire n’importe quoi ! Tout d’abord, respecter les CGU et par ailleurs, ne pas suivre le chemin de Larousse ! Nous conclurons en effet cet article par un fait d’actualité, l’affaire remontant au début de cette semaine (4° semaine de janvier).
En effet, si vous pouvez rechercher des tweets grâce à ces APIs, n’oubliez pas que si vous souhaitez en exploiter le contenu il convient de citer et de prévenir les auteurs. En effet, le droit de citation ne peut être évoqué dans le cadre d’un tweet si l’ensemble du tweet est utilisé ! Point qu’avait semble-t-il omis Larousse dans son ouvrage “Les perles des tweets et du Net” qui a donc été retiré de la vente.

 

Sources :

 

Auteurs : Nicolas DAVID & Sylvain PALOMINOS
Encadrant : Morgan MAGNIN
Licence Creative Commons