L’Open Data en pratique, la synthèse

Toute bonne chose a une fin et nous ne dérogerons pas à cette règle en vous proposant une synthèse de notre recherche documentaire sur le thème de l’Open Data en pratique.
Pour ce faire, nous reviendrons sur les différents billets publiés jusqu’alors, en proposant des liens vers chacun de nos précédents articles. Il pourra être intéressant d’en extraire quelques idées majeures et de faire un petit bilan de nos observations sur le monde l’Open Data.
Pour clore le billet, nous en profiterons pour annoncer le plan de notre rapport complet sur l’Open Data en pratique. Une fois terminé, nous vous ferons bien entendu part de ce rapport, en mettant à jour ce billet. (MàJ : Lire notre rapport )

Il est bon de rappeler que l’Open Data est un principe selon lequel les données publiques (celles recueillies, maintenues et utilisées par les organismes publics) ou privées doivent être disponibles pour accès et réutilisation par les citoyens et entreprises. De nombreuses villes se sont lancées dans le mouvement dont Nantes, Paris ou encore Strasbourg. N’hésitez-pas à consulter notre premier billet “L’Open Data en pratique” : le commencement d’une longue série d’articles. pour en savoir plus.

Au premier abord, l’Open Data fait peur, notamment avec sa farandole de formats mais aussi ses licences. Le tout a été éclairci dans notre second billet De la nature des données de l’Open Data. Néanmoins, une fois passées ces barrières, on ne peut que saluer cette initiative qui veut donner plus de visibilité aux données pour les citoyens. Notons que la majeure partie des données est mise en ligne par les collectivités via leur plate-forme de données, dans le but de transformer les données, par des intermédiaires (développeurs, journalistes, etc.), pour en faire un service aux citoyens.

Cependant, il ne faut pas se leurrer, derrière ce partage des données se cache un aspect économique important, que cela soit pour l’Etat, les entreprises ou les entités réutilisant ces données. Cela a été développé dans notre troisième billet, L’Open Data : une historie d’argent. Preuve de bonne santé d’une entreprise, l’ouverture de ses données permet de créer un écosystème autour : des applications notamment qui auront été développées par des ingénieurs/développeurs. Une sorte de relance économique par l’IT.

Si la plupart des applications tournent autour des places de parking et des transports (Les applications Open Data et leurs limites), il existe tout de même des utilisations originales comme le data-journalisme ou encore des synthèses d’informations diverses en un même lieu (citons le site We Are Data ou encore le City Dashboard, tous deux présentés dans ce billet Vers une autre utilisation des données Open Data).

Enfin, nous avons terminé nos billets avec un constat des limites de l’Open Data (La limite des données Open Data). C’est surtout le côté jungle dans les données (non triées, peu utiles) qui rebutent et qui nous a poussé à vérifier si ce surplus d’informations ne cachaient pas un manque de données cruciales. Et cela s’est, malheureusement, révélé être le cas : les données en temps réel sont souvent absentes (le temps avant l’arrivée d’un tram à Nantes par exemple). A cela s’ajoute l’absence de normes et une ouverture pas si franche des entreprises et de l’Etat.
Cependant, tout n’est pas si noir et des efforts ont été faits pour améliorer les plates-formes de données, en les rendant plus agréable à la navigation (pour mieux cacher le manque de données ?).

Nous en arrivons à la présentation du plan de notre rapport. Ce dernier reprendra tous les éléments vus lors des 6 mois passés, en réorganisant le tout de cette manière :

Introduction : Présentation de l’open Data
I. Contexte de l’Open Data
1) La nature des données
2) L’aspect économique
II. Les utilisations de l’Open Data
1) Les applications web et mobiles
2) De nouvelles utilisations
III. Les limites de l’Open Data
Conclusion sur l’Open Data en pratique

Malgré notre volonté d’être le plus exhaustif possible, il ne nous était pas possible d’aborder tous les éléments du large champ de l’Open Data. En particulier, nous nous sommes intéressé ici à l’Open Data en pratique, et non à l’avenir de l’Open Data. Deux de nos camarades se sont penchés sur le sujet au travers de leurs articles : il s’agit de Augustin Doury et Raphaël Traineau, eux-aussi élèves à l’Ecole Centrale de Nantes.
Voici un lien vers leur introduction : Open Data : l’avenir (introduction). Si vous voulez voir tous les articles, sachez qu’ils ont été écrits sous le pseudonyme “opendata13”.

Par ailleurs, sachez que vous pouvez trouver davantage d’informations sur différents blogs. Voici, entre autres, quelques blogs utilisés pour écrire nos articles :

  • le blog de l’association nantaise LiberTIC : http://libertic.wordpress.com/ (traitant principalement de l’ouverture des données publiques dans la région de Nantes, mais aussi en général)
  •  blog contenant de nombreuses informations sur les données (Open Data, mais aussi Big Data et autre) en France et en Europe : http://123opendata.com/blog
  • un blog d’un collectif tourangeau abordant s’intéressant au vaste sujet de l’Open Data : http://opendata-touraine.fr/

Pour terminer, nous aimerions remercier Guillaume MOREAU, enseignant-chercheur à l’Ecole Centrale de Nantes, qui nous a encadré lors de notre projet. Enfin, nous souhaitons surtout vous remercier vous, lecteur, qui nous avez suivi (fréquemment ou non) tout au long de nos billets portant sur l’Open Data en pratique. Merci à vous, vous qui donnez du sens à l’existence de notre blog !

Mise à jour : Retrouvez notre rapport ici.

Licence :
Licence Creative Commons

Auteurs :
Sébastien COHENDET & Maxime TERRADE

4.Quel est le rôle de la ville et de son gouvernement dans son développement en Smart City?

On a vu dans les articles précédents que le développement d’une ville en Smart City se fait principalement grâce aux grandes entreprises informatiques, aux logiciels qu’elles développent, à leur intégration et au conseil et suivi qu’elles fournissent.

Cependant, la ville, en tant que client des projets de Smart City, joue un rôle important. C’est la ville qui détermine ses besoins et qui lance l’appel d’offre ou considère les opportunités qui sont avancées par les entreprises. La mairie et le maire ont des intérêts propres parfois contradictoires mais toujours très différents des besoins et des contraintes d’un client privé.

L’état doit d’abord avoir certaines infrastructures technologiques qui permettront ensuite de développer les logiciels et outils de la smart city. Il doit notamment avoir de quoi stocker la quantité de données générées et exploitées par les solutions développées. Ces données doivent être sécurisées et optimisées pour une communication facile et efficace. Ces infrastructures sont, comme dit précédemment, fournies principalement par les grandes entreprises du secteur.

Mais ensuite, l’état est souvent plus parcimonieux. En effet, un projet associé au smart cities est souvent vendu à plusieurs centaines de milliers de dollars par les géants du marché (IBM, Cisco, Microsoft, Siemens…) ce qui représente une part de budget colossale même pour une grande ville. Il est ainsi de voir une même ville commander plusieurs projets à une entreprise.

Un rôle de la ville et de la mairie est donc d’étudier attentivement ses besoins et déterminer avec soin la problématique qu’ils veulent confier à un magnat du conseil. Pour les plus petites villes, il faut même qu’elles considèrent l’apport d’une telle solution et s’il vaut la peine d’y investir son budget de l’année!

A côté de ça, des développeurs indépendants, des projets issus de Startup Weekends ou du crowd funding apportent des solutions personnalisées à des problèmes relevés par les citoyens de la ville. Ces outils et applications sont une alternative qu’il serait bon que les mairies considèrent.

Beaucoup de villes (Nantes la première!) ont déjà franchi le pas de l’open data et c’est très bien mais ces données restent souvent dans un format brouillon qui peut facilement perdre le non initié.  Des projets pour profiter un maximum de son vélo, pour parker plus facilement sa voiture, de partage d’informations sur le traffic, d’utilisation de l’équipement connecté (bracelets, montres, fourchettes…) voient régulièrement le jour. Des projets très intéressants mais qui ne répondent pas aux problématiques de la ville et n’exploitent pas (ou peu) les données qu’elle met à disposition.

C’est à la ville de capitaliser sur le potentiel de tels projets et de les diriger dans la bonne direction. C’est le cas par exemple de la ville de New York et de son projet BigApps. Chaque année, la ville détermine à l’aide d’experts des problématiques auxquelles sont confrontées ses citoyens dans plusieurs domaines (emploi et économie, environnement et recyclage, éducation, santé) et offrent des prix (de l’ordre de 20 000$) aux projets qui y répondent le mieux.

Un autre exemple est celui d’Amsterdam qui à travers son site amsterdamsmartcity.com recense les projets qui rendent la ville plus intelligente. Elle propose aussi sur cette même plateforme des challenges pour ses citoyens et différentes formes d’accès à la donnée ouverte.

Les mairies doivent s’ouvrir à leurs citoyens qui sont beaucoup à vouloir s’investir pour rendre leur ville plus agréable à vivre et plus attractive. Elle doit ainsi favoriser toutes les formes entrepreneuriat social. La technologie et l’innovation doivent totalement s’intégrer dans le fonctionnement des mairies. Comme le dit John Tolva, “Directeur technologique” de la ville de Chicago, il faut envisager la politique de la ville autour de la technologie et ne pas raisonner seulement en termes d’opérations ponctuelles et localisées.

De plus en plus de villes américaines (et certaines en Europe) adoptent ce point de vue et créent des groupes de travail voire des départements technologiques au sein de leur administration.

Le futur des smart cities ne viendra peut-être pas des des grandes entreprises de conseil ni des projets monumentaux de néo-cities construites de zéro dans l’esprit d’en faire des villes intelligentes mais tout simplement de vous et moi, des développeurs de demain et de l’entrepreneuriat social.

 

http://www.theatlanticcities.com/technology/2014/01/rise-and-fall-and-eventual-rise-again-smart-city/8081/

http://nycbigapps.com/

http://amsterdamsmartcity.com/?lang=en

5. Exemples de projets phares et commentaires

  • L’Inde rêve de dizaines de “smart cities”  :

Créer deux villes intelligentes dans chacun des 28 Etats de l’Inde : ce grand projet du gouvernement indien prévoit d’injecter de l’intelligence dans des villes de 500.000 à un million d’habitants. Une ambition qui s’ajoute aux sept projets de smart citiesdéjà en marche.

L’urbanisation est galopante : en moyenne, 30 Indiens quittent la campagne pour la ville chaque minute. L’Inde devra donc construire 500 nouvelles villes dans les 20 prochaines années pour loger les 700 millions de nouveaux citadins prévus d’ici à 2050, selon le cabinet Booz and Company.

Déjà sept projets en chantier

Dans chaque Etat du pays, deux villes seront équipées de transports propres et autres systèmes de gestion de l’énergie et des services. Delhi s’appuiera sur l’expertise de l’Institut de technologie autrichien.

L’Inde a déjà prévu la construction de sept villes nouvelles intelligentes, d’au moins 2 millions d’habitants chacune, qui doivent sortir de terre entre Delhi et Bombay dans le cadre du « Corridor industriel Delhi-Bombay ». Un vaste programme de 100 milliards de dollars financé grâce à l’aide du Japon.

Tous les géants des télécoms et de nombreuse start-up se disputent le marché des villes intelligentes indiennes qui, selon IBM et McKinsey, représentera 1.200 milliards de dollars dans les 20 prochaines années.

Une ligne ferroviaire « intelligente »

A 30 minutes de New Delhi, une cité de 18 km2 est ainsi en construction à Ghaziabad, Wave City, où tous les services sont pilotés par des systèmes intelligents, avec même un projet de ligne ferroviaire intelligente.

Infrastructure de “wave city”

Parmi les projets phares figure notamment le projet de ville privée “Lavasa”. Par ailleurs, l’Etat de Haryana a conclu un accord pour l’installation d’une Eco city à Manesar avec un consortium de groupes nippons (NEC, Tokyo Gas et Toshiba) et le ministère japonais de l’Economie (MET).

  • Lyon : la ville française la plus avancée dans le projet “smart city”:

Le Grand Lyon, EDF et les 20 partenaires rassemblés en consortium autour du projet Smart Electric Lyon ont lancé officiellement, lundi 28 octobre 2013, la plus grande expérimentation européenne sur les systèmes électriques de demain.

Le marché des smart grids irrigue l’économie numérique et possède un fort potentiel de croissance à l’intérnational. Dans cette perspective, Smart Electric Lyon est la seule expérimentation à grande échelle de solutions techniques de pilotage et d’accompagnement auprès de 25 000 foyers test.

Résultats attendus :

  • maîtrise des consommations électriques,
  • amélioration du confort et
  • accélération de l’innovation.

Smart electric Lyon, l’usager a la maîtrise de ses consommations

“L’expérimentation repose sur la collaboration industrielle et scientifique entre les partenaires mais aussi sur la participation des expérimentateurs dans une véritable logique de co-construction” souligne le président du consortium. Les donnés issues du compteur sont exploitées en temps réel et restituées aux usagers de manière pédagogique, afin qu’ils puissent adapter consommation, confort et dépenses.

Pour associer pleinement le volet usage au volet technique, Smart Electric Lyon repose sur un important programme d’évaluation et de recherche. Les pratiques et appréciations des participants seront minutieusement décryptées par les chercheurs multidisciplinaires du consortium : ergonomes, économistes, statisticiens, experts en modélisation et sociologues.

De fait, Smart Electric Lyon fait largement appel aux sciences comportementales. “La dimension humaine est fondamentale, insiste Christian Missirian, la transition énergétique ne se fera pas au détriment de l’usager.”

Smart electric Lyon, un moteur de l’innovation au service de la ville intelligente

Vous l’aurez compris, Smart Electric Lyon se concentre sur les enjeux de consommation des usagers pour s’inscrire dans une logique de validation pré-industrielle de solutions grand public.

“La seule façon de faire de l’apprentissage, c’est l’expérimentation. Tous les prototypes à l’essai visent à développer des solutions vertueuses qui apportent aux consommateurs un bénéfice suffisant pour constituer des systèmes susceptibles d’un large développement.” En testant en avant première les solutions électriques de demain, le consortium Smart Electric Lyon entend bienanticiper les ouvertures de marché et répondre par là-même aux enjeux – écologiques, économiques et sociales - intrinsèques de la transition énergétique.

Clé de voute du modèle lyonnais, le partenariat public privé innovant envisagé autour de Smart Electric Lyon a naturellement séduit le Grand Lyon. Sans compter que les acteurs de la filière électrique dispose là d’un gigantesque champ d’expérimentation pour faire émerger des solutions standards : le territoire mixte et étendu du Grand Lyon laisse envisager une réplicabilité à grande échelle.

En s’associant profondément à la démarche, le Grand Lyon réaffirme son ambition métropolitaine : devenir un acteur majeur de l’intelligence énergétique.

Sources :
http://www.lavillededemain.com/actualites/smart-cities-inde
http://www.economie.grandlyon.com/actualite-economie-actu-lyon.194+M54bdacac593.0.html

Etat de l’art des méthodes de calcul des échanges d’énergie – Micro climats urbains

Modéliser les microclimats urbains : la demande énergétique des îlots urbains.

La consommation énergétique des bâtiments (et donc des zones urbaines) est une part importante des dépenses énergétiques actuelles. C’est pourquoi une modélisation fine des transferts d’énergie associés est potentiellement puissante dans le sens de la réduction des dépenses énergétiques.

Les microclimats urbains sont différents des climats ruraux, et on ne peut modéliser les échanges d’énergie d’un bâtiment en milieu urbain sans prendre en compte son environnement. C’est pourquoi la modélisation des microclimats urbains s’avère importante.

Nous verrons ici dans un premier temps dans un premier temps le cas des « canyons urbains », puis nous nous évoquerons la zone urbaine à une échelle plus large.

1. Le canyon urbain 

Le canyon urbain désigne une configuration urbaine similaire un canyon : une rue avec de grands bâtiments des deux  côtés.

Les modélisations ici peuvent par exemple être réalisées à l’aide de TRNSYS 17.0 comme logiciel principal et d’autres outils pour les modules de calcul.

  • Modélisation des échanges radiatifs

Les modélisations de bâtiments isolés considèrent que la radiation solaire est un gain et la radiation en grandes ondes une perte de chaleur (vers le ciel). Contrairement à celles-ci, le modèle pour un canyon urbain modélise les radiations grandes ondes par des réflexions multiples sur les surfaces des bâtiments. C’est pourquoi dans beaucoup de modélisations 3D de ce type, la rue est modélisée par un atrium à ciel ouvert dans deux parties d’un bâtiment.

  • Modélisation des ilots de chaleur urbains

Les îlots de chaleur urbains désignent des zones à élévation de température forte, en milieu urbain. Pour pouvoir modéliser finement les échanges dans un canyon urbain, on établit des profils de ces îlots en recensant les différences de température entre milieu urbains et ruraux (à conditions climatiques équivalentes, donc proches) et en établissant des moyennes à l’échelle de plusieurs années.

Un profil d’îlot de chaleur urbain diurne pour chaque mois de l’année. 

  • Modélisation des flux de convection

La modélisation des flux de convection ne peut se faire sans tenir compte de la spécificité du cas étudiés. Les coefficients de transferts thermiques convectifs habituellement utilisés dans le cas de bâtiments isolés sont ici inappropriés et il est nécessaire de mener des études de dynamique des fluides en intégrant des fonctions spécifiques à la géométrie de la modélisation.

2 La zone urbaine

La modélisation à l’échelle de la zone urbaine doit évidemment se faire sur d’autres bases que celle à l’échelle d’une rue ou d’un bâtiment. Ici, la modélisation de climats urbains joue le rôle de chaînon entre l’échelle macro de la zone urbaine et micro du bâtiment (micro climats urbains).

Une possibilité d’approche de la modélisation d’un micro climat urbain est de traiter les échanges radiatifs en les incluants au modèle de simulation énergétique de la ville (échelle du climat urbain), ne nécessitant ainsi que le calcul des flux de convection à l’échelle spécifique du micro climat urbain.

Conclusion

Nous avons ici présenté une approche de la modélisation des micro climats urbains à travers deux types de modélisation. L’objet de cet article était donc de présenter l’importance de la modélisation des micro climats urbains à travers des approches de méthodes concrètes.

Bibliographie

Modeling the urban microclimate and it’s impact on the energy demand of buildings and building clusters – V. Dorer – 2013 

A double canyon radiation scheme for urban canopy models – S. Schubert – 2011 

www.envi-met.com

Le secteur privé : l’avenir de l’Open Data ?

Open data, l’avenir ?

  • Rappel du contexte

Suite à notre précédent article de blog intitulé “Le collectif Regards Citoyens : militantisme, enjeux et pouvoirs autour de l’Open Data“, nous nous intéresserons ce mois-ci aux interactions entre le secteur privé et la mouvance Open Data.

De prime abord, une opposition idéologique semble se dessiner entre la mouvance Open Data, rattachée à la notion de bien commun, et le monde de l’entreprise rattaché au droit de propriété individuelle. Les interactions sont pourtant nombreuses et vont en se multipliant, dans un sens comme dans l’autre, à travers diverses formes.

Faut-il voir en cela un tremplin pour la mouvance Open Data ? C’est-à-dire une opportunité d’accélérer la production et la consolidation de banques de données ouvertes. Ou bien une menace ? Soumettant une philosophie d’accès à une information libre et objective à la monétisation et à une éventuelle perte de sens  ?

  • Trois manières d’intégrer l’Open Data au business model de l’entreprise

Lors d’une interview pour un de nos précédents articles (Les données ouvertes, la protection des données personnelles et la CNIL), notre interlocuteur, Benjamin Vialle, nous faisait remarquer que

les données sont offertes pour ce qu’elles sont et non utilisées dans un but particulier. Les usages des données libérées ne sont pas connus d’avance.

Il n’existe donc pas de business model ” tout tracé ” intégrant l’Open Data. Nous avons toutefois relevés quelques exemples qui nous paraissent intéressants et significatifs. Pour plus d’exemples, n’hésitez pas à consulter les articles [1] de nos camarades Sébastien COHENDET & Maxime TERRADE sur “L’Open Data en pratique”.

  1. En premier lieu, on peut citer les entreprises qui utilisent des données ouvertes, parfois d’origine publique, pour proposer des services. C’est par exemple le cas des applications nées des très médiatiques concours organisés par certaines métropoles. Ainsi la ville de New York a vu se développer, grâce au concours “New York City Big Apps” [2] organisé chaque année depuis 2009, de nouvelles applications qui “améliorent la ville” : trouver une place de parking libre, vérifier que le restaurant dans lequel vous vous apprêtez à entrer n’est pas sous le coup d’une amende pour problème sanitaire…
  2. Certaines entreprises s’illustrent dans le monde de l’Open Data non pas en proposant de nouveaux services/produits, mais en soutenant une communauté dans la production de données. C’est le cas par exemple de Bing qui fournit ses images satellites aux contributeurs OpenStreetMap  (voir notre article sur OpenStreetMap et l’enjeu particulier de la donnée géographique pour l’Open Data), ou d’Orange qui met à disposition de développeur les données agrégés et anonymisées sur ses clients ivoiriens dans le cadre du concours D4D (Data for Development) [3].
  3. Enfin certaines entreprises se “contentent” de mettre leur données librement à disposition. Parmi les exemples les les plus connus en France, on retrouve le publicitaire JCDecaux( pour l’activité « Vélo en libre-service) [4], ou la RATP [5]. Celles-ci misent sur une exploitation innovante de leurs données. Par exemple, le développement de services par de tierces parties (société civile, entreprises … ) qui seront bénéfiques pour l’entreprise d’origine.
  • Quels enjeux pour l’entreprise ?

Les entreprises l’ont compris : les données c’est l’avenir…et l’Open Data devient incontournable. On voit ainsi des cabinets de conseil proposer des formations aux entreprises pour entrer dans “le monde” de l’Open Data”. [6]

Mais quels sont les réels avantages que les entreprises peuvent tirer de l’open data ?

En premier lieu, un impact sur l’image. En effet, en ouvrant leurs données, les entreprises renforcent leur transparence, et en font un argument commercial.

Pour certaines entreprises, c’est sur la capacité d’innovation que va jouer l’Open Data. En proposant de nouveaux services inédits, les entreprises peuvent conquérir de nouveaux marchés, ou même profiter des innovations et idées de partenaires pour améliorer sa qualité de service. Ainsi, la SNCF, en partageant certaines de ses données sur le transilien, a permis à une startup spécialisée dans l’analyse et les modèles prédictifs de développer une application renseignant sur l’affluence des trains. Cette application devrait permettre à la SNCF de mieux réguler le trafic. [8]

Plus généralement, la connaissance du client peut également être favorisée par l’ouverture des données. En effet, l’Open Data, au même titre que le « big data », permet de mener des analyses prédictives et ainsi de cibler le marketing.[9]

  • Pourquoi l’Open Data est encore mal appréhendé par les entreprises ?

Ces quelques exemples donnent un aperçu de la valeur ajoutée que l’ouverture des données peut apporter aux entreprises. Pourtant, l’Open Data reste un concept flou et mal compris au sein des entreprises, et très peu intégré par les DSI.

En effet, faute de communication, les entreprises ne voient pas clairement quel avantage elles ont à investir dans l’Open Data, ces projets impliquant parfois de profonds changements dans le système d’information et nécessitant d’importants investissements.

Elles redoutent également que leurs concurrents accèdent à leurs données stratégiques ou à la présence de failles de sécurité. Enfin la qualité et la quantité des données disponibles ne permet pour le moment que peu d’usages intéressants.

Néanmoins, on comprend facilement que ces freins vont avoir tendance à s’effacer au fur et à mesure que les applications et les données disponibles vont se multiplier !

  • Quel intérêt pour la mouvance Open Data ?

Nous avons vu ce que l’Open Data peut apporter aux entreprises. Inversement, on peut se demander ce que peuvent apporter les entreprises à l’Open Data. Sans aucun doute, la participation du secteur privé permettra la diffusion de services grand public s’appuyant sur l’Open Data. En cela, les entreprises peuvent représenter un vecteur de démocratisation, en plus d’une capacité de production de données.

Les capacités de financement pérenne des entreprises peuvent apporter une stabilité et plus de visibilité aux nombreuses initiatives citoyennes autour de l’Open Data, aujourd’hui souvent limité à des subventions non renouvelables ou à des financement attribués à des projets bien spécifiques. L’intérêt des entreprises pour le secteur permet également de dessiner des débouchés professionnels pour les individus impliqués dans la mouvance : le savoir-faire et la culture liés à la donnée ouverte deviennent potentiellement rémunérateurs.

Néanmoins, certains « défenseurs du libre » redoutent une récupération malintentionnée et une dénaturation de cette mouvance, voyant une opposition entre leur logique et celle du secteur privé qui pourrait utiliser le concept comme un vecteur de communication supplémentaire. On peut alors considérer le cadre juridique, à travers les licences libres, et les collectifs citoyens comme autant de garde-fous : en définissant clairement ce qui constitue une donnée libre, on évite les “fausses ouvertures de données”. A ce sujet on peut évoquer cet article disponible sur le blog d’OpenStreetMap France : Opendata: La Poste, posture ou imposture ? On peut y lire que La Poste, qui se présente comme  “un acteur incontournable de l’Open Data”, organisait samedi 8 févirer 2014 un Datajam : un concours ouvert à tous tourné vers les usages innovants des données libérées. Mais en se penchant sur le règlement du concours, on peut y lire que :

” Ces données ne pourront être utilisées que dans le strict respect du Règlement, uniquement pendant la durée du Datajam, et afin de réaliser l’objectif du Datajam. Aucune utilisation ni exploitation, commerciale ou non, de ces données ne pourra être faite après le Datajam sans l’accord préalable de La Poste, ce que le Participant reconnaît expressément

 

Cette clause est en totale contradiction avec l’”Open Definition” proposée l’Open Knowledge Foundation (cf article précédent : “Open Data : Les données ouvertes et leurs licences, quel cadre juridique? “).

  • Conclusion : L’avenir de l’Open Data = les entreprises ?

L’Open Data en est encore à ses balbutiements, et les entreprises privées ont toujours des difficultés à l’intégrer (contrairement au “big data” qui apparait aujourd’hui incontournable pour qui veut enrichir sa connaissance du marché). Il est donc bien sûr difficile de prédire l’usage qui sera fait des données libres à l’avenir.

On peut toutefois raisonnablement penser que le développement de l’Open Data passera par une collaboration entre les 3 grands acteurs que nous avions identifié dès notre premier article : les institutions publiques, la société civile, et les entreprises privées.

Le secteur privé a donc un grand rôle à jouer, et il y a fort à parier que lorsque ses acteurs auront mieux perçu et exploité le potentiel en terme d’innovation, d’image et de connaissance du client de l’Open Data, le volume de données disponibles explosera et c’est tout l’écosystème Open Data qui en bénéficiera (utilisateurs et concepteurs de nouveaux outils, partenaires commerciaux…).

  • Auteurs:

Augustin Doury et Raphaël Traineau

  • Sources

[1] Article par nos camarades du groupe “L’Open Data en pratique

[2] Site du concours “New York City Big Apps”

[3] Site du programme “Data For Development” de Orange

[4] Site consacré à l’ouverture des données par JCDecaux

[5] Site consacré à l’ouverture des données de la RATP

[6] Formation proposée par le GFII et par un cabinet de conseil en architecture d’entreprise

[8] Article de 01net “Open data : ouvrir ses données au public, ça peut rapporter gros “

[9] Article du magazine “Analyse Prédictive” sur l’Open Data

Projet de veille technologique 2013-Le contenu des articles traitant du sujet “Open Data: l’avenir?” sera publié sous la licence WTFPL .

La dématérialisation accrue du clavier

Dans les précédents articles, nous avons traité un certain nombre d’alternatives au clavier physique, et comparé leurs avantages et leurs inconvénients respectifs pris dans différents contextes. Nous voulons profiter de cet article pour aborder des solutions qui, si elles sont améliorées et/ou diffusées, pourraient définitivement remplacer le clavier dans les prochaines décennies. Nous aborderons dans un premier temps la reconnaissance d’écriture avant de nous pencher sur des alternatives un peu plus innovantes et futuristes, qui marquent un pas supplémentaire vers la dématérialisation des interactions homme-machines.

 

Sur les terminaux actuellement les plus répandus : la reconnaissance d’écriture comme alternative

Que ce soit sous forme physique ou virtuelle, le clavier est encore présent sur bon nombre de terminaux utilisant un système d’interaction « physique ». En plus des supports qui sont les plus répandus (ordinateur, smartphones, tablettes), d’autres technologies comme la Windows Surface ou la Smart Window ont été développées et représentent un nouveau type de surface ludiques et originales, très éloignées des fenêtres de terminal des premiers ordinateurs.

 

Toutes ces technologies ont un point en commun : elles sont toutes basées sur un support physique que l’utilisateur « manipule » avec ses doigts. Toujours basée sur ce support matériel, la reconnaissance d’écriture représente un moyen potentiel de s’affranchir du clavier.  Si la navigation entre applications et le contrôle des machines se font sans souris, le clavier reste encore l’outil le plus efficace pour la saisie de texte, et c’est cette raison qui explique encore son succès.

Le procédé qui consiste à prendre des notes « manuscrites » sur une surface tactile existe déjà. A titre d’exemple, les apprentis de Centrale Nantes sont tous équipés de tablet-PC qui leur permettent de prendre des notes comme sur du papier, à la différence près que toutes ces notes sont enregistrées sous un format numérique. Des applications de prise de notes comme WritePad, existent également pour l’iPad d’Apple. Cette dernière application par exemple, offre non seulement la possibilité « d’écrire » sur la surface de l’écran à l’aide d’un stylet, mais également de reconnaître et convertir les notes en caractères dactylographiés.

Voici une vidéo de démonstration : http://www.youtube.com/watch?v=GG9tt1muF-M

Néanmoins, la solution semble loin d’être optimale. Par rapport à ses habitudes usuelles, l’utilisateur est contraint d’écrire en caractères gros (disons même énormes) qui occupent tout l’écran. Par ailleurs, l’on est inévitablement confronté à des erreurs de reconnaissance de forme. En effet, le traitement informatique mis en œuvre dans la reconnaissance d’écriture rend possible de suivre le tracé dynamique de l’utilisateur grâce à un échantillonnage du tracé en points ordonnés dans le temps. Cette technique repose  essentiellement sur l’existence d’une base de données de « formes » auxquelles sont comparés les tracés. Elle emploie en générale des méthodes statistiques qui vont permettre de sélectionner dans la base de données, la forme la plus proche du tracé. De ce fait, plus la base contient de formes (de mots), plus le risque de « confondre » le tracé avec une forme proche du mot correspondant est important.

 

 

Image extraite d’une vidéo de démonstration de WritePad :

http://www.youtube.com/watch?v=GG9tt1muF-M

Une idée totalement futuriste pour remplacer le clavier serait d’abolir le support physique et d’utiliser à la place des technologies basée sur la reconnaissance de mouvement. Nous nous proposons de présenter trois solutions qui exploitent cette idée.

 Le leap motion : une interface différente

La société Leap Motion a créé un boitier (le Leap Motion Controller) qui permet de manipuler son ordinateur uniquement avec les mains, à distance, sans aucun contact. Le boitier est muni de LED infrarouges et de capteurs optiques qui permettent de suivre les différents mouvements. Ce qui est intéressant avec cette technologie, c’est qu’elle offre des perspectives nouvelles pour écrire virtuellement du texte simplement à l’aide de son doigt, sans aucun contact avec un support physique. Le leap motion est plus précis qu’une tablette (il détecte les mouvements et les positions au 1/1000ème de millimètre près) et permet, en théorie, un tracé de formes plus « fin » que ne le permet un stylet sur une tablette et donc potentiellement une conversion en format dactylographié plus efficace.

 

 

Image extraite d’une vidéo de démonstration du Leap Motion Controller :

http://www.youtube.com/watch?v=N6hCwjwzUHg

 

Inconvénients : un système fatiguant pour l’utilisateur qui doit garder ses bras en l’air, et une sensation étrange dans la mesure où il n’y a aucun retour « haptique » et que l’on a rien dans les mains.

 

Le nouveau visage du clavier : le clavier projeté avec le Magic Cube

Une autre solution exploite le même principe que le leap motion, mais cette fois-ci pour une utilisation plus spécifique et plus adaptée à la saisie de texte. En effet, le Magic Cube est un dispositif portatif qui permet de projeter sur une surface plane un clavier fictif.  Par le même système de détection de mouvements que pour le Leap Controller, le dispositif permet d’identifier sur quelle « touche fictive » a appuyé l’utilisateur. Le gros avantage de cette technologie est qu’elle permet aussi bien de simuler une souris (les déplacements du doigt sont assimilables à ceux d’un curseur) qu’un clavier. L’innovation vient du fait qu’il n’y a pas de support physique fixe et que le clavier peut tantôt être une table de bureau dans une chambre, tantôt une table de café dans un aéroport ou une gare.  Par ailleurs, connecté à une tablette, il peut s’agir d’une solution intéressante en termes de mobilité, puisqu’elle limite l’encombrement et le poids d’un PC. D’autre part, elle semble plus agréable à utiliser qu’un clavier amovible puisque la surface de projection du clavier est potentiellement réglable (clavier plus grand, donc plus de confort).

 

Video de démonstration du Magic Cube : http://www.youtube.com/watch?v=ia8mamWybcY

6th Sense ou WUW (Wear ur World)

Nous parlerons dans cette partie d’un nouveau type d’ordinateur présenté par l’indien Pranav Mistry lors de la conférence TedXIndia en novembre 2009. Ce dispositif, nommé 6th sense, est totalement indépendant de toute souris et de tout clavier. Il utilise la reconnaissance de mouvements et l’analyse d’image grâce à un ensemle de capteurs qui sont disposés sur les doigts de l’utilisateur et une webcam intégrée au dispositif.  Ce dernier est quant à lui porté autour du coup par l’utilisateur. Ce concept a fait couler beaucoup d’encre dans la mesure où il se base une approche assez novatrice qui consiste à associer tous les objets qui nous entourent à une expérience et un interaction sans précédent.

Le dispositif contient également un système de projection qui permet de transformer tout objet (un mur, une table, une feuille de papier, la paume d’une main etc.) en écran, voire en clavier. A titre d’exemple, un utilisateur peut utiliser sa main comme clavier virtuel pour composer un numéro de téléphone (les touches sont projetées sur la paume de sa main).

 

Image extraite du 6th Sense Talk de TedXIndia

http://www.ted.com/talks/lang/fr/pranav_mistry_the_thrilling_potential_of_sixthsense_technology.html

 En plus de donner une forme nouvelle au clavier (projeté sur n’importe quelle surface), cette innovation permet également de réduire le recours au clavier. L’exemple donné dans la vidéo de présentation de TedXIndia est celui d’une personne se trouvant dans une librairie et feuilletant un livre sur lequel elle souhaiterait avoir plus d’information.  Actuellement, le réflexe courant que nous aurions tous serait de sortir notre smartphone et d’accéder aux informations désirées en effectuant un recherche via le navigateur web de notre téléphone, typiquement en tapant au clavier les mots clefs. Avec 6th Sense, la reconnaissance d’image intégrée à la webcam peut permettre d’identifier les références du livre en question et de la projeter sur la surface du livre pour les visualiser. En conséquence, cette technologie, en offrant plus d’interactions directes avec les objets qui nous entourent, limite les recherches et manipulations effectuées avec un clavier virtuel de smartphone et permet d’atteindre un degré supplémentaire dans la dématérialisation des procédés d’interactions homme-machine. Cependant, n’ayant pas testé par nous-même cet outil, nous ne savons pas à quel point il se prête aux types de manipulations présentées lors de la conférence TedXIndia, quelle précision il offre, à quel point il est efficace, à quel point il est précis.

La question qui se pose est de savoir si toutes ces solutions pourront atteindre un degré d’efficacité, de confort pour l’utilisateur suffisant pour remplacer le clavier physique voir le clavier numérique.

L’étude de toutes ces solutions et nous a permis de mettre en évidence comment les nouveaux procédés et les recherches innovantes pourraient permettre de modifier certaines de nos habitudes. Même si ces technologies ne permettent pas pour l’instant de totalement se passer du clavier, elles pourraient cependant considérablement réduire l’utilisation que nous en faisons et changer nos habitudes.

 

 SOURCES :

“Celluon dématérialise votre clavier et votre souris” – 25/03/2011-

http://www.sapoworld.net/celluon-dematerialise-votre-clavier-et-votre-souris/

 

Site officiel de Celluon Magic Cube :

http://www.celluon.com/products.php

Wikipedia – Reconnaissance de l’écriture manuscrite

http://fr.wikipedia.org/wiki/Reconnaissance_de_l’%C3%A9criture_manuscrite

 

Wikipedia – Sixth Sense

http://fr.wikipedia.org/wiki/SixthSense

 

Vidéo TedXIndia Talk – Pranav Mistry : l’excitant potentiel de SixthSense – 09/2009

http://www.ted.com/talks/lang/fr/pranav_mistry_the_thrilling_potential_of_sixthsense_technology.html

 

Site officiel de la société Leap Motion

https://www.leapmotion.com/product

“Test : Leap Motion” – Le journal du Geek – 25/07/2013

http://www.journaldugeek.com/2013/07/25/test-leap-motion/

Licence Creative Commons
La dématérialisation accrue du clavier de Clara Doucouré et Antso Ramahefa-Andriamiandra est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International.

Allez plus loin dans la motion capture…

Jusqu’à présent nous vous avons présenté différentes techniques pour faire de la motion capture. Ces techniques sont utilisées pour créer un squelette et seulement un squelette. Ce dernier peut éventuellement être modifié informatiquement. Ensuite un maillage grossier est créé par-dessus le squelette pour définir la forme du personnage de synthèse. Puis il est affiné pour faire disparaître les polygones trop gros, et ainsi avoir un meilleur rendu. Finalement les textures les ombres… sont ajoutées.

 

Voici un dossier en anglais bien plus détaillé que ce qu’il y a sur ce blog concernant les différentes étapes de la motion capture du squelette au personnage 3D :

http://www.xsens.com/images/stories/PDF/20110412_Develop_issue115.pdf

 

De toutes les techniques que nous avons présentés aucunes n’est réellement optimale. Elles ont chacune leurs spécialités et sont choisies en fonction du projet initial. Cependant la motion capture à l’aide de capteurs optoélectroniques est la plus courante dans les milieux spécialisés tel que le cinéma ou les jeux vidéo. Le but dans les années à venir est de se diriger vers de la motion capture en temps réel, celle-ci trouverai une application révolutionnaire dans le monde vidéo-ludique. Une telle technologie de paire avec  une technologie de type Occulus Rift permettrait au joueur de rentrer réellement dans le jeu.

 

Une autre idée de l’évolution de la motion capture est développée dans la vidéo qui suit que je vous conseille de voir :

http://geektyrant.com/news/2012/1/18/the-future-of-motion-capture-hilariously-explained-by-bay-fa.html

 

Loïc LABAGNARA & Julien STAROZINSKI

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions 3.0 non transposé.

La limite des données Open Data

L’Open Data prend de plus en plus d’ampleur depuis quelques années, les données se multipliant, la communication y ayant trait se développant, … Les sociétés ou entités gouvernementales publient chaque jour davantage de données pour montrer au monde qu’elles s’inscrivent dans une démarche Open Data. Cependant, il convient de s’interroger sur ces données et de se demander jusqu’où va la démarche Open Data. Autrement dit, quelles sont les limites des données ouvertes ? Nous verrons que là encore, du progrès est à faire …

 

La première critique que l’on peut formuler sur l’Open Data est le coté fouillis qui l’entoure. En effet, les plates-formes de données sont souvent peu structurées, à l’exception récente de data.gouv.fr qui a beaucoup progressé depuis 1 an. Ce site dispose, à l’inverse des initiatives locales/régionales, d’un aspect communautaire, ce qui permet de noter l’utilité des jeux de données. De quoi défricher un peu la jungle que sont les plates-formes de données…

Le principal reproche que l’on peut faire à l’Open Data est l’amoncellement de données non cohérentes entre elles. Certes, c’est pour la bonne cause, pour la transparence et pour la diversité mais cela requiert un tri possible et efficace pour l’internaute. Ce n’était pas le cas pour la plate-forme Nantaise. Désormais un tri est possible mais pas très conviviale. Et oui, l’interface des portails Open Data est très souvent austère : un néophyte ne voudra jamais se plonger là-dedans. Ce n’est peut-être pas anodin… Les éditeurs de données mettraient alors en avant des données pour empêcher les visiteurs de tomber sur des données plus critiques, mises en ligne par obligation (principalement dans le secteur public).

L’abondance des données semble cacher encore d’autres lacunes. Celle qui revient le plus souvent est l’absence de normes et l’utilisation de formats de fichiers peu adaptés.

Pour mieux illustrer ce propos, prenons un exemple. Sur le site data.gouv.fr, on peut trouver la liste complète des gouvernements de la Vème république. Deux choses clochent :

  • le nom du fichier est tout sauf descriptif du contenu “Ressource sans nom”

  • le format du fichier : en .rtf. Un tel format ne permet pas de faire tourner un algorithme : il n’est pas structuré ni formalisé.

L’imposition d’une norme pour le partage des informations de type Open Data permettrait de faire évoluer les choses dans le bon sens…

Une autre critique concerne les données qui sont ouvertes (par obligation), mais qu’on cherche à cacher le plus possible. C’est le cas des données sur l’insécurité rendues publiques par le gouvernement, qui manifestement ne tient pas à ce qu’on consulte ou analyse ces données. En effet, les data-journalistes qui ont publié le baromètre, ville par ville, de la délinquance en France, ont effectué un véritable partout du combattant ! Premièrement, le ministère de l’Intérieur ne publie lui-même aucun chiffre. Quant à l’ONDRP (observatoire national de la délinquance et des réponses pénales), il ne publie que des statistiques départementales, et non ville par ville … Les data-journalistes ont alors du se plonger dans un rapport annuel publié par DCPJ (direction centrale de la police judiciaire). Parcourant ces 420 pages uniquement accessible sous format PDF, les data-journalistes ont recopié une à une les données dans un document Excel… Tache laborieuse qui leur a pris plusieurs jours ! La DCPJ pourrait évidemment transmettre ces données aux médias sous la forme d’un document Excel mais elle refuse catégoriquement de le faire. On se demande pourquoi…

Encore une déception : l’ouverture des données du gouvernement n’est que partielle. Certains types de données sont encore cadenassés, malgré la démarche d’ouverture du gouvernement. C’est le cas des données culturelles, qui font partie des exceptions au cadre de l’Open Data fixées par la loi Cada de 1978. Par données culturelles, entendez les données produites par “des établissements et institutions d’enseignement ou de recherche” ou par des “établissements, organismes ou services culturels”. Le régime particulier d’ “exception culturelle” permet à ces établissements de fixer les conditions de la réutilisation de leurs données, tandis que les autres administrations relèvent du régime général de cette loi, qui instaure un droit à la réutilisation des informations publiques au profit des citoyens.

Très peu d’administrations tendent donc à publier leurs informations culturelles. Contre-exemple tout de même : on peut féliciter la ville de Toulouse qui a rendu public ses archives municipales, en publiant un nouveau règlement relatif à la réutilisation de leurs données.

Il convient maintenant de se demander pourquoi les entreprises n’ouvrent pas toutes leurs données. Une réponse possible est la perte de clients en cas d’ouverture des données. Petit exemple : supposons que la SNCF rende public ses données concernant les horaires des trains. Plusieurs applications se basant sur ces données seraient très certainement créées. Google Maps pourraient par exemple proposer un outil de recherche des trains à prendre pour effectuer tel ou tel itinéraire. Ces nouvelles applications vont alors capter le public, et faire perdre des opportunités à la SNCF…

Dans le domaine des données manquantes, passons au cas des données temps réel, toujours très peu présentes, malgré l’omniprésence de l’Open Data dans les transports. Intéressons nous à la ville de Nantes, où l’estimation du temps restant avant le prochain tram est désespérément absente du site d’Open Data nantais. Pourtant cette donnée existe car elle est affichée sur les panneaux le long des arrêts des tramways. Le plus étonnant est que cette information est aussi absente de l’application Tan pour smarts phones, qui se base sur les données libres mises à disposition par l’entreprise. Est-ce de la paresse ou une indisposition technique qui empêche une telle donnée cruciale d’être disponible ? Nul ne sait.

Dans la même optique, la Muni Watch, dont nous évoquions son existence dans notre précédent billet, s’est également frottée à l’épineux problème des données temps réelles. Depuis son blog, l’inventeur de cette montre a expliqué son combat avec la société de transport en commun de Los Angeles, MTA, pour obtenir le droit d’accès aux données temps réel du réseau.Il a réussi à obtenir pour lui mais aussi pour les autres développeurs l’accès à cette donnée en 2009. Si cette avancée a été possible, pourquoi pas dans d’autres villes ? Même a Paris, cette donnée n’existe pas (l’application Watch Dogs, également présentée durant notre dernier billet, interpole simplement les données à partir des horaires de passage théorique, mais ce n’est pas du temps réel).

Pour finir, un dernier aspect sur la limite des données Open Data : la publication de certaines données mais non réutilisables ! Pire, des applications s’appuyant sur certains données publiques se sont vues fermées… Deux exemples pour illustrer cela :

Le premier concerne la fermeture, un an et demi après son ouverture en mai 2011, du comparateur de tarifs médicaux “fourmisanté” qui vous donne la carte des médecins à proximité, leurs prix et ce qui reste à charge. Ce site utilise les données publiques présentes sur les sites d’organismes officiels : ordre des médecins, CNAM, mutuelles santé et ministère de la santé. Primée pour l’innovation de cette ouverture de données publiques, cela n’a pas empêché la CNAM de demander le retrait des ces données selon elle « manipulées ». La ministre de la santé, Marisol Touraine, s’est exprimée sur ce sujet en expliquant « qu’il revient aux pouvoirs publics de rassembler ces informations sur les hôpitaux, pour les rendre plus accessibles et plus transparentes ». En d’autres termes, l’open data, c’est très bien, mais sous contrôle de l’administration…

Deuxième exemple, la fermeture totale et définitive du site Dentistedegarde.net. Le service, s’appuyant sur un partenariat avec l’ordre des chirurgiens-dentistes de Loire-Atlantique, permettait de trouver le dentiste de garde le plus proche. Le CHU de Nantes redirigeait vers ce service depuis son site internet et dentistedegarde.net a reçu plus de 18 000 visites en moins d’un an. Fin 2012, l’ordre a mis fin à son partenariat,  indiquant aux développeurs qu’il devait cesser de fournir la liste des gardes.Le remaniement dans la diffusion des gardes a été demandé par le ministère de la Santé afin d’organiser une redirection générale vers le Samu. C’est le 15 qui  orientera les patients auprès des praticiens ou hôpitaux selon les besoins.
D’après Jérôme Mousseau, Président de l’ordre, cette volonté de remaniement répond à un manque d’informations sur le service de garde : « Beaucoup de gens ne savent pas qu’il y a un service de garde tous les dimanches matins et tous les matins des jours fériés ». Ce qui est tout à faire paradoxale : on peut en effet se demander en quoi supprimer l’information en ligne et la restreindre au 15 permettra au public de mieux connaître l’existence de ces services… Se pose aussi la question de l’ouverture de données d’utilité publique (ayant par exemple trait à la santé, la sécurité, la culture ou les finances), qui restent jusqu’alors en marge de l’Open Data. C’est ce genre de données qui devraient être ouvertes, et non celles dont tout le monde se fichent…

En conclusion, si le mouvement Open Data s’accélère et a pris relativement vite, de nombreux problèmes, qui auraient dû être résolus dès le début, (re)font surface : de l’absence des données cruciales, que ce soit par blocage des organismes (la liste des médecins de garde) ou autres (les données temps réelles à Nantes par exemple) à l’absence de normes permettant la réutilisation simple des données, on peut dire que la route vers le succès de l’Open Data est semée d’embuches. Néanmoins, cela va de mieux en mieux, les autorités comprenant désormais l’intérêt du partage des données.

Sources (visitées le 14 février 2014) :

Open Data culturel : ouverture des archives toulousaines
Insécurité, des données publiques bien cachées
Couvrez ces données que l'on ne saurait voir
Discours de la ministre de la santé, Marisol Touraine

Licence :
Licence Creative Commons

Auteurs :
Sébastien COHENDET & Maxime TERRADE

L’avenir des systèmes d’information géographiques 3D

Nous avons pu voir que l’essor de la cartographie 3D est assez récent et ce domaine est en pleine évolution. On remarque plusieurs tendances dans cette évolution.

Un logiciel unique :

Au lieu d’avoir un logiciel pour le SIG, et d’autres pour la CAO (Conception Assistée par Ordinateur), la BI (Business Intelligence) ou la gestion de l’ERP (Enterprise Resource Planning : progiciel de gestion intégré), la normalisation des formats des données permettra de développer des SIG 3D s’intégrant au cœur du système d’information d’une entreprise.

Rassembler toutes ces fonctionnalités dans un seul logiciel permettra non seulement de faire des économies de temps, comme l’utilisateur n’aura plus à jongler entre les différents logiciels, mais aussi et surtout, ce logiciel unique ouvrira la porte à des usages nouveaux, à l’interface de ses différentes composantes, sources de nouvelles richesses.

Utilisation d’internet :

Internet offre plusieurs capacités qui pourraient être utilisées par un SIG : plateformes de Cloud, architecture de services web, appareils mobiles connectés, nouveaux contenus, nouveaux capteurs, Big Data, … C’est ainsi qu’en 2013 on a pu voir apparaître ArcGis Online, plateforme géospatiale sur le Cloud. Esri a aussi mis en place ArcGis for Server, un moyen de diffuser des services web à des applications web, mobile et bureautique associées au SIG, qui permet aussi d’intégrer les Big Data au SIG.

Avec le développement du Web 2.0 et le principe du crowdsourcing, l’implication et la participation des utilisateurs est un aspect prometteur dans la cartographie libre sur Internet. En proposant des outils de développement adaptés et en facilitant la publication de données Open Data, une communauté d’abonnés peut se former, et les utilisateurs peuvent alors mettre en commun un grande quantité de contenu. L’exemple le plus connu dans le domaine de la cartographie est OpenStreetMap qui se limite aux données 2D. Les données 3D, de par leur complexité et l’absence d’une norme, ne sont pas encore adaptées à ces usages participatifs, mais la normalisation des formats ouvrira probablement la voie à des cartographies 3D participative, au moins pour les premiers niveaux de détail.

Par ailleurs, dans la base de brevets mondiaux de l’INPI (Institut National de la Propriété Industrielle),  on trouve des brevets reliant SIG 3D et l’Internet des objets (CN203165208 (U), CN202976500 (U), CN202976181 (U), …). L’Internet des Objets (IdO) désigne l’ensembles des données (codes, puces, URL, ..) qui sont rattachées à un endroit ou un objet du monde réel. Ces données sont présentées sous formes d’étiquettes, et présentent un intérêt majeur pour la réalité augmentée, mais aussi pour les SIG 3D, qui peuvent s’en servir pour de nombreuses applications.

L’intégration des smartphones et tablettes :

A l’avenir, on verra sûrement une multiplication des applications multiplateformes : bureautique, smartphone et tablette, avec un renforcement de l’intégration des plateformes mobiles au sein du SIG 3D.

Un nouveau type d’IHM :

Même si l’interaction est souvent à l’aide d’un clavier et d’une souris, on peut aussi envisager une application de réalité virtuelle associée au SIG 3D, qui permet la modification des données avec de nouvelles technologies : gants interactifs, ou détection de mouvements avec la Kinect ou la Leap Motion.

La réalité augmentée :

Les applications de réalité augmentée (RA) sur smartphone et tablette utilisent souvent la position GPS du téléphone, elles peuvent donc facilement intégrer des données issues d’un SIG. Par exemple, on peut créer une application qui ajoute par dessus la scène filmée les anciens bâtiments d’une ville.

La réalité augmentée peut aussi permettre d’explorer une carte 3D en déplaçant une caméra autours d’un support.  On peut voir cela comme un nouveau type d’interaction avec une modélisation 3D.

Exemple : http://www.youtube.com/watch?v=yFwzFby2eNo

Géolocalisation en intérieur :

La géolocalisation en intérieur (indoor positionning) n’en est qu’à ses débuts, avec notamment Indoor Google Maps, mais peut présenter un enjeu déterminant pour certains lieux (aéroports, centres commerciaux, hôpitaux, …).

La géolocalisation en intérieur permettra aussi de cartographier les intérieurs des bâtiment, comme il est actuellement possible de cartographier les extérieurs pour OpenStreetMap en utilisant le GPS du téléphone. Ce système permettra donc de faciliter l’acquisition de données 3D et ainsi permettre l’essor du crowdfounding pour les données 3D.

Sources :

http://www.inpi.fr

http://fr.wikipedia.org/wiki/Internet_des_objets

http://www.arcorama.fr/

http://www.arcorama.fr/2014/01/vous-devriez-aimer-2014.html

http://www.gislounge.com/opinion-future-gis/

Creative Commons License
Ce projet est mis à disposition selon les termes de la licence Creative Commons Attribution-NonCommercial-ShareAlike 3.0 Unported License, par Thomas Brunel et Jules Party.

NSA: de la récupération des données à leur analyse

Jusqu’alors nous nous sommes intéressés aux moyens utilisés par la NSA pour récupérer les données des citoyens du monde entier. Deux points de vue ont été abordés. L’accès aux données semble passer soit par la mise en œuvre de techniques d’espionnage, soit par la complicité de grandes entreprises américaines. Lorsque ces données sont protégées par des techniques de chiffrement, nous avons vu que la NSA était souvent capable de passer outre, et que parfois elle parvenait à mettre en place des techniques de Cheval de Troie en influençant directement sur la conception de logiciels de sécurité grands publics. Les moyens mis en oeuvre par la NSA sont donc multiples et leur permettent de récupérer des données dont le volume est très conséquent, et les rend de fait difficilement exploitables. C’est le problème auquel nous nous intéressons dans cet article. Il est difficilement concevable que la NSA exploite l’ensemble des données qu’elle récupère. Le défi consiste à établir des moyens pour cibler certaines personnes, en prenant en compte l’ensemble des paramètres disponibles. On entre alors dans le cadre du Big Data.

Commençons par établir plus précisément ce qu’on entend par le terme Big Data, qui a eu le malheur de devenir un peu trop à la mode, certains l’utilisant parfois à tort et à travers. On entend par Big Data les problèmes liés à des volumes de données très importants. Le mot important peut ici sembler subjectif. Il est cependant possible d’en donner une définition satisfaisante. Par très important on entend le fait que la quantité des données est telle qu’elle rend difficile leur exploitation à partir des algorithmes classiques, que ce soit en terme de coûts de calcul ou stockage. Un autre problème qu’englobe le Big Data est celui de la haute dimension. Depuis leur avènement les statistiques se sont cantonnées à des problèmes où le nombre de variables p est beaucoup plus faible que le nombre d’éléments n des échantillons étudiés. Idéalement, le rapport p/n des deux quantités doit tendre vers zéro, ce qui permettra de réduire la variance des estimateurs des variables. La haute dimension concerne le problème inverse, c’est-à-dire le cas où le nombre de variables p est plus grands que le nombre d’éléments n de l’échantillon, voire où celui-ci croît de façon exponentielle avec le nombre d’échantillons. Le défi consiste alors à parvenir à extraire une information intéressante de ces données. Pour bien comprendre le phénomène, un exemple typique de cas où le nombre de variables est beaucoup plus grand que celui du nombre d’éléments des échantillons est celui des réseaux sociaux. En effet, chaque fois qu’un nouvel utilisateur s’inscrit, le nombre de connexions entre les utilisateurs augmente bien plus que celui du nombre d’utilisateurs du réseau social qui n’augmente que d’un. Le terme Big Data ayant été défini de manière un peu plus précise, nous allons décrire quelques unes des méthodes relative au domaine qui ont récemment émergé et qui sont susceptibles d’être utilisées par la NSA. Nous n’avons bien sûr aucune preuve pour appuyer nos suppositions, mais elles nous semblent vraisemblables.

Le premier problème lié au Big Data est la capacité de stockage que nécessite le volume très important des données. Ce problème peut être géré de deux façons. En amont, il est possible d’analyser les données récupérées et de les filtrer. En aval, on peut supposer que la NSA utilise une technique semblable à celle utilisée par Google, qui consiste à mettre au point des algorithmes de traitement des données sur des systèmes répartis. Le traitement des données est effectué localement sur différents serveurs et l’ensemble des résultats des tâches effectuées localement subit un traitement final. On parle de MapReduce. Map correspond à la répartition des différentes tâches sur les serveurs. Reduce correspond à l’étape de traitement de l’ensemble des résultats fournis par les serveurs de manière à produire un résultat final exploitable et prenant en compte l’ensemble des données de tous les serveurs. Ce modèle de traitement présente notamment l’avantage de s’appliquer à de nombreuses architectures de données, dont les graphes qu’on retrouve par exemple dans la modélisation des relations au sein d’un réseau social. Ceci donne une idée de la façon dont la NSA doit adapter ses algorithmes pour pouvoir tirer parties de l’ensemble des données qu’elle récupère. De façon générale, la recherche actuelle vise à adapter des méthodes statistiques aux problèmes du Big Data. Pour plus de renseignements on se renseignera par exemple sur le clustering adapté au Big Data.

Un autre problème lié qu’il est possible d’inclure dans le Big Data est celui de la haute dimension. Comme expliqué dans l’introduction de cet article, ce problème correspond au cas particulier où le nombre de paramètre ne devient jamais négligeable par rapport au nombre d’éléments d’un échantillon. Les techniques d’inférence classique étant basées sur ce prédicat, il a fallu mettre au point des adaptations de celles-ci. Le but de cet article n’est pas d’en donner le détail, mais de fournir des pistes. Une idée qui est très en vue est celle de réduire la dimensionnalité du problème, en supposant que finalement le nombre de paramètres ayant une influence notable sur la quantité étudiée est négligeable.

Les techniques mises au point pour palier le problème du Big Data sont diverses et variées, et la recherche dans le domaine est actuellement très active, notamment aux Etats-Unis et dans l’Union Européenne qui ont chacun de leur côté alloué de grosses quantités d’argent pour soutenir le développement de nouvelles méthodes. Il est difficile d’affirmer quelle méthode est utilisée par la NSA, mais cet article a au moins le mérite de montrer que le Big Data peut être utilisé de façon plus ou moins malveillante.