[ENERG13] Etat de l’art des méthodes de calcul des échanges d’énergies -Synthèse-

Notre aventure arrive hélas à sa fin, nous espérons avoir régalé  votre curiosité sur ce sujet à travers  ces articles.

Pour ce dernier post, nous allons annoncer le plan de notre rapport ainsi :

Nous prévoyons de commencer par une introduction générale sur le sujet. Ensuite nous reviendrons sur les différentes méthodes développées à travers nos articles dont voici un aperçu.

1. Deux approches (thermique / hydro énergétique)

Pour ce premier article, nous avons choisi de présenter deux approches de modélisation énergétiques et climatiques pour la ville. La première regroupe un ensemble de méthodes prenant en compte différents flux, modélisant certains flux mieux que d’autres selon la méthode. La deuxième approche est spécifique au développement de nouvelles approches urbanistiques, impliquant le cycle de l’eau directement dans les échanges énergétiques de la ville. Un ensemble de méthode permet de modéliser les échanges dans ce type de situation et d’anticiper les états climatiques des zones urbaines….

2. Modélisation par lancer de rayon, algorithme de radiosité

Une méthode évoquée dans le premier article était celle du lancer de rayon. Qu’en est-il vraiment? Nous allons ici présenter une manière d’utiliser le lancer de rayon, puis voir sa mise en place concrète dans le cas d’un logiciel.

3. Considération des flux (trafic)

Dans cet article, nous allons parler d’une étude menée conjointement par une équipe des ingénieurs de la ville de paris et une autre de l’université paris Est. Elle exhibe une méthode hybride de modélisation des flux énergétiques urbains pour des projets d’aménagements. Cette recherche propose dans un premier temps de faire un bilan d’énergie sur la zone à aménager Ensuite elle propose une modélisation de ces flux qui permet de prendre en compte les échanges radiatifs extérieurs, la thermique du cadre bâti et de la canopée et la mobilité.

4. Microclimats urbains

La consommation énergétique des bâtiments (et donc des zones urbaines) est une part importante des dépenses énergétiques actuelles. C’est pourquoi dans un article nous présentons  une modélisation fine des transferts d’énergie associés est potentiellement puissante dans le sens de la réduction des dépenses énergétiques.

 

Nous terminerons ce rapport par une conclusion sur ces méthodes.

Licence :

Licence Creative Commons

 

[Smart Cities] Synthèse

Si vous avez lu tous les articles avant celui-ci, vous avez du réaliser qu’une Smart City, c’est quelque chose de difficile à définir. La définition wikipédia basique donne une bonne vision de la ville intelligente idéale mais ne permet pas de saisir les moyens mis en oeuvre et les différents process nécessaires à la transformation d’une ville en smart city, car c’est bien là l’enjeu!

Si certains pays, qui se développement et s’urbanisent à grande vitesse, peuvent se permettre de créer des villes en les pensant smart pendant la création, la difficulté dans les métropoles actuelles réside en la capacité à se réinventer.

Plusieurs grandes entreprises d’IT utilisent le concept de Smart City comme un élément marketing pour récolter des clients dans le public. Ils proposent l’installation de capteurs et de centre de stockage et de traitement de données. Mais aussi leur expérience en Business Intelligence et en analyse de données pour proposer des logiciels plus ou moins sur mesure pour répondre à certaines problématiques des villes.

Mais c’est à travers ses habitants, en trouvant les meilleurs moyens d’interagir avec eux, qu’une ville passe de “digitale” à “intelligente”. Il faut dire que personne ne connaît mieux les problèmes d’une ville que ses habitants qui les vivent chaque jour et en râlent lors de soirées barbecue. Pour leur permettre de trouver des solutions à leurs problèmes, les villes ouvrent de plus en plus leurs données au public et l’invite à les exploiter de façon proactive comme à New York avec le programme New York City Big Apps.

Conclusion sur la résilience informatique

Au fil des différents articles que nous vous avons présenté, on a pu constater que la résilience informatique est un sujet vaste qui peut concerner tous les domaines de l’informatique. Nous avons abordé quelques domaines où la elle était un élément central.

Pour les réseaux TCP/IP à la base des réseaux internet, les données circulent sur des maillages complexes, cette organisation en mailles fait que le réseau est résilient au niveau global. Des incidents locaux surviennent fréquemment mais ceux-ci sont rapidement détectés et corrigés. Pour les données du cloud, c’est le taux de disponibilité et l’accessibilité aux données qui sont les préoccupations principales, cela passe surtout par une duplication et une répartition des ressources dans des lieux géographiques différents. Enfin pour les systèmes informatiques embarqués, ceux-ci sont soumis à de nombreuses contraintes lors de leur conception, la résilience doit être prise en compte dès le départ aussi bien au niveau du hardware que du software.

Selon les secteurs d’activités, les enjeux et les méthodes utilisés peuvent être totalement différents. De plus au sein d’un même secteur d’activité, il est assez courant d’observer que chaque entreprise a sa propre approche concernant la résilience. Il est difficile d’établir des standards pour l’évaluation et la mesure de la résilience. Les frameworks existants sont en général trop spécialisés pour être diffusés à large échelle ou trop généralistes pour être applicables de manière efficace dans des situations réelles.

Malgré les difficultés rencontrées dans l’évaluation et la mise en place de la résilience informatique, les conséquences des défaillances sont bien réelles. Les constructeurs n’ont pas le choix, ils doivent minimiser les défaillances et faire en sorte que leurs systèmes se remettent rapidement en état de marche. Nous espérons qu’à travers nos articles, nous vous aurons sensibilisé aux différents enjeux de la résilience informatique.

Licence Creative Commons

PRISM, la synthèse

Nous voici parvenus à la fin de cette série d’articles sur le programme PRISM de la NSA. La révélation de son existence par Edward Snowden en juin 2013 a fait scandale, et a dévoilé l’ampleur de la pénétration de nos vies privées, rendue plus aisée encore par l’avènement des nouvelles technologies de communications, dont les plus grands acteurs sont américains et semblent coopérer plus ou moins tacitement avec la NSA.

Deux points de vue distincts ont été abordés. D’une part, nous avons cherché à comprendre les différents moyens mis en oeuvre pour récupérer des données qui sont censées être privées. Le spectre de ceux-ci est très large, il est donc difficile d’en faire l’étude dans toute sa panoplie. Cependant, les révélations majeures de ces derniers mois concernent la coopération d’entreprises américaines telles que Google ou Yahoo, ainsi que la volonté tenace de la NSA de venir à bout des systèmes de protections de données. Des outils de chiffrements réputées pour leur sûreté semblent avoir été rendues vulnérables par l’introduction en amont d’un cheval de Troie ou backdoor en anglais. Au vu de la vulnérabilité de nombre de systèmes auparavant réputés sûrs, la question de l’existence de protections efficaces s’est posée. Le réseau TOR, qui consiste à chiffrer les données transmises et à cacher l’adresse IP de l’émetteur en faisant transiter de manière aléatoire les données par différents éléments du réseau. Les documents divulgués par Edward Snowden semblent confirmer que malgré quelques failles, ce système de protection se révèle efficace dans une majorité des cas et que les attaques fructueuses ne sont possibles que sur des cas ciblés.

Le second point de vue abordé est celui du traitement des données récupérées. En effet au-delà du “simple” problème de la récupération des données, le traitement de celles-ci pour les rendre utilisables, compréhensibles, est une tâche tout aussi ardue. Nous avons donné quelques pistes quant aux moyens qui peuvent être mis en oeuvre dans le but de répondre à ce problème, mais nous n’avons pas pu aller au-delà de simples supputations, peu d’informations ayant fait surface concernant cet aspect du programme PRISM.

Notre rapport final résumera ces deux points de vue, et notre conclusion visera à lister quelques moyens disponibles pour se protéger contre la pénétration de notre vie privée, ainsi que les risques encourus lors de l’utilisation des outils de communications fournis par les grandes entreprises américaines. Nous donnerons également un point de vue un peu plus subjectif quant aux moyens que la France et plus généralement l’Union Européenne peuvent mettre en oeuvre pour se prémunir face à l’espionnage de ses ressortissants, de ses entreprises et de son personnel diplomatique.

Résumé sur la motion capture

La motion capture, ou capture de mouvement, est une technique permettant d’enregistrer les mouvements d’une personne afin de les faire reproduire par un personnage animé. Elle permet d’avoir un mouvement fluide sans prendre en compte tous les facteurs (muscles, os…) qui permettent de faire le mouvement.

Une fois le mouvement enregistré, il est adapté au squelette du personnage 3D en post-traitement. Il est ensuite possible d’adapter le mouvement en fonction de l’environnement du personnage 3D.

  AVANTAGE INCONVENIENT
Exosquelette Accès direct aux 6 degrés de liberté de chaque capteur

Les positions sont données instantanément

Encombrant

Lourd

Des fils peuvent gêner les mouvements

Systèmes magnétiques Accès direct aux 6 degrés de liberté de chaque capteur

Positions données instantanément

Pas d’occultation

Sensible aux perturbations

Faible bande passante

Les câbles peuvent limiter les mouvements

Faible précision

Systèmes optoélectroniques Mesure précise

Grande bande passante

Grande liberté de mouvement

Attention de pas cacher un marqueur, ou que le marqueur bouge à cause de la zone où il est posé

Interférence lumineuse

Obligation de retravailler les données après

Bien que l’on soit obligé de retravailler les données fournies lors d’une séance de motion capture avec un système optoélectronique, ce système reste très intéressant par le fait qu’il est très rapide à mettre en place et qu’il permet pratiquement n’importe quel mouvement demandé.

En effet, les petites boules réfléchissantes posées sur le corps sont très facile à mettre en place. Ensuite il suffit juste de filmer le sujet et de traiter les lumières réfléchies.

La motion capture cherche maintenant à s’améliorer pour pouvoir être miniaturiser et plus abordable. La motion capture trouve de nouvelles applications dans la capture de mouvement en temps réel (Kinect), mais elle demande encore à être plus précise et plus rapide.

De nouvelles techniques sont en cours de développement mais nous ne pouvons parler encore de leurs performances.

 

Pour notre rapport, nous suivrons le plan ci-dessous :

I-                    Définition

II-                  Comment faire vivre un personnage avec de la Motion Capture ?

III-                Les différentes techniques

IV-               Les techniques de l’avenir

A quand la fin du clavier ? Article final

Depuis l’apparition du clavier, celui-ci s’est imposé comme l’outil le plus adapté pour le traitement de texte et on le retrouve aujourd’hui sur une multitude de terminaux, que ce soit sous forme physique ou sous forme virtuelle. Mais avec les rapides évolutions du monde technologique, qui tendent à créer de nouvelles formes d’interactions homme-machine toujours plus intuitives, agréables et ergonomiques, l’hégémonie du clavier est en question.Notre travail de veille technologique nous a amenés à nous questionner sur les possibles alternatives technologiques pouvant remplacer le clavier dans les prochaines années.

Démarche et le point de vue adoptés

Nous avons tenté de réfléchir sur un ensemble d’alternatives en mettant en exergue les fonctionnalités techniques, avantages et inconvénients que chaque solution présentait, avec un point de vue objectif. Plutôt que de faire une énumération de technologies, nous nous sommes efforcés d’adopter un esprit critique afin de donner une valeur ajoutée à notre travail d’investigation et de recherche. Ainsi, chaque solution a été confrontée au clavier afin d’en faire émerger les avantages, insuffisances ou potentialités pour les années à venir.

Tour d’horizon des thèmes et sujets traités

D’un point de vue technique, après avoir fait un bref historique sur le clavier (de 1960 à aujourd’hui), nous avons confronté le clavier à plusieurs technologies innovantes. Tout d’abord, nous avons introduit la technologie tactile que l’on utilise tous les jours sur nos smartphones et tablettes. C’est efficace mais ce n’est pas aussi confortable et rapide que le clavier classique. Puis, nous avons détaillé les possibilités qu’offrait la reconnaissance vocale. C’est un moyen qui permet de se passer de l’usage de ses mains et du clavier. Néanmoins, cette technologie n’offre pas encore les performances et la rapidité suffisantes attendues des utilisateurs pour remplacer définitivement le clavier. Le troisième article était consacré à la reconnaissance d’écriture. Elle se base sur la transformation de l’écriture manuscrite en texte sous format numérique. Encore une fois, c’est un procédé viable mais pas encore au point car il présente plusieurs anomalies. L’utilisateur doit prendre son temps, s’appliquer pour que son écriture puisse être reconnue sans erreur. Nous avons ensuite discuté les technologies impliquant la reconnaissance de mouvement, comme le leap motion. Avec cet outil, on écrit de manière plus précise qu’avec une tablette. Mais c’est un système fatigant pour l’utilisateur. Nous avons également montré plusieurs techniques de projection du clavier (sur sa main, sur une feuille de papier…). Cette technique nous apparait comme la plus susceptible de détrôner le clavier tel que nous le connaissons.

 

Pour finir, le rapport final comportera les parties suivantes :

I. Historique et principaux faits

II. Technologies tactiles et claviers virtuels

III. Reconnaissance vocale et reconnaissance d’écriture

IV. Solutions pour optimiser l’usage du clavier

V. L’émergence de technologies avant-gardistes et dématérialisation du clavier

 

Cette expérience nous aura permis de mener un véritable travail d’investigation, tout en utilisant notre esprit critique pour juger de la pertinence et de la viabilité des différentes alternatives au clavier.

Licence Creative Commons
A quand la fin du clavier ? Article final de Clara DOUCOURE et Antso Ramahefa-Andriamiandra est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International.

Synthèse de la saga “Open Data, l’avenir ?”

Open Data : l’avenir ?

Synthèse

Vous avez raté nos articles sur le thème “Open Data, l’Avenir ?” des 5 derniers mois ? Pas de panique, nous vous proposons dans cet article de revenir sur le travail que nous avons mené pendant ce projet de veille technologique, et les principales informations qu’il faut en tirer.

Trois types d’acteurs

Dès notre premier article d’introduction, nous identifiions trois types d’acteurs qui font l’Open Data et qui sont donc à prendre en compte si on s’intéresse à l’avenir de l’Open Data.
- Les institutions publiques : les collectivités locales, les ministères…
- Les institutions privées, en particulier les entreprises : nous en avons analysé le rapport avec l’Open Data dans notre dernier article
- La société civile et les citoyens : vous, nous, chaque citoyen contribuant à l’Open Data, militant, “consommant” des données ouvertes…

Nous avons choisi de ne pas faire d’article à part entière sur l’analyse de ces catégories, mais plutôt de lire chaque thème en ayant à l’esprit leurs distinctions. Nous avons vu que tous ces acteurs jouaient un rôle dans l’Open Data, et que leurs intérêts étaient bien souvent directement ou indirectement lié.

Le cadre juridique et la protection des données

Pour amorcer notre série d’articles, nous nous sommes interessés à la définition de l’Open Data dans cet article. Les “données ouvertes” sont, par définition de l’Open Knowledge Foundation, les données librement utilisables, réutilisables et ditribuables par tout le monde. Il existe donc une définition et un cadre juridique à l’Open Data.

Si la réutilisation des données est libre, alors on peut se poser la question de la protection de données “à caractère personnel”. Nous avons donc, à l’occasion d’un article sur la protection des données personnelles, interrogé Benjamin Vialle, auditeur des Systèmes d’Informations au Service des Contrôles de la CNIL. Nous avons appris que, la diffusion de données personnelles étant soumise à autorisation préalable ou à une anonymisation, l’Open Data ne posait a priori aucun problème de protection des données personnelles.

Nous avons néanmoins pu constater qu’il existait une incompatibilité de fond entre la loi Informatique et Libertés (dont le message, est en substance “limitons le nombre de données stockées en imposant de justifier l’usage qui en est fait”) et la mouvance Open Data (et son leitmotiv “augmentons le nombre de données disponibles pour créer de nouveaux usages !”).

La situation actuelle : des débuts prometteurs

Comme on a pu le faire remarquer tout au long de nos articles, l’Open Data en est à ses débuts. Mais à l’instar du “Big Data”, tous les analystes s’accordent à dire que l’avenir des systèmes d’informations doit se penser en ayant à l’esprit les “données ouvertes”.

Aujourd’hui on voit se développer de plus en plus de projets. Nous nous sommes en particulier intéressé à la donnée géographique pour l’enjeu qu’elle représente aujourd’hui dans un article dédié à OpenStreetMap. Nous avons également exploré le champs des actes citoyens “militants” basés sur l’Open Data dans un article sur le collectif Regards Citoyens. Nous avons enfin tenté d’avoir une vision d’ensemble des rapports, encore pauvres, que le secteur privé noue avec l’Open Data.

Les leviers d’évolution

Grâce à ce panorama que nous avons le plus complet et le plus représentatif possible des projets Open Data, nous avons pu repérer certaines difficultés qui entravent le développement de l’Open Data.

Ces écueils appellent à certaines évolutions du monde de l’Open Data sans lesquelles l’évolution ne sera pas :
- évolution du monde numérique : volume de données disponibles, interopérabilités, …
- évolution du monde juridique : les différentes licences, la loi Informatique et Libertés et son rapport à l’Open Data
- évolution du monde politique et des mentalités : comment est perçu l’Open Data, comment les politiques le conçoivent/le promeuvent-ils ?
Cette liste, loin d’être exhaustive, donne certains indicateurs qui nous permettront de mieux connaître l’avenir de l’Open Data.

Quoiqu’il en soit, on a vu que les possibilités permises par l’Open Data étant potentiellement gigantesques, même si elles sont encore inconnues, et qu’elles concernent chaque acteur de la société.
Il y a ainsi fort à parier que d’une manière ou d’une autre, nous aurons bientôt de nombreuses interaction avec les données ouvertes -et sans nous en rendre compte-, tant la mouvance est amenée à s’imposer dans les années à venir.

Remerciements

Nous remercions Séverin Ménard, Benjamin Vialle, et Tangui Morlier avec qui nous avons eu la chance d’échanger pour la rédaction de nos articles.

Articles de la saga “Open Data, l’avenir ?”

http://veille-techno.blogs.ec-nantes.fr/index.php/2013/10/04/open-data-lavenir-introduction/

http://veille-techno.blogs.ec-nantes.fr/index.php/2013/10/25/open-data-les-donnees-ouvertes-et-leurs-licences-quel-cadre-juridique/

http://veille-techno.blogs.ec-nantes.fr/index.php/2013/11/23/les-donnees-ouvertes-la-protection-des-donnees-personnelles-et-la-cnil-2/

http://veille-techno.blogs.ec-nantes.fr/index.php/2013/12/22/openstreetmap-lenjeu-particulier-de-la-donnee-geographique/

http://veille-techno.blogs.ec-nantes.fr/index.php/2014/01/24/regards-citoyens-militantisme-enjeux-et-pouvoirs-autour-de-lopen-data/

http://veille-techno.blogs.ec-nantes.fr/index.php/2014/02/19/le-secteur-prive-lavenir-de-lopen-data/

Sources:

Citées dans les articles listés ci-dessus.

Auteurs:

Augustin Doury et Raphaël Traineau

Licence:

Projet de veille technologique 2013-Le contenu des articles traitant du sujet “Open Data: l’avenir?” est publié sous la licence WTFPL .

La visualisation 3D sur site – Synthèse

Pour clôturer notre série d’articles sur la visualisation 3D sur site, nous vous proposons une synthèse des informations que nous avons rapportées jusqu’ici.

1) Qu’est-ce que la visualisation 3D sur site ?

La visualisation 3D sur site consiste à apporter à l’utilisateur des informations localisées dans son environnement, en les insérant virtuellement dans l’environnement de l’utilisateur.

Il s’agit de réalité augmentée, et non de réalité virtuelle : il n’y a pas de “coupure” avec la réalité de l’utilisateur pour en créer une nouvelle, mais simplement un ajout d’informations dans l’environnement réel et en rapport avec celui-ci.

2) Comment la visualisation 3D sur site est-elle utilisée à l’heure actuelle ?

Cette technologie est à l’heure actuelle surtout utilisée par le grand public : jeux, aide à l’orientation, elle permet de répondre à un besoin de façon plus ludique que les méthodes traditionnelles. C’est facteur majeur de succès de la technologie : il ne s’agit en général pas de gagner en productivité, mais plutôt de proposer un moyen ludique d’arriver à un objectif ; nous vous avons montré un certain nombre d’exemples dans nos articles précédents.

Certaines applications font surface dans le milieu professionnel (aide opérationnelle, génie civil…), mais il s’agit souvent soit de concepts, soit d’utilisations encore peu répandues pour l’instant.

3) Quels sont les matériels utilisés, et quelles sont leurs performances ?

En passant en revue les matériels utilisés en réalité augmentée, on se rend compte que la localisation de l’information par rapport à l’utilisateur est un grand point de blocage de la technologie. Les GPS fournissent des positionnements à quelques mètres près, et les technologies permettant de localiser précisément un utilisateur en intérieur sont rares. Il s’agit d’un point vers lequel se tourner pour faire avancer la réalité augmentée.

Le matériel utilisé pour afficher l’information est aussi important : une grande partie de la réalité augmentée à l’heure actuelle est mise en place à l’aide de tablettes tactiles et smartphones, en utilisant leur écran et leur appareil photo. Le maniement de l’appareil est donc peu pratique ; d’autres méthodes ont été étudiées ou sont en cours d’étude, comme les lunettes de réalité augmentée. Permettre d’afficher l’information à l’utilisateur sans avoir à lui demander d’altérer son comportement est encore un défi.

4) Quels sont les procédés algorithmiques actuellement développés ?

Tout comme du côté matériel, la localisation relative de l’information par rapport à l’utilisateur peut demander des algorithmes complexes. Jusqu’à maintenant, la méthode proposant le plus de précision est l’analyse d’image, avec deux options : avec et sans marqueur.

On arrive maintenant à obtenir de très bons résultats avec l’utilisation de marqueurs, la précision est très bonne. En revanche, l’apposer à un endroit suffisamment visible, en prenant en compte la distance, est souvent un problème. D’où l’utilisation d’autres procédés d’analyse d’image, comme la reconnaissance de formes ou d’objets.

La reconnaissance d’objets 3D est encore une question difficile à l’étude. Une fois bien développée, cette technologie pourrait cependant devenir le futur de la réalité augmentée.

Enfin, les algorithmes d’affichage peuvent aussi recevoir une attention particulière : il n’est pas toujours simple d’insérer un objet virtuel dans l’environnement de l’utilisateur de manière réaliste. Les ombres, flous, et profondeurs par exemple doivent être bien calculés pour un rendu réaliste.

5) Que peut-on attendre de cette technologie dans le futur ?

Bien que les utilisations actuelles de la réalité augmentée soient ludiques et centrées sur le grand public, on observe qu’elle est de plus en plus utilisée dans le milieu professionnel.

On place maintenant la réalité augmentée au centre de certains modèles économiques, comme la vente de vêtements et lunettes sur internet par exemple.

Des progrès sont à attendre des matériels de localisation et d’affichage, ainsi qu’au niveau des algorithmes permettant de localiser l’information. On peut donc espérer plus de précision, et des appareils de visualisation plus confortables et d’utilisation spontanée.

Nous espérons que cette série d’articles vous a permis de cerner les enjeux actuels de la visualisation 3D sur site, ainsi que les développements auxquels nous devons nous attendre dans un futur proche !

Informatique et métiers de la santé -synthèse-

Nous arrivons à la fin de notre projet de veille technologique  de cette année scolaire 2013-2014. Dans cette dernière publication, nous effectuons un bilan du travail réalisé au fil des articles rédigés. Ceux-ci portaient sur  l’Informatique et les métiers de la santé. Nous présenterons pour finir le plan de notre rapport final.

Notre objectif était de faire un état de l’art approfondi des secteurs d’activité et entreprises dans lesquels l’informatique est liée aux métiers de la santé.

Le champ couvert est d’autant plus large c’est pour cela que dès le début (premier article) nous avons jugé bon de  définir 3 thématiques principales:

  • Biologie de synthèse et la bioinformatique
  • Système d’informations médicales
  • Traitement digital et robotique

Ainsi pour chacune de ces thématiques, nous avons découvert les applications et les enjeux présentés pour la recherche en informatique. Dans notre deuxième article, nous avons approfondi les thématiques bio-informatique et systèmes d’informations. Dans l’article d’après, nous avons parlé plus en détail du thème lié à la robotique dans le milieu de la santé et nous avons évoqué une des motivations majeures du monde de la robotique qui est la nanotechnologie.

A chaque fois, nous nous sommes attachés à rendre compte de l’avancement de la recherche en industrie ou dans des laboratoires  de recherche, ce qui nous a amené par la suite à s’interroger sur les formations mêlant l’informatique et la santé notamment les masters ouverts en France.

Ce quatrième article était un article intermédiaire afin d’aborder par la suite le marché des dispositifs médicaux, il s’agissait là d’éclaircir les acteurs  présents sur le marché  et les enjeux concernant l’avenir sur le secteur. Des constats basés sur des statistiques du conseil national de l’industrie font qu’ en matière de R&D, l’industrie des technologies médicales constitue la deuxième filière industrielle en France . Cependant, le tissu industriel est caractérisé par une majorité de PME souvent absorbées par les multinationales d’origine étrangère.

Finalement, notre dernier article consistait à une réflexion analytique et pratique sur le type de formation que nous aimerions suivre en tant qu’élève-ingénieur à l’Ecole Centrale Nantes. Nous y décrivons les matières qui nous semblent indispensables à introduire voire approfondir afin de répondre aux enjeux médicaux actuels.

Nous espérons que les articles présentées ont été intéressants et partons sur ça voici le plan de notre rapport final

Introduction

  1. Les enjeux de la santé numérique
    1. En France
    2. A l’étranger
  2. Les thématiques à connaitre
    1. La biologie et l’informatique
    2. Les systèmes d’information
    3. La robotique
  3. L’élève ingénieur et la santé
    1. Le marché existant
      1. La recherche
      2. L’industrie et les services
    2. La formation
      1. L’existant
      2. Notre sélection
    3. Les débouchés

Conclusion

Bibliographie

Le livre numérique : synthèse

Voici venue l’heure de faire la synthèse de cette veille technologique sur le livre numérique.

Après avoir  parcouru l’historique du livre numérique, des premières œuvres numérisées par le projet Gutenberg dans les années 1970 à la démocratisation des liseuses, tablettes, et éditeurs de livres électroniques, nous nous sommes intéressés aux différents formats de livres numériques. Nous avons constaté que ces formats sont nombreux et posent des problèmes de pérennité et de portabilité aux utilisateurs. Ils sont également parfois restrictifs en raison des dispositifs de protections des droits d’auteurs (DRM) intégrés à ces formats.

Nous avons ensuite étudié les différentes technologies de liseuses et notamment le papier électronique, qui permet une lecture plus confortable et moins gourmande en énergie que sur un écran d’ordinateur. Nous nous sommes également interrogés sur leur avenir, face à la multiplication des tablettes qui ne proposent pas le même confort de lecture  mais qui offrent un panel d’applications bien plus large.

Enfin, nous avons étudié les aspects économiques et juridiques du livre numérique, en présentant les différents acteurs du marché et les circuits de distribution mis en jeu, ainsi que les différents dispositifs juridiques influant sur cette distribution. Nous avons également présenté l’état actuel du marché en France et à l’étranger, et nous avons envisagé les évolutions futures possibles dues aux différents modes d’utilisation du livre numérique.

Nous espérons que ces articles vous ont intéressés, et nous vous quittons en vous présentant le plan de notre rapport :

  1. Historique
  2. Lire un livre numérique : aspects technologiques
    1. Les formats électroniques
    2. Les technologies des liseuses
  3. Acheter un livre numérique : aspects économiques
    1. Principaux acteurs et modes de distribution
    2. Les usages et modes d’utilisation

Licence :
Licence Creative Commons

Auteurs :

Claire Lefeuvre & Félix Lecuyer