Conception paramétrique et éclairage naturel en architecture – Outils logiciels de simulation inverse de la lumière

Après avoir fait un bilan des recherches ayant abouties à des brevets, puis des nouvelles méthodes actuellement à l’étude et qui font l’objet de publication scientifiques, nous nous attachons dans cette publication à faire un état de l’art des logiciels existants pour répondre au besoin architectural de conception inverse de la lumière.

1 – Démarche inverse  d’un  logiciel de simulation inverse de lumière

Présenté comme les phases d’un « modeleur interactif déclaratif » dans le document [1], voici ci-après le détail des 3 grandes phases dans un processus de conception inverse de la lumière :

Figure 1 – Principe de la simulation d’éclairage inverse

  • Description et déclaration des intentions en langage de conception interprétable par la machine
  • Génération des solutions répondant à la description
    • Réduction de l’espace des solutions
    • Exploration des solutions
    • Possibilités
      • Calcul
      • Intelligence artificielle [4]
        • Algorithme génétique
        • Apprentissage automatique
        • Logique floue
        • Programmation par contraintes
        • Prise de connaissance des solutions
          • Généralement graphiques, pouvant être présentées avec différents rendus, dont celui le plus économe énergétiquement, celui ayant le plus de lumière naturelle, celui le moins coûteux, …
          • Bon de connaitre avec les solutions quelques propriétés de la solution proposée : symétries, valeurs dans les fourchettes de paramètres initiaux, …

2 – Logiciels de simulation de l’éclairage

2.1 Tableau comparatif de différents logiciels de simulation d’éclairage

A travers cette liste de logiciels de simulation d’éclairage, qui n’a pas pour but d’être exhaustive mais a comme objectif de montrer les tendances du marché, on peut constater que la simulation inverse n’est pas encore intégrée aux logiciels grand public, ni mêmes à ceux réservés aux architectes. La simulation inverse est une méthode de conception qui se trouve encore entre les mains des chercheurs.

 


 

Figure 2 – Capture d’écran du logiciel Expression [1]

 

Figure 3 – Capture d’écran du logiciel Solimac [1]

2.2 – Détail d’un prototype de logiciel de conception de lumière inverse

L’étude de la lumière passe obligatoirement par le type de l’espace puisque on ne peut pas percevoir la lumière sans identifier la forme et inversement la forme ne peut pas être perçue sans lumière.

Pour déclencher le processus, l’utilisateur doit préciser quelques éléments de départ :

  • Choisir un type de lumière
    • Lumière contrastée
    • Lumière uniforme
    • Lumière abondante
    • Choisir un type d’espace, c’est-à-dire une forme spatiale rectangulaire :
      • Cavité
      • Foret
      • Clairière
      • Cristal.
      •  Choisir un effet lumineux
        • Effet lumineux physique
        • Effet lumineux plastique
        • Effet lumineux psychologique…
        • Choisir un dispositif (si l’utilisateur le souhaite):
          • Composant de transmission
            • Composant de transmission latérale
            • Composant de transmission zénithale
            • Composant de transmission globale
            • Eléments de contrôle
              • Surface séparatrice
              • Ecran flexible
              • Ecran rigide
              • Filtre polaire
              • Pare-soleil

Le système proposera ensuite des solutions en prenant en compte toutes les données déjà introduites.

Ces solutions seront évaluées par l’utilisateur qui peut relancer la procédure de résolution ou la personnaliser selon des critères spécifiques qu’il cherche à satisfaire.

NB : Le choix de l’effet lumineux est dans la plupart des cas dépendant du choix de l’espace.  Chaque combinaison présente une configuration. Quelques configurations sont présentées en détail dans l’article [1].  C’est au système en fait de guider l’utilisateur pour faire le meilleur choix.

Détails techniques :

  • Une fois  que l’utilisateur a lancé le programme, le système accède à une base de données, où se trouve toutes les informations ensuite utilisées pour trouver des solutions adéquates aux besoins.
  • Le modèle choisi pour la base de données est le modèle logique entité/association. Dans lequel, les entités sont les éléments principaux : lumière, espace, dispositif. Les relations caractérisent les liens entre les différentes entités. Exemple : L’identification de la lumière  commence par les attributs nom, localisation, position mais elle dépend implicitement de l’effet lumineux choisi. Le dispositif appliqué impose des choix spécifiques des effets lumineux qui seront ensuit appliqué, d’où la relation entre le dispositif architecturale et l’effet lumineux choisi qui est également identifié  par un nom

Figure 4: Exemple de relation

Etapes du processus :

  • Processus de déclaration (chaque choix restreignant le champs des choix suivants possibles)
    • Choix du point de départ : des intentions lumineuses ou spatiales
    • Choix du type de lumière
    • Choix du type de l’espace : seuls les types compatibles avec la lumière choisie seront affichés
    • Choix du type de l’effet  lumineux
    • Choix du dispositif

Fin du processus de déclaration. Fig5

  • Résolution
  • Affichage
    • solution détaillée pour différentes plages horaires
    • + caractéristiques géométriques du dispositif choisi
    • + une évaluation quantitative

Identification de la configuration et génération des solutions classées selon leur conformité au choix de l’utilisateur. Fig6

Le processus s’arrête à cette étape, cependant si l’utilisateur n’est pas satisfait du résultat, il peut changer les paramètres et générer une autre solution.  Le système lui permet également de comparer deux solutions au niveau de la distribution quantitative et qualitative de la lumière. Fig7

Figure 5:Cylindre de choix de configuration

Figure 6 – Différents résultats selon la conformité au choix de l’utilisateur

Figure 7 – Possibilité de comparaison entre deux résultats

 

Lexique

CERMA                  CEntre de Recherche Méthodologique d’Architecture [3]

Emittance              flux de lumière émis par unité de surface en W/m2 [2]

Références

[1] Lumière naturelle en phase de conception, quels outils/méthodes pour l’architecte, Gallas Mohamed Anis, 2009, Mémoire de Master,http://meurthe.crai.archi.fr/media/pdf/memoiregallas.pdf

[2]http://fr.wikipedia.org/wiki/%C3%89mittance consulté le 01/02/2014

[3]http://www.cerma.archi.fr/ consulté le 01/02/2014

[4] http://fr.wikipedia.org/wiki/Intelligence_artificielle consulté le 12/02/2014

[5]Simulation inverse de l’éclairage naturel pour le projet architectural, thèse doctorale, Vincent Tourre,  2007, http://archive.bu.univ-nantes.fr/pollux/show.action?id=26c5cff1-ee29-46be-971f-e6a6d9453ad2

[6] http://www.athermys.fr/wp-content/uploads/2009/09/Outils-Logiciels-de-diagnostic-conception-dimensionnement.pdf consulté le 12/02/2014

[7] http://www.erco.com/guide/simulation-and-calculation/software-2700/fr/ consulté le 13/02/2014

Auteurs : KHLIF Wafa et POUCHOULIN Audrey
Sous l’encadrement de Vincent Tourre.

Licence: Licence Creative Commons
“Projet de veille technologique 2013 – Conception paramétriqe et éclairage naturel en architecture” est mise à disposition selon les termes de la Licence Creative Commons – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions 3.0 non transposé par KHLIF Wafa et POUCHOULIN Audrey

Conception paramétrique et éclairage naturel en architecture – Inter réflexion et détails de la méthode directe

Apres l’étude d’un brevet dans la publication précédente on s’intéresse ici à 2 articles scientifiques:

  • Le premier que l’on pensait centré, à la lecture de l’abstract, sur la lumière inverse mais qui s’est avéré porter sur les inter-reflexions de la lumière, nous le commentons quand même ici car c’est un élément important à prendre en compte dans la simulation inverse de la lumière.
  • Le second qui porte sur les facteurs clés lors simulation directe de la lumière pour compléter le cas particulier du premier article.

1. Simulation des inter-réfléxions

La majorité des algorithmes d’acquisition de lumières ne prennent pas en considération les facteurs d’inter réflexions, ce qui facilite les calculs. Cependant avec la méthode inverse tous ces facteurs seront pris en compte.

Ce document établit les équations mathématiques et les calculs fondamentaux de transport de lumière selon la méthode inverse.Le problème qui se pose c’est que la lumière présente n’est pas acquise uniquement de la source elle-même, il y a aussi les effets de cette lumière sur la scène qui entre en jeu. La lumière peut-être décrite de manière linéaire: la lumière acquise/sortante globale (Iout) s’exprime en fonction de l’opérateur S (matrice d’inter-réflexion) et de l’éclairage direct des surfaces par les sources externes. Ainsi les calculs se font de cette manière (du point de vue de l’obtention de la lumière émise par la source à partir de la quantité de lumière résiduelle en un point, i-e méthode inverse):

S: matrice d’inter-reflexion

I out : la lumière sortante globale

Id : l’éclairage direct émis par la source externe

Mais ce qui complique encore les calculs c’est qu’on ne peut pas trouver directement la matrice S .

Ce tableau récapitulatif met en évidence  l’influence des inter-réfléxions sur tous les calculs :

                                      Figure1.Dualité de lumiére directe et inverse

La démonstration de toutes ces équations mathématiques est détaillée dans l’article [1]. En fait le but de l’invocation de ce tableau est juste pour donner une idée sur quelques calculs fréquemment utilisé pour estimer la lumière acquise en tenant compte des inter-réflexions.

2. Evaluation des logiciels de simulation

On a déjà vu les principes de la méthode inverse pour la simulation de la lumière et quels sont les facteurs qui peuvent  influencer sur la quantité finale de lumière qu’on peut récupérer dans une pièce. On passe souvent par une série de cas-tests pour arriver enfin à trouver la meilleure combinaison de paramètres qu’il faut utiliser, d’où  l’importance des outils de simulation inverse de l’éclairage.

On a parlé dans une de nos publications précédentes des logiciels de simulations de la lumière comme le  DIALuxEVO. La validation de ces logiciels se base sur :

  • La comparaison entre simulations et mesures dans des maquettes expérimentales.
  • La comparaison entre simulations et mesures dans des scènes réelles.
  • La comparaison entre simulations de différents logiciels.

Le rapport de différence entre le résultat souhaité et le résultat trouvé est causé par la variété des sources influençant sur la propagation de la lumière et la complexité des scénarios qui se présentent.

Pour appliquer ces scénarios et trouver le meilleur choix de composants et de leurs caractéristiques on doit passer par ce qu’on appelle la conception de l’éclairage. Ces choix sont faits selon des considérations :

  • Thermiques
  • Acoustiques
  • Energétiques
  • Ergonomiques
  • Esthétiques
  • Architecturales

Et afin d’aboutir à un résultat optimisé il faut prendre en considération les interactions entre les différents paramètres.

Parmi les choses qui influencent sur les choix des paramètres on trouve la géométrie des objets qui présente un élément clé pour le calcul de la propagation de la lumière. On prend en considération les surfaces visibles des matériaux opaques, les surfaces du sol et des masques extérieurs. D’autre part on trouve  les effets des parois vitrées qui influencent énormément sur la quantité de lumière résultante. En effet ces parois présentent le premier filtre pour le flux de lumière entrant. La forme de ces parois influence différemment sur le flux de lumière. Parmi ces formes on trouve :

  • Ouverture simple : l’effet de l’ouverture dépend de ses dimensions et de son épaisseur. Du point de vue de la quantité et de la qualité du flux lumineux ne subit aucune    modification.
  • Vitrage classique : Le flux subit l’influence de la transmission directionnelle du vitrage. Il garde sa direction mais subit une atténuation qui dépend de l’angle d’incidence.
  •  Vitrage à aspect bi-directionnel : Le flux lumineux subira un cheminement dans une direction donnée.
  •  Eléments de protection solaire : Pour bloquer ou réorienter la lumière directe de soleil, exemple : les stores vénitiens, les brises soleil et les stores en toile.
  •  La goniophotométrie réelle et virtuelle des matériaux.

Références

[1] Manmohan Chandraker, Jiamin Bai, Tian-Tsong Ng, and Ravi Ramamoorthi. “On the Duality of Forward and Inverse Light Transport”.IEEE Transactions on Pattern Analysis and Machine Intelligence,2011.

http://vision.ucsd.edu/~manu/pdf/pami_invlt.pdf

[2] La simulation numérique de l’éclairage, limites et potentialités

http://theses.insa-lyon.fr/publication/2004ISAL0016/these.pdf

Auteurs : KHLIF Wafa et POUCHOULIN Audrey
Sous l’encadrement de Vincent Tourre.

Licence: Licence Creative Commons
“Projet de veille technologique 2013 – Conception paramétriqe et éclairage naturel en architecture” est mise à disposition selon les termes de la Licence Creative Commons – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions 3.0 non transposé par KHLIF Wafa et POUCHOULIN Audrey

Le financement participatif, qu’est ce que c’est?

“Les idées deviennent force lorsque les masses s’en emparent.”

- Karl Marx -

C’est cette idée qui alimente le principe du financement participatif (plus connus sous le terme de Crowdfunding) : l’échange gagnant-gagnant entre un créateur et la plus grande base d’utilisateurs potentiels, les internautes.

En effet, le principe est d’utiliser le pouvoir de choix et le financement dont un large groupe de personne est capable, pour rendre un projet possible.

Ce concept est né assez récement sur le net, et on a pu découvrir le bourgeonnement d’une multitude de sites axés sur ce modèle, tel que http://www.kickstarter.com/ , ou encore  http://www.ulule.com/ . Suite a notre réunion avec Jean Marie Norman, nous avons décidé de nous focaliser tant sur les caractéristiques techniques des sites de financement participatif, comme leur modèle économique ou les contraintes législatives, que sur l’extension du concept pour analyser jusqu’ou on peut étendre ce concept: qu’est ce qui est, ou n’est pas du financement participatif.

Ainsi plusieurs problèmatiques s’offrent à nous :

  1. Quel est l’état de l’art, et comment évolue-t’il ? Quelles sont les différences entre les différents sites phares?
  2. Comment marchent les site kickstarter et co ?
    • Comment font ils du profit ?
    • Que ce passe t’il en cas de fond insufisant?
    • Qui définie la qualité du produit, et quelles sont les recours contre un mauvais produit
  3. Jusqu’ou peut on étendre le concept ?
    • Les plate forme de services par dons tel que Twitch.tv, les sites de tremplin pour artistes…
    • Les societées de crédit de foule
    • Les personnes utilisant ces sites comme site de vente ou de marketing

A bientôt et merci à tout ceux qui suivront notre travail.

Stay tuned !

/人◕ ‿‿ ◕人\

Conclusion du projet sur les plans de sécurité informatique

Depuis le 24 Octobre 2012, nous avons tenté de vous présenter et d’analyser les plans de sécurité informatique dans le cadre de ce projet de veille technologique, en essayant de rendre le sujet plus attrayant et plus intéressant que les documentation technique qui y sont liées.

Après avoir redéfini ce qu’on entend par sécurité informatique puis avoir étudié les types de failles informatiques ou physiques auxquelles on s’intéresse dans le cadre de la mise en place ou l’actualisation de plans de sécurité informatique, nous vous avons présenté la norme ISO 17799 - une norme européenne établissant des lignes directrices et des principes généraux pour préparer, mettre en œuvre, entretenir et améliorer la gestion de la sécurité de l’information au sein d’un organisme et qui est à la base des plans de sécurité informatique – et présenté de manière formelle les méthodes d’audits EBIOS (Expression des besoins et identification des objectifs de sécurité) et MEHARI (Méthode harmonisée d’analyse des risques), en les comparant succinctement. Ces deux méthodes sont les références de l’audit de sécurité informatique en France, bien qu’ayant de la concurrence à laquelle il serait possible de s’intéresser un peu plus longuement.

Pour approfondir notre étude de ces deux méthodes et nous mettre à la place des ingénieurs sécurité qui réalisent ces audits, nous vous avons ensuite présenté respectivement l’outil d’audit EBIOS et l’outil d’audit MEHARI, formés respectivement d’un programme complet permettant un audit pas à pas et, pour MEHARI, d’une feuille de calcul excel complexe guidée par une documentation annexe.

Enfin, pour remettre notre étude dans son contexte réel, nous avons trouvé intéressant de vous présenter deux cas de piratage qui sont restés dans les annales - le piratage du PlayStation Network et de Heartland Payment Systems – car ils ont eu des conséquences catastrophiques pour les entreprises ciblées par ces attaques.

Ainsi, pour conclure notre projet par ce dernier billet, nous avons voulu vous donner un aperçu des “Best Practices” en matière de sécurité informatique, ou du moins les bases de la sécurité :

1 ) Quels sont les éléments les plus importants de votre système informatique ?

En effet, pour avoir un concept de sécurité intéressant, il est nécessaire de savoir quels systèmes doivent être protégés en priorité, ceux dont lesquels dépendent directement votre activité (si l’immobilisation du système immobilise l’entreprise) et quels systèmes auxiliaires y sont liés.

2 ) Protéger le réseau de l’entreprise :

Même si les systèmes informatiques de l’entreprise sont protégés individuellement, il est cependant souvent nécessaire de paramétrer le pare-feu (Firewall) afin de permettre de manière sécurisée l’accès aux données de l’entreprise aux collaborateurs de terrain, de façon fiable et rapide sans pour autant affaiblir la sécurité du système. Il s’agit donc de trouver un compromis entre la possibilité d’accès au données de l’entreprise de façon distante et de garder cet accès totalement sécurisé, comme un “réseau étendu” de l’entreprise.

3 ) Ne pas se limiter aux serveurs “primordiaux” !

Bien qu’il soit important de connaitre les points névralgiques de votre système/réseau informatique, il ne faut pas se limiter à sécuriser les points les plus importants. Les serveurs communiquant entre eux, ils doivent notamment TOUS être incorporés au concept de sécurité. Ainsi, si un malware infecte une machine, il peut ensuite se propager dans tout le réseau de l’entreprise, parfois y compris jusqu’aux points stratégiques de votre installation.

4 ) Prendre toutes les plateformes et tous les périphériques en compte :

Une idée reçue veut que seuls les systèmes Windows soient vulnérables aux attaques informatiques. FAUX ! Toutes les plates-formes (Linux, Mac, Mobile, …) doivent inclus dans votre concept de sécurité. De la même façon, avec l’importance toujours plus grande du sans-fil, les smartphones et les PC portables deviennent la majorité des machines utilisées et sont souvent moins sécurisés.

5 ) Quelles protections utiliser ?

La configuration minimale comprend au minimum un scanner de virus pour Windows, mais aussi pour Linux et Mac OS X, le cas échéant, un pare-feu bien paramétré, un scan en temps réel des fichiers de clés USB et des mails et des accès contrôlés pour les mobiles ou les smartphones. De plus, un système de remise à zéro des informations du téléphone en cas de vol ou de perte du mobile est en général mis en place, ainsi que la nécessité d’un code de déverrouillage sur le téléphone. Une autre fonction précieuse en matière de sécurité est le blocage des informations personnelles de l’abonné en cas de vol du smartphone et de retrait de la carte SIM. Il est aussi extrêmement important de tenir les logiciels à jour, ce qui est malheureusement trop souvent oublié.

6 ) Centraliser l’administration :

Le concept de sécurité informatique se doit de prendre en compte tous les appareils et tous les serveurs et ces derniers doivent fonctionner ensemble. Il est donc très important que la protection de chacun soit gérée ou mise en place par une équipe s’occupant de tous les aspects de la sécurité informatique de votre entreprise. Un outil de suivi comportant une fonction de reporting est aussi nécessaire dès qu’il s’agit de gérer des parcs de machines conséquents.

7 ) Être préparé à réagir dans l’urgence :

En complément d’une stratégie de sécurité adaptée, un plan d’action d’urgence est nécessaire. Par une analyse des risques et des scénarios (comme cela est intégré aux démarches d’audit de sécurité sus-citées), on peut se préparer aux cas les plus probables d’attaque ou de défaillance du système.

Par exemple : En cas de soupçons justifiés d’un vol de données passé ou en cours dans l’entreprise, vous pouvez prendre les mesures suivantes :

•           Informer la direction.
•           Ne faire part à personne d’autre de vos soupçons.
•           Contacter un professionnel des enquêtes informatiques.
•           Ne tenter en aucun cas de mener votre propre enquête.
•           Dresser la liste de tous les systèmes susceptibles d’être concernés.

8 ) Tester le plan d’action d’urgence et la stratégie de sécurité :

Bien entendu, il est toujours préférable et prévu que ces situations d’urgence ne se produisent pas. Mais tout comme un exercice anti-incendie, votre plan d’action d’urgence informatique doit être testé, les employés doivent être formés et il est mieux qu’une simulation ait lieu tous les six mois. L’évolution des menaces et la découvertes des failles étant toujours plus rapide, il est important que votre plan de sécurité soit dynamique et très régulièrement mis à jour.

Pour conclure, un système informatique est toujours faillible, car créé par l’Homme. Le principal est que la/les faille(s) soi(en)t inconnue(s) de tous, ou ne vaille pas la peine d’être exploitée. De la même façon, il est toujours possible que votre système soit perverti. Il est donc d’un extrême importance de penser à sauvegarder régulièrement et dans différents endroits les données sensibles ou stratégiques. “Mieux vaut prévenir que guérir”, mais Mieux vaut aussi guérir que mourir : de l’utilité de se préparer toujours au pire.

Nous remercions tous les lecteurs de nos articles et espérons que nos différents billets vous auront intéressés et/ou aidés. Nous mettrons bientôt à disposition un rapport plus structuré sur nos recherches grâce au plan suivant :

  • Introduction au sujet de la sécurité informatique
    • Quels enjeux et quels risques ?
    • Quelles conséquences ?
  • Les plans de sécurité informatique
    • Origine & concept
    • La Norme ISO 17799
  • Quels outils pour les plans de sécurité informatique ?
    • Les méthodes d’audits
    • Les outils des méthodes d’audits
Pour télécharger le rapport, c’est ici : pvte12_rapport_secui2012 !

SOURCES :

http://www.ansi.tn/fr/audit/methodologies_audit.html
http://www.bestpractices-si.fr

Licence Creative Commons
Plans de sécurité informatique de Jean-Baptiste CLAVEL et Adrien THIERY est mis à disposition selon les termes de la licence Creative Commons Attribution 3.0 non transposé.

Quelques exemples concrets

Afin de replacer notre veille dans le contexte actuel, et pour éviter d’assommer le lecteur plus qu’il ne l’est déjà avec des normes et des méthodes d’audit de sécurité, nous aborderons dans cet article deux exemples concrets d’acteurs qui auraient dû renforcer leur plan de sécurité avant de faire la une des blogs du monde entier.

Ainsi, nous étudierons le cas du piratage du PlayStation Network (alias PSN) de Sony, puis nous parlerons rapidement du piratage des Heartland Payment systems.

1. Le hack du PSN

L’origine de cette attaque est assez lointaine puisqu’elle trouve sa source dans l’homme qu’est George Francis Hotz (ou GeoHot, pour les intimes… et tout internet). GeoHot est connu dans le monde du hacking notamment pour avoir jailbreaké (piraté) l’iPhone, mais surtout, dans le cas qui nous concerne, pour être le premier à avoir cracké la Playstation 3, en 2010. GeoHot a notre âge, 23 ans, et est un petit génie de l’informatique et de l’électronique, hacker de profession. C’est pourquoi, quand il a acheté sa nouvelle console Playstation, GeoHot a trouvé amusant d’essayer d’en obtenir le maximum, et notamment dans le cas présent, il a voulu avoir accès au système d’exploitation très fermé et sécurisé de la console.

Cependant, en rendant public les informations sensibles, et notamment la “Master Key” de la PS3 (clé de cryptage), GeoHot s’est attiré les foudres de l’entreprise japonaise qui a alors porté plainte contre lui sous une multitude de chefs d’accusation. Pour appuyer son attaque en justice, la société se débrouille pour qu’une descente soit réalisée dans le logement de GeoHot et que tout son matériel informatique soit détruit. Et là, c’est le drame.

Cette attaque fait le buzz (ou le ramdam, si on s’en tient aux consignes de l’académie française) et attire l’attention des Anonymous, un groupe de hacktiviste bien connu sur internet (et décrits dans un post de l’année dernière). Se reconnaissant dans la personne de GeoHot, ces derniers ripostent à l’action de Sony en attaquant son réseau de jeu en ligne, le fameux PSN et le service Qriocity(service de Streaming de musique et de Vidéos à la demande de Sony), rendant inaccessible un certain nombre de sites de l’entreprise et dérobant des informations confidentielles sur pas moins de 25 millions de clients de Sony (les informations n’étant pas chiffrées). On parle ici de données personnelles des clients de Sony : noms, adresses et adresses électroniques, dates d’anniversaire, pseudonymes et mots de passe, historiques des paiements, factures ainsi que des données plus sensibles telles que les données bancaires.

Sony coupe alors l’ensemble du PSN et de Qriocity le 20 avril 2011 pour une maintenance qui durera jusqu’au 16 mai 2011.

Les conséquences sont lourdes pour Sony : des millions de dollars perdus (on parle de 170 millions de dollars de pertes), des millions d’utilisateurs mécontents, des actions en justice engagées contre l’entreprise pour négligence de failles de sécurité, l’action de Sony chute et… les ingénieurs sécurité de chez Sony qui passent pour des imbéciles. En effet, il semblerait que Sony utilisait des versions obsolètes de logiciels et que ses serveurs n’étaient pas protégés par un pare-feu.

De l’importance de bien protéger et de crypter les données à caractère personnel et de mettre à jour le logiciel (Apache) de vos serveurs…

2. Heartland Payment Systems

En 2009, Heartland Payment Systems est l’un des plus grands organismes de transferts de paiements aux Etats Unis. Malgré son importance, la société est victime d’une faille informatique découverte et exploitée largement par le pirate Albert Gonzalez et deux associés via un spyware implanté sur l’un des serveurs de la société, puisqu’ils ont pu ainsi accéder aux données (nom, numéros de cartes, dates d’expiration et monitoring des crédits et débits) de plus de 130 millions de cartes de crédit. Les hackers ne pouvaient cependant pas utiliser les informations telles quelles mais pouvaient créer de fausses cartes de crédit avec les données volées.

Le 25 mars 2010, un tribunal américain a condamné le pirate à purger une peine de prison de 20 ans et un jour, ainsi qu’à 25.000 dollars d’amende, voulant faire un exemple pour décourager ce genre de crimes. A titre de comparaison, les pertes de Heartland Payment Systems s’élèveraient à 12,8 millions de dollars.

De l’utilité de surveiller ses machines et les protéger avec les programmes adéquats.

Dans le prochain article, nous ferons donc une synthèse de notre travail et un résumé des bonnes pratiques à avoir afin d’obtenir une sécurité informatique minimale.

SOURCES :
Washington post
http://www.computerworlduk.com
Wikipédia
http://www.2008breach.com

 

 

Etude du “logiciel” MEHARI

Contrairement au logiciel EBIOS qui nécessite une installation complète et qui utilise la technologie Adobe Air, l’outil proposé par MEHARI se présente comme un fichier de calcul Excel/OpenOffice permettant de couvrir tous les aspects de l’audit de sécurité. Ce dernier est accompagné d’un guide, le « Manuel de référence de la base de connaissances MEHARI 2010 » expliquant comment utiliser chaque feuille de calcul.

En effet, pour chacun des aspects de l’audit, on a une feuille de calcul associée.

Feuille de presentation

Feuille de calcul de présentation de l’outil

On navigue donc entre ces feuilles afin de remplir toutes les données nécessaires à l’audit de sécurité.

Aperçu des onglets d’accès aux feuilles de calcul

L’onglet « nav » nous présente notamment la structure de la base de connaissances MEHARI qui fait partie de l’outil.

Schéma de l’organisation de la base des connaissances MEHARI

Analyse des enjeux et de la classification des actifs

Les premières données à entrer dans l’outil tiennent au remplissage des onglets T1, T2 et T3 qui permettent d’entrer les exigences de sécurité respectivement  pour les types de données, les services et les processus de management issus de l’analyse des enjeux et du processus de la classification des actifs.

Les niveaux de classification des actifs à auditer sont ensuite référencés via l’onglet noté « classif », dans lequel on peut décider d’exclure certains actifs de l’audit et en conséquence de ne pas considérer les scénarios de risques associés à ces actifs.

Diagnostic des services de sécurité

On commence ensuite l’audit à proprement parler puisque les onglets suivants, numérotés de 1 à 14 constituent les questionnaires d’audit.

Les résultats de ces questionnaires sont synthétisés dans trois feuilles : les résultats des diagnostics par service, le récapitulatif par « thème » de sécurité et le score ISO, c’est-à-dire les résultats des diagnostics selon la classification ISO 27001/27002.

Evaluation des risques

Pour évaluer les risques, on commence par une évaluation de l’exposition naturelle aux risques, puis on envisage les différents scenarios à prendre en compte pour notre système.

Exemple de l’onglet Risk%actif

Via les onglets Risk%actif et Risk%event, on étudie la gravité des scénarios respectivement par type d’actif et par type d’évènement.

Préparation des plans d’actions

Après l’analyse, l’action ! Les onglets suivant permettent en effet de préparer les mesures à mettre en œuvre pour pallier aux manques de notre système. On a donc un récapitulatif des scénarios et des plans d’action que l’on peut mettre en place, puis, une fois la décision des plans à mettre en place prise, on revoit les objectifs de chaque plan et de chaque projet.

Exemples des vulnérabilités, grilles de paramétrage, etc.

Enfin, on a des onglets « annexes » permettant d’accéder à des conseils ou des exemples supplémentaires pour optimiser notre audit.

Conclusion.
Le “logiciel” MEHARI permet d’établir le contexte (délimitation du périmètre et cadrage de l’étude), d’apprécier les risques (identification, estimation et comparaison) et de planifier et suivre le traitement des risques (mesures et risques résiduels). C’est un outil utile pour appliquer la méthode MEHARI, méthode reconnue de gestion des risques de sécurité des systèmes d’information (SSI).

Le logiciel EBIOS

Dans le dernier post, nous vous présentions les méthodes EBIOS et MEHARI, nous allons vous présenter aujourd’hui et le mois prochain les deux logiciels associés à ces méthodes.

Rappel : La méthode EBIOS

La méthode EBIOS est une méthode de gestion des risques de sécurité des systèmes d’information (SSI). EBIOS est un véritable outil d’assistance à la maîtrise d’ouvrage (définition d’un périmètre d’étude, expression de besoins, responsabilisation des acteurs…). Elle permet ainsi d’identifier les objectifs et les exigences de sécurité en fonction de risques identifiés et retenus. Elle constitue une main courante dans la perception de l’organisme sur le plan de la sécurité.

EBIOS peut-être appliqué aussi bien sur des systèmes simples (serveur web) que sur des systèmes complexes (système de gestion des concours et du personnel impliquant différentes interconnexions), sur des systèmes à concevoir que sur des systèmes existants, ou encore sur des systèmes d’information entiers que sur des sous-systèmes.

Présentation du logiciel EBIOS et de ses fonctionnalités.

Le logiciel EBIOS est donc un logiciel d’assistance à l’utilisation de la méthode EBIOS. Il respecte la philosophie générale de la méthode.

Il permet de créer des livrables conformes aux plans recommandés par la direction centrale de la sécurité des systèmes d’information (DCSSI), notamment les Fiches d’Expression Rationnelle des Objectifs de Sécurité (FEROS), les profils de protection, les cahiers des charges SSI, les politiques de sécurité.

Il permet d’accéder aux bases de connaissances et de les adapter à des contextes particuliers. Les acteurs de la SSI (Direction, RSSI…) peuvent ainsi diffuser des éléments de politique de sécurité tels que les valeurs de l’organisme, la réglementation applicable, l’échelle de sensibilité à utiliser, les menaces à prendre en compte ou les objectifs de sécurité à couvrir.

C’est un outil puissant pour le conseil lié à la gestion des risques SSI. Il permet notamment de :

-          consigner les résultats d’une analyse des risques SSI
-          gérer un contenu dynamique et interactif
-          capitaliser les savoirs pour créer un référentiel propre à l’organisme
-          communiquer efficacement les résultats.

De plus, ce logiciel suit les évolutions de la méthode EBIOS, notamment la convergence vers les normes internationales telles que l’ISO 15408.

Voici les différentes fonctionnalités du logiciel :

-          Réalisation d’une étude EBIOS : permet de consigner les résultats des études, de produire les divers tableaux et d’effectuer certains calculs automatiquement.

La réalisation d’une étude est composée de 6 parties :

  • L’étude du contexte : étape consistant à définir et délimiter l’étude à partir des entretiens ou questionnaires établis à l’étape préparatoire.
  • Expression des besoins et des évènements redoutés : énumération des besoins de sécurité de chacun des éléments essentiels.
  • L’étude des menaces : étape ayant pour objectif de déterminer les menaces, puis les vulnérabilités associées à ces menaces, devant être couvertes par les objectifs de sécurité du système cible. On confronte ensuite les menaces spécifiques du système cible avec les besoins de sécurité établis précédemment.
  • Identification des risques : détermination des risques, et définition des solutions permettant d’atteindre les objectifs de sécurité
  • Détermination des exigences de sécurité : spécification des fonctionnalités attendues en matière de sécurité. Cela permet de démontrer la couverture des objectifs de sécurité par ces exigences de sécurité fonctionnelles ou mettre en évidence les éventuels risques résiduels. On doit enfin spécifier les exigences de sécurité d’assurance.
  • Compléments : création d’un glossaire, d’une liste des acronymes utilisés dans l’étude et des documents de référence

-          Création de documents de synthèse : EBIOS permet de réaliser différents livrables tels que des politiques de sécurité des systèmes d’information, des fiches d’expressions rationnelles des objectifs de sécurité (FEROS), des profils de protections, des cibles de sécurité… à partir des données issues d’une étude SSI.

-          Etude de cas : Découvrir le logiciel à travers une étude de cas commentée.

-          Administration des bases de connaissances : Le logiciel permet la création, la consultation et la personnalisation de bases de connaissances. Les bases de connaissances d’EBIOS présentent et décrivent des types d’entités, des contraintes, des vulnérabilités, des méthodes d’attaques, des objectifs de sécurité, des exigences de sécurité… Ces bases de connaissances sont ensuite utilisées par les études comme référence.

-       Administration système : Administrer les utilisateurs. Cela correspond à la gestion des rôles et des utilisateurs (Authentification) : pour accéder à chaque fonctionnalité du logiciel, le logiciel peut demander un identifiant et un mot de passe.

Pour conclure, voici les principaux avantages du logiciel EBIOS. Il est :

-       Recommandé par la DCSSI  (diffusion et assistance par la DCSSI)
-       Gratuit
-       Compatible avec différents systèmes (Windows, Linux ou Solaris)
-       Facile de prise en main (avec même un module d’auto-formation, une aide complète)
-       Permet de rejoindre la communauté des utilisateurs EBIOS (experts…)
-       Est sous licence libre (utilisable et adaptable par tous, sources et documents de conception fourni avec le logiciel) (conçu en UML et réalisé en Java et XML)
-       Fidéle à la méthode
-       Capable d’éditer les documents adaptés aux besoins

Source : www.ssi.gouv.fr , logiciel EBIOS

Licence Creative Commons
Plans de sécurité de Jean-Baptiste Clavel et Adrien Thiery est mis à disposition selon les termes de la licence Creative Commons Attribution 3.0 non transposé.

La norme ISO 17799 et les méthodes d’audit

Avant de vous parler des différentes méthodes d’audit et d’amélioration de la sécurité des systèmes d’informations, nous allons découvrir ensemble la norme ISO 17799 qui constitue les « best practice », les règles de bonnes conduites à suivre et les objectifs à atteindre pour avoir une bonne sécurité informatique.

Présentation de la norme ISO 17799

Internationale, la norme ISO 17799, crée en 2005, établit des lignes directrices et des principes généraux pour préparer, mettre en œuvre, entretenir et améliorer la gestion de la sécurité de l’information au sein d’un organisme.

Ce code de bonne pratique est subdivisé en différentes 10 chapitres (cf ci-dessous).

Chapitre 1 : Politique de sécurité

La politique de sécurité donne des définitions claires de la sécurité de l’information (SI), une explication des principes de sécurité, évoque l’implication de la direction de l’organisme et les modalités de déclaration des incidents de sécurité.

On retiendra que les facteurs clé de succès de la mise en œuvre d’une politique de sécurité de l’information sont :

  • la mise en œuvre de la gestion de la SI compatible avec la culture de l’organisation
  • un soutien et un engagement réel et visible de la direction de l’organisme
  • une bonne compréhension des exigences de sécurité
  • une bonne communication interne (auprès des employés et des responsables) (présentation – formations – campagnes de sensibilisation)
  • une bonne communication externe de la politique de SI (auprès des fournisseurs par exemple)
  • un système de mesures pour évaluer l’efficacité de la gestion de la sécurité

Chapitre 2 : Organisation de la sécurité

Des groupes de travail devront être mis en œuvre, avec l’appui de la direction, pour approuver la politique de sécurité de l’information, pour assigner des rôles de sécurité et pour coordonner la sécurité dans l’organisme.

Chapitre 3 : Classification et contrôle des actifs

La norme préconise qu’un propriétaire soit identifié pour chaque actif principal (exemple: Données client, données achat, …) de façon à s’assurer qu’un niveau de protection approprié de cet actif soit mis en œuvre. Ce propriétaire d’information sera responsable de la mise en œuvre des contrôles appropriés et même si la réalisation des contrôles peut être déléguée, la responsabilité finale vis-à-vis de cet actif devra demeurer chez le propriétaire désigné.

Le processus de réalisation de l’inventaire des actifs est un aspect important de la gestion des risques. Un organisme doit pouvoir identifier ses actifs, ainsi que leur valeur et importance relatives.

Chapitre 4 : Sécurité liée au personnel

La norme ne se réduit pas à une norme technique, elle met beaucoup l’accent sur la culture de la sécurité de l’entreprise et notamment celle liée à son personnel, notamment lors de la procédure de recrutement, des contrats d’embauche et de la formation à la sécurité (connexions et déconnexion aux applicatifs, politique de mots de passe, signalement des incidents de sécurité, processus disciplinaire).

Chapitre 5 : Sécurité physique et de l’environnement

Sécurité Physique :

La sécurité physique est un sujet de fond dans la sécurité de l’information. La norme préconise la création de différents niveaux de sécurisation de zone, la mise en place de systèmes de contrôle d’accès, la séparation des zones de livraison…

Sécurité du matériel informatique :

La norme aborde les thèmes liés à la sécurité des serveurs et de leur environnement (gestion des alimentations électriques, politique pour limiter l’utilisation de boisson et de nourriture, procédure de sortie des matériels informatiques des locaux…)

Des points plus sensibles sont abordés comme par exemple : comment effacer définitivement les données ?

Chapitre 6 : Sécurité de l’exploitation et des réseaux

Dans ce chapitre, deux grands thèmes sont décrits :

  • les thèmes liés à la sécurisation de l’exploitation de l’information (évolutions des systèmes d’information, gérer les incidents de sécurité, séparation des fonctions à risques…)
  • la sécurité des réseaux au sens large véhiculant l’information, notamment toute la sécurité des échanges et les moyens associés (scellement, cryptographie, signature électronique…)

Chapitre 7 : Contrôles d’accès logique

Ce chapitre décrit la politique à mettre en œuvre pour structurer la gestion des accès au système d’information pour les utilisateurs de l’organisme, mais également pour les systèmes externes qui se connectent automatiquement à des applications.

Deux thèmes sont abordés :

  • la gestion des mots de passe
  • la gestion des accès logiques

Chapitre 8 : Développement et maintenance des systèmes d’information

Ce chapitre traite des infrastructures informatiques, des applications de l’entreprise et également des applications développées par les utilisateurs. Mais aussi de la politique sur l’utilisation des mesures cryptographiques : cette partie décrit l’ensemble du processus organisationnel à mettre en œuvre pour assurer une bonne utilisation du cryptage, des signatures numériques, des services de non répudiation et de la gestion des clés.

Chapitre 9 : Continuité d’activité

Quelles que soient les probabilités de risques, les dirigeants doivent pouvoir engager des moyens pour garantir la continuité de l’activité et en particulier, la permanence de la relation client. Sans système d’information, l’entreprise a en effet bien du mal à réorganiser ses processus. Cette conception dépasse la reprise sur le seul sinistre du système d’information : elle vise à réunir pour chaque collaborateur un emplacement de travail, un téléphone, et un poste de travail.

Chapitre 10 : La gestion de la conformité

Comme l’ISO 177999 est une norme internationale, l’identification de la législation applicable au pays est la première tâche. Il convient ensuite de définir explicitement et documenter les exigences légales, réglementaires et contractuelles pour chaque système d’information. (propriété intellectuelle, droits d’auteur, copyright des logiciels, protection des données personnelles…)

Présentation de la méthode EBIOS
(Expression des besoins et identification des objectifs de sécurité)

La méthode EBIOS a été développée par l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Les réflexions de cette méthode sont menées à un niveau davantage fonctionnel que technique et elle fournit les éléments nécessaires à la validation formelle par une autorité de la gestion, la surveillance et la revue des risques.

La méthode se présente en cinq étapes :

  1. L’étude du contexte
  2. L’étude des évènements redoutés
  3. L’étude des scénarios de menaces
  4. L’étude des risques
  5. L’étude des mesures de sécurité

1 – Étude du contexte

Objectif : définir précisément le contexte de l’étude et ses enjeux.

Cette étape permet de formaliser le cadre de gestion des risques, d’identifier, de délimiter et de décrire le périmètre de l’étude, ses enjeux, son contexte d’utilisation, ses contraintes spécifiques

Cette étape se décompose en trois sous-activités :
– Définir le cadre de la gestion des risques
– Préparer les métriques
– Identifier les biens

2 – Étude des évènements redoutés

Objectif : identifier de manière systématique les scénarios génériques que l’on souhaite éviter concernant le périmètre de l’étude.

Il permet tout d’abord de faire émerger tous les évènements redoutés en identifiant et combinant chacune de leurs composantes : on estime ainsi la valeur de ce que l’on souhaite protéger (les besoins de sécurité des biens essentiels), on met en évidence les sources de menaces auxquelles on est confronté et les conséquences (impacts) des sinistres.  Il permet également de recenser les éventuelles mesures de sécurité existantes et ré-estimer la gravité des évènements redoutés, une fois les mesures de sécurité appliquées.

3 – Étude des scénarios de menaces

Objectif : identifier de manière systématique les modes opératoires génériques qui peuvent porter atteinte à la sécurité des informations du périmètre de l’étude (scénarios de menaces).

Il permet tout d’abord de faire émerger tous les scénarios de menaces : on met en évidence les différentes menaces qui pèsent sur le périmètre de l’étude, les failles exploitables pour qu’elles se réalisent (les vulnérabilités des biens supports). Il permet également de recenser les éventuelles mesures de sécurité existantes et ré-estimer la vraisemblance des scénarios de menaces, une fois les mesures de sécurité appliquées.

4 – Étude des risques

Objectif : mettre en évidence de manière systématique les risques pesant sur le périmètre de l’étude, puis de choisir la manière de les traiter en tenant compte des spécificités du contexte.

Il s’agit ici d’identifier les scénarios réellement pertinents vis-à-vis du périmètre de l’étude. Il permet en outre de les qualifier explicitement en vue de les hiérarchiser et de choisir les options de traitement adéquates.

Cette étape est constitué de deux sous-activités :
– Apprécier les risques
– Identifier les objectifs de sécurité

5 – Étude des mesures de sécurité

Objectif : déterminer les moyens de traiter les risques et de suivre leur mise en œuvre.

Il permet de trouver un consensus sur les mesures de sécurité destinées à traiter les risques, d’en démontrer la bonne couverture, et enfin, d’effectuer la planification, la mise en œuvre et la validation du traitement.

Cette étape est constitué de deux sous-activités :
– Formaliser les mesures de sécurité à mettre en œuvre
– Mettre en œuvre les mesures de sécurité

De plus, cette méthode propose un certain nombre d’outils : Des guides pratiques pour mettre en oeuvre la méthode, un logiciel libre et gratuit, une formation, des études de cas et le club EBIOS, une association à but non lucratif qui permet de favoriser les échanges d’expériences, l’homogénéisation des pratiques et la vérification de la satisfaction des besoins des usagers.

L’année dernière, la méthode MEHARI (Méthode harmonisée d’analyse des risques) avait été étudiée. Faisons une comparaison de la méthode EBIOS et de MEHARI.

MEHARI vs EBIOS

EBIOS

MEHARI

Publié en 1997, créée en 1995

développée depuis 1995

Structure

Étude du contexte

1. L’identification des risques

Étude des événements redoutés

Étude des scénarios de menaces

Étude des risques

2. L’estimation des risques

Étude des mesures de sécurité

3. La gestion des risques

Outils

Guide pratique

Documents pratiques

Logiciel libre et gratuit

Logiciel gratuit

Formation

Vidéos

Etudes de cas

Outils de calculs Excel intégrés au logiciel

Club EBIOS

 

Finalement, on se rend compte que ces deux méthodes abordent les même sujets, mais peut être sous un angle un peu plus fonctionnel pour la méthode EBIOS et plus “managériale” pour la méthode MEHARI.

Un petit mot sur la “méthode” FEROS (Fiche d’Expression Rationnelle des Objectifs de Sécurité )

Lors de nos recherches, nous avons vu la “méthode FEROS” évoquée quasiment au même niveau que les méthodes EBIOS, MEHARI (ou MARION et MELISA, les méthodes “mères” de MEHARI), alors qu’une FEROS est en fait un document obligatoire (dans le cas de systèmes traitant des informations classifiées de défense) ou recommandé qui consiste à formaliser tous les éléments nécessaires à l’acceptation du système par une autorité. Il présente donc non seulement tous les objectifs de  sécurité du système étudié et les risques résiduels, mais aussi la démarche et l’argumentation qui a permis de les identifier.

De plus, la réalisation d’une FEROS est adaptée à l’utilisation de EBIOS, c’est donc ce qu’on pourrait considérer comme une annexe à la méthode EBIOS, même s’il est possible de réaliser une FEROS après avoir utilisé une autre méthode. En décidant de réaliser une FEROS, il faut cependant avoir utilisé une méthode d’audit de sécurité.

Pour conclure, si on sécurise un système d’information grâce à une méthode telle que MEHARI ou EBIOS, l’utilisation de la norme ISO 17799 pourrait faire l’objet d’une utilisation pour la vérification des bonnes pratiques des règles de sécurité établies grâce aux méthodes.

Le lecteur avide de savoir anglophone pourra s’intéresser à la norme OCTAVE (Operationally Critical Threat, Asset, and Vulnerability Evaluation), mais nous avons trouvé que l’étude de cette méthode n’était pas nécessaire pour cet article.

Sources :
Site de l’agence nationale de la sécurité de l’information
Wikipédia
Projet de sécurité des réseaux, Marc ROZENBERG, université d’Evry
Site du clusif (Club de la Sécurité de l’Information Français)

Plans de sécurité informatique de Jean-Baptiste CLAVEL et Adrien THIERY est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale 3.0 non transposé

Sécurité : physique ou virtuelle ?

Quand on a des bijoux ou de l’argent, que fait-on pour les mettre à l’abri, en sécurité ? Nos systèmes d’information détiennent des informations qui peuvent valoir de l’or, or les serveurs hébergeant ces informations sont parfois aussi faciles à saboter ou à voler que si on laissait sa chaîne en or sur une table en laissant la porte de la maison ouverte.

En effet, les informations ont beau être dématérialisée, on ne pense souvent qu’à leur vulnérabilité virtuelle et non à leur vulnérabilité physique. Cependant, certaines mesures sont parfois prises en entreprise pour pallier à tous les risques, y compris physiques.

Dans le réel, une salle sécurisée à tous les niveaux

Sécurité humaine

Un centre regroupant un ou plusieurs serveurs hébergeant les informations sensibles d’une entreprise est une cible de choix pour des êtres mal intentionnés. C’est pourquoi la sécurité des accès doit être surveillée au mieux. Pour une sécurité des informations maximale, la présence humaine continue (gardiennage 24/24) peut être renforcée par un système de vidéo surveillance, de régulation d’entrées/sorties par badges et d’alerte anti-intrusion déployé dans l’ensemble de ce bâtiment.

Sécurité physique et matérielle

Pour éviter la destruction des informations en cas de destruction d’un serveur, les équipements déclarés comme sensibles doivent être systématiquement redondés, c’est-à-dire dupliqués en un ou plusieurs endroits. Il existe aujourd’hui des systèmes et des techniques de sauvegarde de données régulières afin d’éviter les pertes de données imprévues (par exemple le fonctionnement de deux disques miroirs via RAID1 (Redundant Array of Independent Disks) ou l’utilisation de scripts de sauvegarde automatique).

Pour résister à une coupure (criminelle ou non) de ressources, un centre de serveurs se doit aussi de bénéficier d’une autonomie électrique régulièrement testée en cas de coupure électrique. Il peut aussi bénéficier d’un système de sécurité incendie ainsi que d’un groupe de refroidissement autonome adapté pour réguler au mieux la température des serveurs et en protéger le matériel, même en cas de coupure d’eau.

Sécurité logicielle

Pour bien protéger son système d’information, il est nécessaire de connaitre les principales attaques que le système est susceptible de subir. Il existe trois types d’attaques :

-       les attaques qui permettent d’obtenir des informations ou des privilèges pour mener un autre type d’attaque. On parle d’attaque par rebond.

-       les attaques simultanées par collusion : technique qui consiste à déclencher de nombreuses attaques  de manière coordonnée. Cette technique est notamment utilisée pour l’analyse de cryptogramme.

-       les attaques simultanées par coordination sur une cible unique : il s’agit de coordonner une attaque utilisant de très nombreux systèmes pour saturer la cible.

Voici les principales attaques connues à ce jour. Cette liste n’est bien sûr pas exhaustive :

-       Sabotage : c’est une destruction physique de matériels ou de supports dans le but de mettre hors service un SI ou une de ses composantes.

-       Brouillage : attaque de haut niveau utilisant les rayonnements électromagnétiques qui rendent le SI inopérant. Très souvent utilisé par les militaires en temps de crise ou de guerre.
D’où la très célèbre citation ! : « Le capitaine nous brouille l’écoute avec sa panne de micro. »

-       Écoute : sauvegarde des informations qui transitent sur un réseau informatique ou de télécommunication.

-       Cryptanalyse : attaque d’un chiffre. Pour assurer cette attaque, d’excellentes connaissances en mathématiques et une forte puissance de calcul sont requises. Couramment utilisé par les services de renseignement.

-       Mystification : simulation de la part de l’attaquant du comportement d’une machine pour tromper un utilisateur.

Exemple : simulation d’un terminal de paiement invitant à entrer ses données bancaires confidentielles

-       Trappe (ou Backdoor) : point d’entrée dans une application placée par un développeur. Ce point d’entrée permet aux programmeurs d’interrompre le déroulement de l’application, d’effectuer des tests, de modifier certains paramètres afin d’en changer le comportement original ceci lorsque l’application est en cours de développement.  Si ces points d’entrée ne sont pas supprimés avant commercialisation, il est possible de les utiliser pour contourner les mesures de sécurité.

Exemple :
Exploitation du mode debug de Sendmail utilisé par Robert T. Morris lors de son attaque par un ver sur Internet. (Source : Donn Seeley, Department of Computer Science, University of Utah, Aout 2008)

-       Asynchronisme : exploitation du fonctionnement asynchrone de certaines parties ou commandes du système d’exploitation. Modification des sauvegardes de contexte contenant des informations propres à l’état du système afin de contourner les mesures de sécurité.

-       Souterrain : type d’attaque qui évite de s’attaquer directement à une protection mais qui tente de s’en prendre à un élément qui la supporte. On peut faire une analogie avec le détenu qui tente de s’évader de prison : il privilégiera la fuite en creusant un souterrain dans la terre plutôt que tenter de percer un mur d’enceinte en béton.

-       Salami : acquisition imperceptible de données parcellaires d’un SI en vue de les rassembler et d’obtenir un tout exploitable.

-       Balayage (scanning) : cette technique consiste à envoyer au SI un ensemble de requêtes de natures diverses afin d’examiner les réponses du système. En automatisant ces sollicitations du SI, le pirate pourra facilement trouver le nom de certains utilisateurs et pourquoi pas leur mot de passe.

-       Exploitation d’un défaut (bug) : De nombreuses failles sont présentes dans les logiciels commerciaux. Ces failles sont exploitées à des fins malveillantes par les pirates.

-       Logiciel espion (spyware) : logiciel malveillant infectant un ordinateur dans le but de collecter et de transmettre, de manière invisible, des informations de l’environnement sur lequel il est installé.

-       Canal caché : Attaque de très haut niveau permettant de récupérer des informations en violant la politique de sécurité. Il existe 4 canaux cachés :

  • les canaux de stockage pour le transfert/la récupération d’informations
  • les canaux temporels pour étudier les temps de réponse du SI
  • les canaux de raisonnement qui permettent à un processus de déduire de l’information à laquelle il n’a pas normalement accès
  • les canaux dits de “fabrication” qui créent de l’information fausse.

-       Réseau de robots logiciels (botnet) : Réseau de robots logiciels (bots) installés sur énormément de machines. Ces robots se connectent sur des serveurs IRC (Internet Relay Chat) à partir desquels ils reçoivent des instructions de type : envoi de spam, vol d’informations, participation à des attaques de saturation…

-       Perturbation : L’agresseur va essayer de fausser le comportement du SI ou de l’empêcher de fonctionner en le saturant, en modifiant ses temps de réponse ou en provoquant des erreurs. L’agresseur veut désorganiser, affaiblir ou ralentir le système cible.

-       Saturation : technique consistant à remplir une zone de stockage ou un canal de communication jusqu’à ce que l’on ne puisse plus l’utiliser.

-       Pourriel (spam) : courrier électronique indésirable transmis à une multitude de destinataires envoyés sans que l’émetteur ne soit au courant. Le spam contribue à la pollution voir à la saturation des boîtes aux lettres électroniques.

-       Canular (hoax) : rumeur propagée, souvent par courrier électronique, comme quoi un virus catastrophique circule sur la toile, virus imaginaire bien évidement. Ce n’est pas une réelle attaque mais cela contribue à la désinformation générale.

-       Hameçonnage ou filoutage (phishing) : Technique simple qui permet d’obtenir des informations confidentielles telles que les mots de passe en se faisant passer auprès des victimes pour quelqu’un digne de confiance. Par exemple, votre banque qui vous demande vos codes pour mettre à jour vos droits…

-       Les Bombes, Virus, Vers, Chevaux de Troie étant les plus communs et ayant déjà étés traités l’année dernière, nous ne les réexpliquerons pas.

Cet arsenal d’attaques représente une partie des menaces potentielles pour un système. Un système doit donc nécessairement se prémunir contre ces différentes attaques.

Sources :

http://www.ssi.gouv.fr/IMG/pdf/Guide650-2006-09-12.pdf

http://www.clusif.asso.fr/
http://fr.wikipedia.org/wiki/RAID_(informatique)
Licence Creative Commons
Plans de sécurité informatique de Jean-Baptiste CLAVEL et Adrien THIERY est mis à disposition selon les termes de la licence Creative Commons Attribution 3.0 non transposé.

Les origines de l’intelligence artificielle

L’introduction du sujet vous avait mis l’eau à la bouche ? Vous voulez en savoir plus sur l’histoire de l’intelligence artificielle ? Cet article répondra sans doute à vos attentes.
Tout d’abord, il faut savoir que l’histoire de l’IA est liée à deux notions qui s’inscrivent dans deux périodes de l’histoire bien distinctes :

  • 17ème siècle : l’étude de la rationalisation du système de pensée humain qui commence avec la modélisation mathématique de la pensée par Pascal et Leibniz. Boole définissait ensuite le « ET », le « OU » et le « NON » qui suffisait à définir un système d’encodage de la logique.
  • A partir de 1936 : Alan Turing développe les idées fondatrices de l’informatique. S’en suit alors une croissance exponentielle dans ce domaine avec des machines toujours plus puissantes. Le premier programme se rapprochant du système de pensée humain n’apparut toutefois qu’en 1970, créé par Terry Winograd. Ce programme répond au doux nom de SHRDLU.

Cependant, malgré la croissance de la puissance des ordinateurs, l’IA n’a pas énormément évolué dans le domaine scientifique car l’intérêt d’une telle recherche n’était pas assez commercial.

C’est dans un tout autre domaine que l’IA va évoluer : l’univers des jeux vidéo. Cette industrie, née dans les années 70, s’est développée à une vitesse phénoménale, aussi bien grâce à l’évolution de la technologie que par la créativité grandissante des développeurs, condamnés à innover pour satisfaire un client toujours plus exigeant.

Dans un premier temps, les développeurs délaissaient allègrement la partie IA des jeux vidéo pour se consacrer à l’amélioration des graphismes et autres effets sonores. Ce qui pouvait avoir pour effet de réduire la sensation d’immersion des joueurs dans l’univers virtuel. Des bots qui vont toujours tout droit et qui se précipitent dans les trous, ou qui butent dans tous les murs. Un humain serait-il aussi ridicule ? Sans alcool, non.

Les Arbres de recherche

Nous allons commencer, dans cet article, par vous présenter des techniques qui ont joué un rôle de précurseur dans l’univers des IA : les arbres de recherche. Celles-ci s’adaptent tout particulièrement aux jeux « classiques » (jeux de plateau tour par tour) : échecs, dames, go, cartes…

Le principe de l’IA est simple :

  1. Elle recherche les séquences de coup jouable d’une certaine longueur
  2. Elle évalue la position résultante de la séquence
  3. Elle choisit le coup optimal

Pour expliquer les algorithmes utilisés dans ces jeux, nous allons prendre le cas particulier du jeu d’échec.

Algorithme du MinMax

Pour une position donnée des pièces sur l’échiquier, on va construire un arbre qui contient les séquences (d’une certaine longueur) de coup jouables. A partir de là, on évalue à l’aide d’une fonction d’évaluation les positions résultantes de chaque séquence. On obtient l’arbre suivant :

Arbre de recherche 1On considère ici une séquence avec deux coups. Plus la valeur de la ligne C est haute, plus la position est intéressante pour l’IA. Par conséquent, l’adversaire n’a pas intérêt à les choisir. Cet algorithme se base donc sur une hypothèse fondamentale : l’adversaire joue pour gagner et va donc maximiser son score, c’est-à-dire minimiser le score de l’IA. On remplit de cette manière la ligne B (en choisissant la valeur minimale de chaque sous arbre) :

Arbre de recherche 2Pour finir, on choisit la valeur maximale de la ligne B : 5. On obtient, avec cet exemple basique, l’idée directrice de l’algorithme MinMax : maximiser le minimum que peut nous offrir l’adversaire.

Le principal inconvénient de cette technique vient du fait que l’on explore l’arbre dans son intégralité alors que certaines branches pourraient être éliminées dès le début (sachant que chaque nœud a de l’ordre de 35 fils). Ce problème est corrigé par l’algorithme d’élagage alpha-beta.

Alpha-beta

Le principe du MinMax est conservé. On l’améliore cependant en éliminant les séquences inintéressantes.

Arbre de recherche 3Ici, par exemple, on élimine la branche verte pour la raison suivante : la valeur « 2 » de la case précédente est inférieure la valeur « 5 » de la branche bleue ; étant déjà inférieure, il n’y a aucune raison de continuer d’espérer une stratégie plus intéressante dans ce sous arbre.

L’idée s’adapte évidemment au cas suivant :

La valeur « 6 » (case précédent la case verte) est supérieure à « 5 » (case rouge).

La fonction d’évaluation

Le rôle de cette fonction est de comparée deux positions. La difficulté de développer une IA performante repose en grande partie sur la construction d’une fonction d’évaluation pertinente et performante. La difficulté réside dans le fait que le nombre de possibilité est énorme. Les algorithmes précédents fournissent un grand nombre de positions. Si la fonction d’évaluation réclame trop de calculs, cela risque de nécessiter des ressources mémoires colossales. Une autre difficulté réside dans le “calibrage” de la fonction (définir la gravité ou l’intérêt d’une position). Une position n’ayant pas la même valeur au cours de la partie.

Voici une fonction (partielle) permettant le développement d’une IA correcte :

Chaque pièce se voit attribuer une valeur. On somme les valeurs des différentes pièces de l’IA pour obtenir la force de l’IA (même opération pour l’adversaire). Ces grandeurs ne tiennent néanmoins pas compte des positions des pièces et notamment du contrôle ou de l’occupation du centre de l’échiquier ! Afin de prendre en compte ces éléments, des bonus/malus  viennent moduler la force. Par exemple une position dans laquelle une pièce majeure (pas les pions ni le roi) serait immobilisée donnera un malus. Tandis que le fait de positionné un fou sur une diagonale ouverte donnera un bonus. Egalement dans le but de privilégier la zone centrale de l’échiquier, on peut attribuer une valeur à chaque case de telle façon que, plus en s’éloigne du centre, plus la valeur diminue. Au final, l’évaluation est donnée par la force de l’IA moins la force de l’adversaire auquel on ajoute les bonus et soustrait les malus.

De plus, dans le but de démarrer efficacement la partie, l’ordinateur doit être doté d’un stock d’ouverture de telle manière que, si une position enregistrée est reconnue, alors l’ordinateur pourra lui associer le meilleur coup à jouer.

Enfin, pour terminer efficacement la fin de partie, il faut constater la complexité stratégique due au fait que les pièces sont sur un “plateau plus ouvert” et où il n’est pas rare que les séquences de coup permettant le gain dépassent la profondeur de l’arbre. Actuellement, la solution utilisée consiste en des tables qui analysent toutes les configurations avec cinq pièces majeures ou moins. Il ne reste plus qu’à implémenter une analyse rétrograde pour trouver la meilleure solution.

Bilan de l’IA dans les jeux « Classiques »

Ces stratégies ont beau être les précurseurs de la plupart des stratégies d’IA dans les jeux vidéo, le temps de calcul très important lié au nombre de coups élevé ne la rend adaptable qu’à certaines composantes des IA. On peut donc la retrouver, par exemple, dans certains jeux où il faut conquérir des zones.

Après cette entrée en matière sur les origines de l’IA dans les jeux vidéo, nous verrons, dans le prochain article, la problématique du « pathfinding » (recherche de chemin par un bot).

Références :

(1) http://bobots.e-monsite.com/pages/projet-bobots/ia-et-jeux-videos.html

(2) http://www.site-naheulbeuk.com/utbm/IA41%20CM11-12.pdf

 

 

 

Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale 3.0 non transposé.

Auteurs: Brice Le Dain et Louis Banvillet.