Our Blog

Cette section s’appuie sur le livre blanc de Microsoft intitulé « Déploiement de solutions Cloud hautement disponibles et sécurisées » parût en 2012.

Sécurisation des accès et des données d’une architecture Cloud

Les techniques qui seront décrites ultérieurement ont pour objectif d’augmenter la fiabilité des services de Cloud Computing en réduisant l’impact, la fréquence des défaillances de système et en fournissant des services hautement disponibles, c’est-à-dire avec peu d’interruptions ou de temps d’indisponibilité.

Plusieurs indicateurs de fiabilité sont à prendre en compte :

-L’uptime qui correspond au temps d’activité des services. Le niveau d’attente des clients se situe entre 99,9% à 99,999% par an, c’est-à-dire entre 9 heures d’indisponibilité et 50 minutes d’interruption des services tolérés.

-« Mean time to failure » (MTTF) ou comprenez le temps moyen de fonctionnement avant la défaillance qui dépend de la fiabilité du matériel informatique de votre structure IT.

-« Mean time to repair » (MTTR) ou temps moyen de réparation est un autre indicateur pertinent pour mesurer la fiabilité. Il permet de déterminer le temps écoulé entre la défaillance et le temps de réparation. Il est préférable de se concentrer sur ce critère pour diminuer l’impact des défaillances, mais aussi créer un ensemble de serveurs de secours redondants pour accélérer la reprise après accidents. Il est donc conseillé de réduire au mieux le temps de MTTR.

Pour concevoir une architecture Cloud hautement disponible, il est nécessaire de mettre en place :

-Une séparation entre les interfaces et les composants pour réduire les temps d’arrêt du système

-Une séparation de fonction, à savoir que chaque composant met en œuvre un seul nombre de fonctions proches sans chevauchement ou couplage ; cela permet la propagation des fonctionnalités à différents endroits et sur différents réseaux.

-Un basculement automatique, facilité par l’enregistrement d’interfaces de composants par URI (Uniform Ressource Identifier), ce qui augmente les chances de localisation du service opérationnel. Il consiste en la répartition de la charge de travail de manière automatique entre différentes machines.

-Une tolérance aux pannes qui consiste à découpler l’interface web utilisateur et la logique applicative pour que le client puisse continuer à suivre les informations de l’organisation, malgré la défaillance d’autres composants.

-Un plan de reprise après sinistre est un programme à suivre après les défaillances occasionnelles pour rétablir la disponibilité du système ; malgré tous les efforts mis en œuvre, des évènements imprévisibles peuvent faire leur apparition, nommés également « cygne noir ».

-L’effectuation de tests et mesures, il en existe deux types : la scrubation automatisée du service par des serveurs de test et les enquêtes auprès des utilisateurs. Cette seconde méthode qui consiste à sonder les attentes non satisfaites des utilisateurs afin d’établir des KPIs et générer des rapports mensuels.

-Mettre en place une protection spéciale pour les clés de chiffrement qui seraient déchiffrées dans le Cloud.

-Eviter de dupliquer votre base de données de comptes pour ne pas augmenter la surface d’attaque des informations.

-Tenir à jour la correspondance entre l’identifiant de chaque utilisateur et les rôles qui lui sont attribués (protection des rôles approuvés).

-Protéger les données en transit (qui transitent d’une machine, d’un lieu de stockage à un autre) par l’utilisation du chiffrement TLS (Transport Layer Security).

-Protéger les données sur les terminaux mobiles en instaurant une politique de sécurité et en y configurant les politiques ActiveSync lorsque l’entreprise en dispose. L’important est de contrôler tous les points de terminaison au niveau mobile.

-Développer du code conformément au protocole SDL afin d’éviter que les différents composants qui gèrent une même fonctionnalité ne rentrent en conflit, comme pour le processus d’autorisation.

-Une bonne conception Cloud doit permettre d’être capable d’évaluer l’intégrité de l’appareil et de vérifier l’identité de l’utilisateur.

-Appliquer l’objectif UEFI (Unified Extensible Firmware Interface) qui définit une méthode standard de communication entre le système d’exploitation et le matériel. Il comprend le démarrage sécurisé Secure Boot qui est un processus de validation par micrologiciel capable de détecter des logiciels malveillants.

Je suis un blogueur passionné par le marketing digital et le domaine IT. Après avoir travaillé dans le E-commerce et le Cloud computing, je mets à présent mes compétences au service d’une compagnie de retargeting. J’effectue des missions de freelancing pour des sites qui concernent l’industrie du SaaS et du Webmarketing. Enfin, j’aide différents types d’entreprises à développer leur présence sur le web. Les articles que j’écris reflètent uniquement mes opinions personnelles.

Comments ( 0 )

    Leave A Comment

    Your email address will not be published. Required fields are marked *

    Do you want massive traffic?
    Scelerisque augue ac hac, aliquet, nascetur turpis. Augue diam phasellus odio lorem integer, aliquam aliquam sociis nisi adipiscing hacac.
    • Goblinus globalus fantumo tubus dia
    • Scelerisque cursus dignissim lopatico
    • Montes vutario lacus quis preambul
    • Leftomato denitro oculus softam lorum
    • Spiratio dodenus christmas gulleria tix
    • Dualo fitemus lacus quis preambul bela
    PGlmcmFtZSB3aWR0aD0iMTAwJSIgaGVpZ2h0PSIxMDAlIiBzcmM9Imh0dHA6Ly93d3cubWljaGFlbHVscnljay5jb20vd3AtY29udGVudC91cGxvYWRzLzIwMTQvMDUvTGVfQ2xvdWRfY29tcHV0aW5nX3YyLnBuZyIgZnJhbWVib3JkZXI9IjAiIGFsbG93ZnVsbHNjcmVlbj48L2lmcmFtZT4=
    * we never share your details with third parties.