Software-Defined Storage : les 7 réalités d’une technologie convoitée

infinidat - Jean-Philippe Pouquet

Une exclusivité les-experts.tech

Par Jean-Philippe Pouquet, Enterprise Sales Manager pour la France chez Infinidat

À l’heure du « Software-Defined Everything », un nombre croissant d’entreprises choisissent de remplacer leur matériel informatique par des logiciels, y compris leurs solutions de stockage. Les plateformes SDS (Software-Defined Storage) offrent une plus grande flexibilité et évolutivité, des coûts fortement réduits et sont faciles à utiliser. Il est toutefois important de ne pas prendre ces avantages proclamés pour acquis et de vous demander si ces plateformes peuvent vraiment vous les apporter. Nous examinons ci-dessous les sept avantages de la technologie SDS les plus fréquemment cités pour démêler le vrai du faux.

 

Les avantages de la technologie SDS

1 : Agilité 

L’agilité est l’un des principaux avantages de la technologie SDS. Cependant, transférer les données entre les baies ou les datacenters nécessite beaucoup de temps et de ressources. Sans compter les erreurs qui peuvent également se produire pendant le processus. La difficulté du transfert des octets d’un emplacement à un autre explique la tendance selon laquelle les entreprises laissent les données dans leur emplacement de stockage d’origine, même lorsque celui-ci devient obsolète. Il faut donc veiller à choisir des solutions SDS adaptées à ses besoins, pour transférer des données entre la DRAM, le stockage Flash et les HDDs en temps réel et sans intervention humaine, afin d’optimiser le rapport prix/performances sans consommer la bande passante SAN.

 

2 : Évolutivité 

Il est essentiel de pouvoir disposer de solutions de stockage capables de supporter la croissance exponentielle des volumes de données. La technologie SDS est souvent présentée aux entreprises comme un moyen de parvenir à cette évolutivité. Notez cependant que pour les baies « lavées au SDS » cette affirmation est infondée : au final c’est le même logiciel qui gère les baies qui, pour des questions de marché, sont devenues SDS. Pour les instanciations SDS de type « scale-out » en revanche, l’évolutivité représente bel et bien un avantage à condition que les paramètres suivants soient pris en compte :

  • Les coûts d’acquisition et de propriété des systèmes SDS de type « scale-out » sont moins élevés que ceux des baies de stockage.
  • Les performances augmentent de façon linéaire avec le volume de données pour offrir un niveau de performance constant avec un grand nombre de nœuds.
  • La présence de nœuds asymétriques ou de nœuds de différentes générations au sein d’un même cluster n’engendre pas de problème. Ce critère est indispensable pour les entreprises qui souhaitent mettre en place une stratégie « just-in-time » pour leurs mises à niveau, en raison de la courte durée de vie commerciale des serveurs, disques durs et SSD.
  • Les solutions de type « scale-up » ne suffisent pas à combler les besoins de l’entreprise en matière de performances et de capacité de stockage.
  • Les fournisseurs de solutions SDS sont capables de mettre en place et de maintenir des services d’assistance efficaces, ainsi que d’investir suffisamment dans la recherche et le développement. Leurs produits restent compétitifs et maintiennent une large matrice de compatibilité, et ce malgré la perte de la marge brute issue de la vente de matériel informatique.

 

3 : Performances 

L’augmentation des performances est un avantage bien connu des solutions SDS. Mais il faut garder en tête que parler de performance nécessite un référentiel auquel se comparer. En outre, si les prévisions les plus pessimistes des besoins de l’entreprise sur la durée de vie prévue de la solution sont supérieures de 30% ou plus aux performances de la solution SDS, l’entreprise n’en tirera aucun bénéfice. Enfin, si maintenir un niveau de performance constant exige des ajustements fréquents et épisodiques, les coûts de propriété plus élevés peuvent facilement éliminer les économies d’acquisition initiales. 

 

4 : Meilleure tolérance aux dysfonctionnements 

Une architecture de type « scale-out » nécessite généralement plus de composants qu’une baie de type « scale-up » proposant un niveau de performance et une capacité de stockage similaires. De ce fait, elle doit être plus tolérante aux dysfonctionnements tout en offrant la même disponibilité et ce à plus grande échelle. Mais derrière ce raisonnement simple se cachent des réflexions bien plus essentielles :

  • Les disques durs et les SSD sont à l’origine de la majorité des dysfonctionnements matériels dans les baies de type « scale-up » ou « scale-out ». Le temps moyen entre les pertes de données sur une baie dépendra donc principalement du temps moyen entre les dysfonctionnements (MTBF) des disques durs et des SSD, du nombre de dysfonctionnements pouvant avoir lieu sans porter atteinte à l’intégrité des données et du temps nécessaire pour remettre en place le système. 
  • Les erreurs humaines et les bugs logiciels sont responsables d’environ 80 % du temps d’interruption total.

 

5 : Économies d’échelle 

On considère généralement que les infrastructures matérielles standardisées permettent de réaliser des économies d’échelle. Cet argument n’est que partiellement vrai, car les marges réalisées sur les serveurs sont plus faibles que celles réalisées sur des baies. Faire le choix de serveurs ou de baies de stockage n’est donc pas forcément synonyme de réduction des coûts. En d’autres termes, une fois que vous avez atteint la quantité qui vous garantit le meilleur prix possible, l’achat de toute unité supplémentaire n’aura aucun impact positif sur le prix. Dans la mesure où les données restent généralement sur leur premier emplacement de stockage, la possibilité de transférer les données entre des serveurs relève plus d’un intérêt théorique et pratique : éviter les transferts entre baies ou nœuds de stockage, qui constituent un processus long, à fort impact et sujet aux erreurs. 

 

6 : Cycles de remplacement de matériel plus rapides 

Cet avantage illustre toute l’importance de bien choisir son fournisseur de solutions SDS. En effet, c’est le fournisseur qui dicte le cycle de remplacement du matériel. L’utilisateur n’a aucun contrôle sur ce cycle, à moins d’accepter d’utiliser du matériel non certifié. Les politiques de gestion des ressources et de qualification interne peuvent également retarder l’adoption de nouvelles plateformes matérielles. Avant d’acheter, de nombreuses entreprises attendent qu’une nouvelle solution ait été approuvée par le marché, c’est-à-dire qu’elle ait été activement utilisée par d’autres entreprises pendant 6 à 12 mois. Un délai qui pourra être allongé de 3 mois si l’entreprise suit une procédure de qualification interne avant de déployer la solution en production. Les utilisateurs savent qu’ils accuseront donc un retard de 9 à 15 mois par rapport à la toute dernière technologie. 

 

7 : Prix d’achat plus faible 

Les solutions SDS sont souvent moins chères que les autres solutions et permettent ainsi aux entreprises de réaliser d’importantes économies en matériel informatique. Mais si les coûts de propriété, de mise à niveau et de remplacement sont élevés, une solution initialement économique peut rapidement devenir coûteuse. Les baies de type « scale-up » se limitent généralement à l’ajout de différents média et de JBOD, tandis que les baies SDS de type « scale-out » impliquent souvent l’ajout de nœuds (ainsi que des HBA, des microprocesseurs, de la DRAM, de l’alimentation, des ventilateurs et des supports qui vont avec). Le coût des marchandises d’une baie SDS de type « scale-out » sera donc généralement plus élevé que celui d’une architecture de type « scale-up » de capacité équivalente. Ainsi, les coûts d’acquisition et de maintenance dépendront de la stratégie de commercialisation du fournisseur, des pressions exercées par la concurrence et de vos compétences en négociations. Il en sera de même pour les coûts de mise à niveau. Toutefois, les coûts de propriété ne sont pas uniquement déterminés par les coûts d’acquisition, de maintenance, d’alimentation et de refroidissement. Les besoins en personnel, les impératifs de sauvegarde/restauration, les interruptions et le coût représenté par les opportunités manquées (c’est-à-dire par le manque d’agilité) jouent également un rôle important. Or ces facteurs sont en grande partie déterminés par l’automatisation des baies, les fonctionnalités de création de scripts, l’ergonomie de l’interface graphique, les flux de données, la qualité du code et la tolérance aux dysfonctionnements. Bien qu’il soit difficile d’évaluer les coûts d’interruption, vous pouvez vous poser la question suivante : « Au bout de combien d’événements d’interruption supplémentaires la solution de stockage cessera-t-elle de représenter une économie ? » Si la réponse est « un seul », alors cette solution soi-disant « économique » n’est pas forcément le meilleur choix.

 

Les avantages du SDS sont connus mais comme toute technologie fantasmée, encore faut-il savoir à quelles conditions et dans quelle mesure l’on peut en tirer des bénéfices. À ce titre, le choix de la solution est primordial : toutes les solutions du marché ne donnent pas automatiquement accès à ces avantages, et les décideurs qui souhaitent passer au Software-Defined ont tout intérêt à se poser les bonnes questions au préalable. Ce n’est que de cette façon qu’ils pourront tirer parti des améliorations recherchées en matière de flexibilité, d’évolutivité et de performances. Un bon diagnostic des besoins et des objectifs recherchés évitera les déceptions, l’augmentation des dépenses ou du surplus de travail pour leurs employés.

%d blogueurs aiment cette page :