Gérer la virtualisation pour Big Data

Virtualisation sépare ressources et des services de l'environnement de la livraison physique sous-jacente, qui vous permet de créer de nombreux systèmes virtuels au sein d'un seul système physique. Une des principales raisons pour lesquelles les entreprises ont mis en œuvre la virtualisation est d'améliorer la performance et l'efficacité du traitement d'un mélange varié de charges de travail

Sommaire

La grande hyperviseur de données

Dans un monde idéal, vous ne voulez pas à se soucier du système d'exploitation sous-jacent et le matériel physique. UN hyperviseur est la technologie veiller à ce que le partage des ressources se déroule d'une manière ordonnée et reproductible.

L'hyperviseur se trouve au plus bas niveau de l'environnement matériel et utilise une mince couche de code pour activer le partage dynamique des ressources. L'hyperviseur rend sembler chaque système d'exploitation a toutes les ressources physiques pour elle-même.

Dans le monde de grands volumes de données, vous pouvez avoir besoin pour soutenir de nombreux environnements d'exploitation différents. L'hyperviseur devient un mécanisme de livraison idéal pour les composants de la technologie de la grande pile de données. L'hyperviseur vous permet d'afficher la même application sur beaucoup de systèmes sans avoir à copier physiquement que l'application sur chaque système.

Comme un avantage supplémentaire, en raison de l'architecture de l'hyperviseur, il peut charger les différents systèmes d'exploitation comme si elles étaient simplement une autre application. Donc, l'hyperviseur est un moyen très pratique de faire avancer les choses rapidement et efficacement virtualisés.

Les systèmes d'exploitation invités sont les systèmes d'exploitation fonctionnant sur les machines virtuelles. Avec la technologie de virtualisation, vous pouvez configurer l'hyperviseur de diviser les ressources de l'ordinateur physique. Les ressources peuvent être divisés 50/50 ou 80/20 entre les deux systèmes d'exploitation invités, par exemple.




La beauté de ce système est que l'hyperviseur fait tout le levage lourd. Le système d'exploitation invité ne se soucie pas que il fonctionne dans un partitionnement virtuel, il pense qu'il a un ordinateur à lui tout seul.

Vous trouverez essentiellement deux types d'hyperviseurs:

  • Tapez 1 hyperviseurs exécuter directement sur la plate-forme matérielle. Ils atteignent une plus grande efficacité, car ils courent directement sur la plate-forme.

  • Tapez 2 hyperviseurs exécuter sur le système d'exploitation hôte. Ils sont souvent utilisés quand il existe un besoin pour soutenir un large éventail de périphériques d'E / S.

Abstraction et big data virtualisation

Pour les ressources et services informatiques d'être virtualisée, ils sont séparés de l'environnement de la livraison physique sous-jacente. Le terme de cet acte de séparation est appelé abstraction. Abstraction est un concept clé dans les grandes données. MapReduce Hadoop et sont distribuées des environnements informatiques où tout est abstrait. Le détail est extrait de telle sorte que le développeur ou l'analyste n'a pas besoin de se préoccuper de où se trouvent les éléments de données.

Abstraction minimise la complexité de la chose en se cachant les détails et ne fournissant que les informations pertinentes. Par exemple, si vous alliez chercher quelqu'un que vous avez jamais rencontré auparavant, il pourrait vous dire l'emplacement de le rencontrer, et ce qu'il sera le port. Il n'a pas besoin de vous dire où il est né, combien d'argent qu'il a dans la banque, sa date de naissance, et ainsi de suite.

Voilà l'idée de l'abstraction - il est de fournir une spécification de haut niveau plutôt que d'entrer dans beaucoup de détails sur la façon dont quelque chose fonctionne.

Mettre en œuvre la virtualisation pour travailler avec Big Data

La virtualisation permet rend votre environnement informatique assez intelligent pour gérer grande analyse des données. En optimisant tous les éléments de votre infrastructure, y compris le matériel, les logiciels et le stockage, vous gagnez l'efficacité nécessaire pour traiter et gérer de grands volumes de données structurées et non structurées. Avec de grandes données, vous avez besoin d'accéder, de gérer et d'analyser des données structurées et non structurées dans un environnement distribué.

Big données assume la distribution. Dans la pratique, tout type de MapReduce fonctionnera mieux dans un environnement virtualisé. Vous avez besoin de la capacité de déplacer les charges de travail autour de la base de besoins en énergie et le stockage de calcul.

La virtualisation vous permettra de résoudre les problèmes plus larges qui ne sont pas encore scope. Vous ne pouvez pas savoir à l'avance comment rapidement vous aurez besoin à l'échelle.

La virtualisation vous permettra de soutenir une variété de grands magasins opérationnels de données. Par exemple, une base de données graphique peut être filée comme une image.

L'avantage le plus direct de la virtualisation est de veiller à ce que les moteurs fonctionnent mieux MapReduce. La virtualisation entraînera une meilleure échelle et de performance pour MapReduce. Chacun de la carte et de réduire les tâches doit être exécutée indépendamment. Si le moteur de MapReduce est parallélisé et configuré pour fonctionner dans un environnement virtuel, vous pouvez réduire les frais généraux de gestion et de permettre des expansions et des contractions dans les groupes de charges de travail.

MapReduce lui-même est intrinsèquement parallèle et distribué. En encapsulant le moteur de MapReduce dans un conteneur virtuel, vous pouvez exécuter ce que vous avez besoin quand vous en avez besoin. Avec la virtualisation, vous augmentez votre utilisation de l'actif que vous avez déjà payés par les transformer en pools de ressources génériques.


» » » » Gérer la virtualisation pour Big Data