Big fournisseurs de cloud de données

Fournisseurs de cloud sont de toutes formes et tailles et offrent de nombreux produits différents pour les grandes données. Certains sont des noms familiers tandis que d'autres sont apparues récemment. Certains des fournisseurs de cloud qui offrent des services IaaS qui peuvent être utilisés pour les grandes données incluent Amazon.com, ATT, GoGrid, Joyent, Rackspace, IBM et Verizon / Terremark.

Sommaire

Elastic Compute Cloud Public d'Amazon pour Big Data

Actuellement, l'un des fournisseurs les plus médiatisés services IaaS est Amazon Web Services avec son Elastic Compute Cloud (Amazon EC2). Amazon n'a pas commencé avec une vision pour construire une grande entreprise de services d'infrastructure.

Au lieu de cela, la société a construit une gigantesque infrastructure pour soutenir sa propre entreprise de vente au détail et a découvert que ses ressources ont été sous-utilisés. Au lieu de laisser cet actif à rester les bras croisés, il a décidé de tirer parti de cette ressource tout en ajoutant à la ligne de fond. Le service EC2 d'Amazon a été lancé en 2006 et continue d'évoluer.

Amazon EC2 offre une évolutivité sous le contrôle de l'utilisateur, avec l'utilisateur de payer pour des ressources à l'heure. L'utilisation du terme élastique dans la dénomination de l'EC2 d'Amazon est importante. Ici, l'élasticité se réfère à la capacité que les utilisateurs ont EC2 pour augmenter ou diminuer les ressources d'infrastructure affectés à répondre à leurs besoins.

Amazon propose également d'autres services de gros de données aux clients de son portefeuille de services Amazon Web. Ceux-ci incluent ce qui suit:

  • Amazon Elastic MapReduce: Ciblée pour le traitement d'énormes volumes de données. Elastic MapReduce utilise un framework Hadoop hébergé fonctionnant sur EC2 et le service Amazon Simple Storage (Amazon S3). Les utilisateurs peuvent désormais exécuter HBase.




  • Amazon DynamoDB: Un service de base de données entièrement gérée non seulement SQL (NoSQL). DynamoDB est une faute, de services de stockage de données hautement disponible tolérante offrant l'auto-approvisionnement, l'évolutivité transparente et simple administration. Il est mis en œuvre sur les SSD (disques à l'état solide) pour une plus grande fiabilité et des performances élevées.

  • Service Amazon Simple Storage (S3): Un service web échelle conçu pour stocker toute quantité de données. La force de son centre de conception est performances et d'évolutivité, il est donc non pas comme option en charge, comme d'autres magasins de données. Les données sont stockées dans “ seaux ” et vous pouvez sélectionner une ou plusieurs régions du monde pour le stockage physique pour répondre aux besoins de latence ou réglementaires.

  • Amazon High Performance Computing: Tuned pour des tâches spécialisées, ce service fournit à faible latence accordés clusters de calcul haute performance. Le plus souvent utilisé par les scientifiques et les universitaires, HPC pénètre dans l'ordinaire en raison de l'offre d'Amazon et d'autres fournisseurs de solutions HPC. Amazon grappes HPC sont construit à cet effet pour les charges de travail spécifiques et peuvent être reconfigurés facilement pour de nouvelles tâches.

  • Amazon RedShift: Disponible en aperçu limité, RedShift est un service d'entreposage de données pétaoctet échelle construite sur une architecture MPP évolutive. Géré par Amazon, il offre une alternative fiable et sécurisée aux entrepôts de données en interne et est compatible avec plusieurs outils de business intelligence populaires.

Des services de données grande Google

Google, le géant de la recherche Internet, offre également un certain nombre de services de cloud computing ciblées pour les grandes données. Ceux-ci incluent ce qui suit:

  • Google Compute Engine: Une capacité basée sur le cloud computing pour la machine virtuelle, Google Compute Engine offre un environnement informatique sécurisé et flexible à partir de centres de données d'efficacité énergétique. Google propose également des solutions de gestion de la charge de travail de plusieurs partenaires technologiques qui ont optimisé leurs produits pour Google Compute Engine.

  • Google Big Query: Vous permet d'exécuter des requêtes SQL comme à une vitesse élevée contre les grands ensembles de données potentiellement des milliards de lignes. Bien qu'il est bon pour l'interrogation des données, les données ne peuvent pas être modifiés après il est en elle. Considérez Google Big Query une sorte de système Online Analytical Processing (OLAP) pour les grandes données. Il est bon pour les rapports ad hoc ou analyse exploratoire.

  • Google Prediction API: Un outil d'apprentissage de la machine à base de cloud pour les grandes quantités de données, la prévision est capable d'identifier les modèles de données, puis de les rappeler. Il peut en apprendre davantage sur un modèle à chaque fois qu'il est utilisé. Les motifs peuvent être analysés pour une variété de fins, y compris la détection des fraudes, l'analyse des taux de désabonnement, et le sentiment de la clientèle.

Microsoft Azure pour Big Data

Basé sur des abstractions Windows et SQL, Microsoft a productized un ensemble d'outils de développement, le soutien de la machine virtuelle, la gestion et les services de médias et les services de dispositif mobile dans une offre PaaS. Pour les clients ayant une expertise approfondie en .Net, SQL Server, et Windows, l'adoption du PaaS basée sur Azure est simple.

Pour répondre aux nouvelles exigences d'intégrer les grandes données dans des solutions Windows Azure, Microsoft a également ajouté Windows Azure HDInsight. Construit sur la plate-forme de données Hortonworks (HDP), qui, selon Microsoft, offre une compatibilité à 100 pour cent avec Hadoop, HDInsight supporte la connexion avec Microsoft Excel et d'autres outils de business intelligence (BI). En plus de Azure HDInsight peut également être déployée sur Windows Server.

OpenStack pour Big Data

Initié par Rackspace et la NASA, OpenStack est en œuvre une plate-forme open cloud visant à soit nuages ​​publics ou privés. Bien que l'organisation est bien gérée par Rackspace, il a déménagé à une fondation OpenStack séparée. Bien que les entreprises peuvent tirer parti de OpenStack pour créer implémentations propriétaires, la désignation OpenStack exige la conformité à une norme mise en œuvre des services.

L'objectif de OpenStack est de fournir, une spécification de cloud multitenant massivement réduite qui peut fonctionner sur n'importe quel matériel. OpenStack est la construction d'un vaste écosystème de partenaires intéressés par l'adoption de sa plate-forme cloud, y compris Dell, HP, Intel, Cisco, Red Hat et IBM, avec au moins 100 autres qui utilisent OpenStack comme le fondement de leurs offres de cloud.

En substance, OpenStack est une source initiative ouverte IaaS construit sur Ubuntu, un système d'exploitation basé sur la distribution Debian Linux. Il peut également fonctionner sur la version de Red Hat de Linux.

OpenStack propose une gamme de services, y compris calcul, de stockage de l'objet, par catalogue et référentiel, tableaux de bord, de l'identité et de réseautage. En termes de grands volumes de données, Rackspace et Hortonworks (un fournisseur d'une plateforme de gestion de données open source basé sur Apache Hadoop) a annoncé que Rackspace va sortir un service de Hadoop OpenStack publique basée sur le cloud, qui sera validé et soutenu par Hortonworks et permettra aux clients pour créer rapidement un grand environnement de données.


» » » » Big fournisseurs de cloud de données