Ecureuil client comme ruche avec le pilote JDBC
SQuirreL SQL est un outil open source qui agit comme un client Hive. Vous pouvez télécharger ce client SQL universelle à partir du site SourceForge. Il fournit une interface utilisateur de ruche et simplifie les tâches de l'interrogation de grandes tables et analyser les données avec Apache Hive.
La figure montre comment l'architecture Hive travaillerait en utilisant des outils tels que écureuil.
Vous pouvez voir que le client d'écureuil utilise les API JDBC pour passer des commandes au pilote Hive par l'intermédiaire du serveur.
Suivez ces étapes pour obtenir SQuirreL fonctionnement:
Démarrez le Hive Thrift Server à l'aide de la commande lsiting:
$ $ HIVE_HOME / bin / ruche --service hiveserver -p 10000 -vStarting Hive Thrift ServerStarting Hive Thrift Server sur le port 10000 avec 100 threads min des travailleurs et 2147483647 max worker threads
Télécharger le dernière distribution d'écureuil sur le site SourceForge dans un répertoire de votre choix.
Décompressez le package d'écureuil en utilisant la commande gunzip et décompresser l'archive en utilisant la commande tar.
gunzip écureuil-sql-3.5.0-standard.tar.gz- tar xvf écureuil-sql-3.5.0-standard.tar.gz
Changer pour le nouveau répertoire écureuil déverrouillage et le démarrage de l'outil utilisant la commande suivante.
$ Cd standard écureuil-sql-3.5.0 -. / Squirrel-sql.sh
Notez que les instructions pour y compris le noyau Hadoop .bocal fichier peut varier en fonction de la libération Hadoop. Dans ce cas, l'Hadoop .bocal fichier a été nommé Hadoop-core-1.2.1.jar, donc y compris $ HADOOP_HOME / Hadoop - * - core.jar par les instructions en ligne est incorrecte.
Ceci est tout ce qu'il faut pour commencer à utiliser l'interface utilisateur graphique écureuil. La figure suivante montre une certaine HiveQL commandes en cours d'exécution contre le conducteur Hive - similaires aux commandes vous avez exécuté plus tôt, avec le CLI.
L'Apache Hive 0,11 version inclut également un nouveau serveur Hive Thrift appelé HiveServer2. Lorsqu'il est configuré correctement, HiveServer2 peut supporter plusieurs clients (un client CLI et un client d'écureuil dans le même temps, par exemple) et il fournit une meilleure sécurité.
A propos Auteur
Comment obtenir oozie apache mis en place en hadoop Apache oozie est inclus dans toutes les distributions Hadoop majeur, y compris Apache Bigtop. Dans votre cluster Hadoop, installer le serveur de oozie sur un noeud de bord, où vous auriez également exécuter d'autres applications clientes contre…
Comment démarrer avec ruche apache Il n'y a pas de meilleure façon de voir ce qui est ce que l'installation du logiciel ruche et lui donner un essai. Comme avec d'autres technologies dans l'écosystème Hadoop, il ne faut pas longtemps pour commencer.Si vous avez le temps et la…
Importation de données dans la ruche avec Sqoop Ici, vous importez la totalité de la base de données directement à partir de l'ordre de service MySQL dans la ruche et exécutez une requête HiveQL contre la base de données nouvellement importée sur Hadoop. La liste suivante vous montre…
Rejoindre des tables avec ruche Vous savez probablement déjà que les experts en modélisation de base de données relationnelle et la conception passent généralement beaucoup de leur temps à la conception des bases de données normalisées, ou schémas. Base de données…
Caractéristiques de hiveql clés La communauté Apache Hive vivante et active en permanence ajouters déjà à un vaste ensemble de fonctionnalités, ce qui rend la couverture exhaustive encore plus difficile. La liste qui suit résume quelques caractéristiques principales HiveQL…
Bases de données de traitement massivement parallèle Pour permettre une meilleure compréhension des alternatives SQL-sur-Hadoop Hive, il pourrait être utile d'examiner une amorce sur le traitement massivement parallèle (MPP) des bases de données en premier.Apache Hive est posée sur le dessus du…
Hawq Pivotal et Hadoop En 2010, EMC et VMware, les leaders du marché dans la prestation de l'informatique comme un service via le cloud computing, acquis Greenplum Corporation, les gens qui avaient obtenu gain de cause le produit MPP Greenplum Data Warehouse (DW) sur le…
Access SQL et ruche apache Apache Hive est incontestablement interface d'interrogation de données la plus répandue dans la communauté Hadoop. À l'origine, les objectifs de conception pour la ruche étaient pas pour assurer la compatibilité de SQL complète et de haute…
Stockage de données structurées et de traitement dans Hadoop Lorsque l'on considère les capacités de Hadoop pour travailler avec des données structurées (ou de travailler avec des données de tout type, d'ailleurs), rappelez-vous les caractéristiques de base de Hadoop: Hadoop est, d'abord et avant tout,…
L'écosystème Hadoop Apache Hadoop est plus que MapReduce et HDFS (Distributed File System Hadoop): Il est également une famille de projets connexes (un écosystème, vraiment) pour le calcul distribué et le traitement de données à grande échelle. La plupart (mais pas…
L'architecture de la ruche apache Comme vous examinez les éléments de Apache Hive montrées, vous pouvez voir au bas cette ruche se trouve au sommet du système Hadoop Distributed File (HDFS) et les systèmes de MapReduce.Dans le cas de MapReduce, les figureshows deux composants…
L'écosystème du client HBase HBase est écrit en Java, un langage élégant pour la construction de technologies distribuées comme HBase, mais le visage il - pas tout le monde qui veut prendre avantage des innovations Hbase est un développeur Java. Voilà pourquoi il ya un…
Les données de grandes mines avec ruche Hive est, une couche d'entreposage des données orientée lots construit sur les éléments de base de Hadoop (HDFS et MapReduce) et est très utile dans les grandes données. Il fournit aux utilisateurs qui connaissent SQL avec une mise en œuvre…
Bee gabarits de cadre ruche: comment faire votre propre Pour construire un gabarit de trame pour les ruches, d'abord de le décomposer en ses composants individuels et suivez ces instructions sur la façon de réduire ces composants frame-jig.Lumber dans un magasin est identifié par son nominal taille,…