Caractéristiques de la grande analyse de données

Big analyse des données a eu beaucoup de battage récemment, et pour une bonne raison. Vous aurez besoin de connaître les caractéristiques de la grande analyse de données si vous voulez faire partie de ce mouvement. Les entreprises savent que quelque chose est là, mais jusqu'à récemment, n'a pas été en mesure de le miner. Cette pousser l'enveloppe sur l'analyse est un aspect passionnant de la grande circulation d'analyse de données.

Les entreprises sont ravis d'être en mesure d'accéder et analyser les données qu'ils ont été la collecte ou si vous voulez avoir un aperçu de, mais n'a pas été en mesure de gérer ou analyser efficacement. Il pourrait impliquer visualiser d'énormes quantités de données disparates, ou il pourrait impliquer avancé analysés en continu à vous en temps réel. Il est évolutif, à certains égards et révolutionnaire dans d'autres.

Donc, ce qui est différent lorsque votre entreprise pousse l'enveloppe avec une grande analyse des données? La grande analyse des données de l'infrastructure de soutien est différent et les algorithmes ont été modifiés pour être au courant des infrastructures.

Big analyse des données doit être considérée sous deux angles:

  • Décision orienté




  • Orienté vers l'action

L'analyse de la décision orientée est plus proche de l'intelligence d'affaires traditionnels. Regardez sous-ensembles sélectifs et les représentations des sources de données plus importantes et essayer d'appliquer les résultats dans le processus de prise de décisions commerciales. Certes, ces décisions pourrait aboutir à une sorte d'action ou de changement de processus, mais le but de l'analyse est d'augmenter la prise de décision.

Analyse orientée vers l'action est utilisée pour une réponse rapide, quand un modèle émerge ou types de données spécifiques sont détectés et l'action est nécessaire. Profitant de grands volumes de données à travers l'analyse et de provoquer des changements proactifs ou réactifs comportement offrent un grand potentiel pour les adopteurs précoces.

Trouver et utiliser les grandes données en créant des applications d'analyse peuvent détenir la clé de l'extraction de la valeur plutôt tôt que tard. Pour accomplir cette tâche, il est plus efficace pour construire ces applications personnalisées à partir de zéro ou de plates-formes et / ou des composants de levier.

D'abord, regardez certaines des caractéristiques supplémentaires de grande analyse des données qui le rendent différent des types traditionnels d'analyse mis à part les trois Vs du volume, de la vitesse, et la variété:

  • Ça peut être programmatique. Un des plus grands changements dans l'analyse est que, dans le passé, vous aviez affaire à des ensembles de données que vous pouvez charger manuellement dans une application et à explorer. Avec grande analyse de données, vous pouvez être confronté à une situation où vous pourriez commencer avec des données brutes qui doit souvent être manipulé programmation de faire toute sorte d'exploration en raison de l'échelle des données.

  • Ça peut être guidée par les données. Alors que les scientifiques de nombreuses données utilisent une approche fondée sur une hypothèse à l'analyse des données (développer une prémisse et recueillir des données pour voir si cette hypothèse est correcte), vous pouvez également utiliser les données pour conduire l'analyse - surtout si vous avez recueilli des quantités énormes de ce . Par exemple, vous pouvez utiliser un algorithme d'apprentissage automatique pour faire ce genre d'analyse gratuite hypothèse.

  • Il peut utiliser beaucoup de attributs. Dans le passé, vous auriez pu traiter avec des centaines d'attributs ou les caractéristiques de cette source de données. Maintenant, vous pourriez avoir affaire à des centaines de gigaoctets de données qui comprennent des milliers d'attributs et des millions d'observations. Tout se passe actuellement sur une plus grande échelle.

  • Ça peut être itératif. Plus de puissance de calcul signifie que vous pouvez itérer sur vos modèles jusqu'à ce que vous obtenez-leur comment vous les voulez. Voici un exemple. Supposons que vous êtes la construction d'un modèle qui essaie de trouver les facteurs prédictifs de certains comportements des clients associés. Vous pourriez commencer à extraire un échantillon raisonnable de données ou la connexion à l'emplacement des données. Vous pourriez construire un modèle pour tester une hypothèse.

    Alors que dans le passé, vous pourriez ne pas avoir eu beaucoup de mémoire pour faire fonctionner votre modèle efficace, vous aurez besoin d'une énorme quantité de mémoire physique pour aller à travers les itérations nécessaires pour former l'algorithme. Il peut également être nécessaire d'utiliser des techniques informatiques de pointe comme le traitement du langage naturel ou les réseaux de neurones qui évoluent automatiquement le modèle basé sur l'apprentissage comme plus de données est ajouté.

  • Ça peut être rapide pour obtenir les cycles de calcul dont vous avez besoin en misant sur une infrastructure en nuage comme un service. Avec Infrastructure as a Service (IaaS) des plates-formes comme Amazon Cloud Services (ACS), vous pouvez provisionner rapidement un cluster de machines à ingérer de grandes séries de données et les analyser rapidement.


» » » » Caractéristiques de la grande analyse de données