Couche 1 de la grande pile de données: l'infrastructure de sécurité

Sécurité et confidentialité exigences, la couche 1 de la grande pile de données, sont similaires aux exigences pour les environnements de données classiques. Les exigences de sécurité doivent être étroitement aligné sur les besoins spécifiques de chaque entreprise. Certains des défis uniques surviennent lorsque Big Data devient partie intégrante de la stratégie:

  • L'accès aux données: L'accès des utilisateurs aux grandes données brutes ou calculées a environ le même niveau d'exigences techniques que non grandes implémentations de données. Les données devraient être disponibles seulement à ceux qui ont un besoin légitime d'examiner ou d'interagir avec elle. La plupart des plates-formes de stockage de données de base ont des régimes de sécurité rigoureuses et sont complétées par une capacité d'identité fédérée, fournissant un accès approprié à travers les nombreuses couches de l'architecture.

  • Accès application: L'accès aux données de l'application est également relativement simple d'un point de vue technique. La plupart des interfaces de programmation d'application (API) offrent une protection contre l'utilisation ou accès non autorisé. Ce niveau de protection est probablement suffisant pour la plupart des grandes implémentations de données.

  • Le cryptage des données: Le cryptage des données est l'aspect le plus difficile de la sécurité dans un environnement grand de données. Dans les environnements traditionnels, le cryptage et le décryptage des données souligne vraiment les ressources des systèmes. Ce problème est exacerbé avec de grandes données. L'approche la plus simple est de fournir de plus en plus rapide capacité de calcul. Une approche plus tempérée est d'identifier les éléments de données nécessitant ce niveau de sécurité et de crypter uniquement les éléments nécessaires.

  • Détection de menace: L'inclusion des appareils mobiles et les réseaux sociaux augmente de façon exponentielle à la fois la quantité de données et les possibilités de menaces de sécurité. Il est donc important que les organisations adoptent une approche de multiperimeter à la sécurité.




Ainsi, l'infrastructure physique permet tout et infrastructure de sécurité protège tous les éléments de votre environnement Big Data. Le prochain niveau de la pile est les interfaces qui fournissent un accès bidirectionnel à tous les composants de la pile - à partir d'applications d'entreprise pour des flux de données à partir d'Internet.

Une partie importante de la conception de ces interfaces est la création d'une structure cohérente qui est partageable tant à l'intérieur et peut-être en dehors de l'entreprise ainsi qu'avec des partenaires technologiques et partenaires d'affaires.

Pendant des décennies, les programmeurs ont utilisé des API pour fournir un accès vers et à partir des implémentations de logiciels. Fournisseurs d'outils et de la technologie vont de grands efforts pour assurer qu'il est une tâche relativement simple de créer de nouvelles applications en utilisant leurs produits. Bien que très utile, il est parfois nécessaire pour les professionnels de l'informatique pour créer la coutume ou des API propriétaires exclusif à la société.

Vous pourriez avoir besoin de faire cela pour un avantage concurrentiel, un besoin unique à votre organisation, ou d'une autre demande de l'entreprise, et il est pas une tâche simple. API doivent être bien documenté et maintenu pour préserver la valeur pour l'entreprise. Pour cette raison, certaines entreprises choisissent d'utiliser des boîtes à outils de l'API pour obtenir un sursaut sur cette importante activité.

Boîtes à outils de l'API ont un couple d'avantages sur API développées en interne. La première est que les outils de l'API sont des produits qui sont créés, gérés et entretenus par un tiers indépendant. Deuxièmement, ils sont conçus pour résoudre une exigence technique spécifique.

Grands défis de données nécessitent une approche légèrement différente au développement de l'API ou de l'adoption. Parce que la plupart des données est structurée et est généré en dehors du contrôle de votre entreprise, une nouvelle technique, appelée traitement du langage naturel (NLP), est en train de devenir la méthode préférée pour l'interfaçage entre les grandes données et vos programmes d'application.

PNL vous permet de formuler des requêtes avec naturel la syntaxe du langage au lieu d'un langage de requête formelle comme SQL. Pour la plupart des grands utilisateurs de données, il sera beaucoup plus facile de demander “ Liste de tous les consommateurs masculins mariés âgés entre 30 et 40 ans qui résident dans le sud des États-Unis et qui sont fans de NASCAR ” que d'écrire une requête SQL 30 ligne pour la réponse.

Parce que la plupart de collecte de données et de mouvement ont des caractéristiques très similaires, vous pouvez concevoir un ensemble de services de recueillir, nettoyer, transformer, de normaliser et stocker de grands éléments de données dans le système de stockage de votre choix.

Pour créer autant de souplesse que nécessaire, l'usine pourrait être conduit avec descriptions d'interface écrites en langage de balisage extensible (XML). Ce niveau d'abstraction permet interfaces spécifiques à créer facilement et rapidement, sans la nécessité de créer des services spécifiques pour chaque source de données.

Dans la pratique, vous pouvez créer une description de SAP ou Oracle Application interfaces en utilisant quelque chose comme XML. Chaque interface serait utiliser le même logiciel sous-jacent pour migrer des données entre l'environnement de données grand et l'environnement de l'application de la production indépendante des spécificités de SAP ou Oracle. Si vous avez besoin de recueillir des données provenant de sites sociaux sur Internet, la pratique serait identique.

Décrire les interfaces pour les sites en XML, puis retenir les services pour déplacer les données d'avant en arrière. Typiquement, ces interfaces sont documentées pour une utilisation par des technologues internes et externes.


» » » » Couche 1 de la grande pile de données: l'infrastructure de sécurité