Quels sont les problèmes que Apache Ranger résout, et en quoi cela vous est-il bénéfique?
gestion centralisée des politiques pour l'écosystème Hadoop en production
Ranger fournit un masquage dynamique des données (en mouvement) pour plusieurs cadres de la pile Hadoop (par exemple, HBase, Storm, Knox, Solr, Kafka et YARN). Notre article récemment publié dans le FGCS (journal Q1) a utilisé la console d'administration Ranger pour définir/modifier des politiques (application des politiques). Dans cette recherche, nous avons défini une architecture de référence pour les systèmes de big data qui utilisent Apache Ranger et l'ACL pour gérer les politiques de dépôt. Ranger vérifiera le contrôle d'accès client à grain fin, c'est-à-dire à quelles colonnes de tables et bases de données HBase/Hive ils ont accès, aux files d'attente Kafka et au niveau d'accès HDFS. Pendant ce temps, l'ACL vérifiera le contrôle d'accès des autres entités. Cependant, les politiques de Ranger auront la priorité sur celles de l'ACL. Si une politique Ranger n'existe pas, alors l'ACL locale prendra effet. Les authentifications des démons Hadoop et la communication interne (telle que le statut des tâches) s'appuieront principalement sur l'utilisation du principal Kerberos et des emplacements de fichiers keytab et seront appliquées en utilisant le contrôle d'accès de base Hadoop, c'est-à-dire l'ACL.
Un autre cas était l'utilisation du serveur d'audit Ranger dans la configuration de la fédération Hadoop. Notre courtier d'accès à la fédération de big data proposé agrégera tous les journaux d'accès dans un dépôt centralisé (RDBMS, HDFS ou Log4j). Nous démontrons comment utiliser Ranger et d'autres cadres pour la gestion et l'analyse des audits. En résumé, Apache Ranger fournit une administration et une gestion centralisées de la sécurité Hadoop, tandis que Knox simplifie la sécurité pour les services et les utilisateurs externes qui accèdent aux données du cluster et exécutent des tâches. Avis collecté par et hébergé sur G2.com.