Was ist ein Problem? Apache Ranger Solving und wie profitieren Sie davon?
Zentralisierte Richtlinienverwaltung für ein produktives Hadoop-Ökosystem
Ranger bietet dynamische Datenmaskierung (in Bewegung) für mehrere Frameworks des Hadoop-Stacks (z.B. HBase, Storm, Knox, Solr, Kafka und YARN). Unser kürzlich veröffentlichter Artikel im FGCS (Q1-Journal) https://www.sciencedirect.com/science/article/pii/S0167739X19315948 nutzte die Ranger-Admin-Konsole, um Richtlinien festzulegen/zu ändern (Richtliniendurchsetzung). In dieser Forschung definierten wir eine Referenzarchitektur für Big-Data-Systeme, die Apache Ranger und die ACL verwenden, um Repository-Richtlinien zu verwalten. Ranger wird die feinkörnige Client-Zugriffskontrolle überprüfen, d.h. auf welche HBase/Hive-Datenbanken und Tabellenspalten sie Zugriff haben, Kafka-Warteschlangen und HDFS-Zugriffsebene. In der Zwischenzeit wird die ACL die Zugriffskontrolle der verbleibenden Entitäten überprüfen. Allerdings haben Ranger-Richtlinien Vorrang vor denen der ACL. Wenn keine Ranger-Richtlinie existiert, tritt die lokale ACL in Kraft. Hadoop-Daemon-Authentifizierungen und interne Kommunikation (wie der Aufgabenstatus) werden hauptsächlich auf die Verwendung des Kerberos-Principals und der Keytab-Dateispeicherorte angewiesen sein und werden unter Verwendung der Hadoop-Kernzugriffskontrolle, d.h. ACL, durchgesetzt.
Ein weiterer Fall war der Einsatz des Ranger Audit Servers in der Hadoop-Föderationskonfiguration. Unser vorgeschlagener Big-Data-Föderationszugriffsbroker wird alle Zugriffsprotokolle in einem zentralisierten Repository (RDBMS, HDFS oder Log4j) aggregieren. Wir demonstrieren, wie man Ranger und andere Frameworks für Audit-Management und -Analyse verwendet. Zusammenfassend bietet Apache Ranger eine zentralisierte Sicherheitsverwaltung und -administration für Hadoop, während Knox die Sicherheit für Dienste und externe Benutzer, die auf die Daten des Clusters zugreifen und Jobs ausführen, vereinfacht. Bewertung gesammelt von und auf G2.com gehostet.