Einträge von Carsten Frisch

Data Lake, Datenschutz und die Cloud

  Data Lake in der Cloud Ein wichtiges Thema, dass fast jedes Unternehmen „umtreibt“ ist die Frage, ob man mit seinen IT-Systemen wie etwa einem Data Lake in die Cloud gehen soll. Der Betrieb von Anwendungen in der Cloud bietet nämlich zahlreiche Vorteile, die in vielen Fällen das Entwickeln und auch die Betriebsführung derselben einfacher […]

Data Lake und Datenschutz: Alles schwimmt in eigenen Bahnen

Sandboxing und logische Trennung von Bereichen Ein Begriff, der in Diskussionen zur Architektur von Hadoop-basierten Data Lakes immer wieder fällt, ist „Sandboxing“. Damit ist gemeint, dass es für bestimmte Zwecke nützlich, für manche sogar notwendig ist, vom „eigentlichen“ Data Lake getrennte Bereiche zu haben. Diese können auch außerhalb der Data Lake Infrastruktur liegen. Ein Beispiel […]

Data Lake und Datenschutz: Anonymisierung und Pseudonymisierung

Datenschutz im Data Lake wird zu „Muss“… Wie geht man vor? Mit der Einführung der europäischen Datenschutz-Grundverordnung (EU-DSGVO) hat sich auch das Vorgehen beim Aufbau von Data Lakes gewandelt. Datenschutzaspekte spielen eine sehr viel größere Rolle als vorher. Themen wie Anonymisierung und Pseudonymisierung von Daten und ganzen Datenbereichen sind zu einem Muss geworden und erzwingen […]

Data Lake und Datenschutz: Eine schwierige Beziehung

Focus von Hadoop-basierten Systemen Nachdem der Focus von Hadoop-basierten Big Data Systemen in der Vergangenheit im Wesentlichen auf dem Managen und Bereitstellen von Daten für Analysen und operative Zwecke gelegen hat, ohne große Anforderungen in Sachen Datensicherheit und Governance realisieren zu müssen, ändert sich dieses Bild stark in letzter Zeit. Mit dem Bekanntwerden der europäischen Datenschutz Grundverordnung […]

Viele, schnelle Daten: Data Lakes und Lambda-Architektur

In Zeiten allgemeiner Vernetzung und dem Wunsch, die anfallenden Daten in vielfältiger Art und Weise nutzen zu können, besteht die Herausforderung, die Daten in einer modernen Umgebung zu sammeln und wieder bereitzustellen. Wie? Möglichst in einer flexiblen und skalierbaren Umgebung, denn die Anforderungen steigen in der Regel mit der Datenmenge. Und hier gilt: Sie kann sehr […]