Bildnachweis: Standortagentur Tirol

Glossar

Glossar

a b c d e f g h i j k l m n o p q r s t u v w x y z alle

AES-256
AES-256 ist ein weit verbreitetes symmetrisches Verschlüsselungsverfahren mit einer Schlüssellänge von 256 Bit. Es wird häufig zur sicheren Speicherung sensibler Daten verwendet.
Agiles Arbeiten
Agiles Arbeiten beschreibt eine flexible, inkrementelle Arbeitsweise mit kurzen Entwicklungszyklen, enger Abstimmung und kontinuierlichem Feedback - häufig angewendet in datengetriebenen Projekten.
AI Act
Der AI Act ist eine Verordnung der Europäischen Union zur Regulierung von Künstlicher Intelligenz. Er verfolgt einen risikobasierten Ansatz und legt Anforderungen an Transparenz, Sicherheit, Governance und menschenzentrierte Nutzung von KI fest - abhängig vom jeweiligen Einsatzkontext.
Algorithm Watch
Algorithm Watch ist eine zivilgesellschaftliche Organisation, die algorithmische Entscheidungsprozesse überwacht, analysiert und öffentlich einordnet - mit Fokus auf Transparenz und Verantwortung.
Ampel-Dashboards
Ampel-Dashboards visualisieren Kennzahlen oder Statusinformationen mithilfe von Farbkennungen (z. B. grün/gelb/rot), um den Handlungsbedarf schnell erkennbar zu machen - etwa im Monitoring oder Risikomanagement.
Analysebausteine
Analysebausteine sind modular wiederverwendbare Elemente für Datenanalysen - z. B. definierte Kennzahlen, Abfragen oder Visualisierungen, die effizient in verschiedenen Kontexten eingesetzt werden können.
Analysis Playbooks
Analysis Playbooks sind standardisierte, dokumentierte Vorgehensweisen zur Durchführung bestimmter Datenanalysen. Sie fördern Qualität, Wiederverwendbarkeit und Kompetenzaufbau im Analyseprozess.
Anomalieerkennung
Anomalieerkennung bezeichnet die Identifikation ungewöhnlicher oder abweichender Muster in Daten, die auf Fehler, Risiken oder sicherheitsrelevante Vorfälle hinweisen können. Sie wird häufig automatisiert mittels statistischer Verfahren oder Machine-Learning-Algorithmen umgesetzt.
Apache Kafka
Apache Kafka ist eine verteilte Plattform zur Verarbeitung von Echtzeitdatenströmen. Sie ermöglicht die zuverlässige Übertragung, Speicherung und Analyse großer Mengen an Streaming-Daten.
Apache Nifi
Apache NiFi ist ein Open-Source-Tool zur automatisierten Verarbeitung, Verteilung und Transformation von Datenflüssen - mit grafischer Benutzeroberfläche und Fokus auf Datenintegration.
API (Application Programming Interface)
APIs sind standardisierte Schnittstellen, die den Zugriff auf Funktionen oder Daten von Softwareanwendungen ermöglichen. Sie fördern die Integration, Wiederverwendbarkeit und Automatisierung im Daten- und Systemverbund.
API-Gateways
API-Gateways sind zentrale Schnittstellen, über die externe und interne Systeme sicher und kontrolliert auf APIs zugreifen. Sie regeln Zugriff, Monitoring und Sicherheit beim Daten- und Funktionsaustausch.
At Rest
"At Rest" bezeichnet den Zustand gespeicherter Daten - etwa in Datenbanken oder auf Servern. Hier gelten spezifische Sicherheitsmaßnahmen, z. B. Verschlüsselung oder Zugriffsschutz.
Audits
Audits sind systematische Prüfungen zur Bewertung von Prozessen, Strukturen oder Regelungen - im Datenkontext insbesondere zur Überprüfung von Datenqualität, Datenmanagement, Compliance und Governance. Sie dienen der Identifikation von Risiken, Schwachstellen und Verbesserungspotenzialen.
Automatisierungsscan
Ein Automatisierungsscan analysiert Prozesse hinsichtlich ihres Potenzials zur Automatisierung - z. B. durch digitale Tools, RPA oder Low-Code-Plattformen.
Awareness-Kampagnen
Awareness-Kampagnen sind gezielte Kommunikations- und Sensibilisierungsmaßnahmen, die das Bewusstsein für den verantwortungsvollen Umgang mit Daten stärken sollen. Sie fördern Verständnis für Datenschutz, Datenqualität, Datenethik und Governance-Richtlinien - insbesondere bei nicht-technischen Mitarbeitenden.
AWS (Amazon Web Services)
AWS ist eine umfangreiche Cloud-Computing-Plattform von Amazon, die skalierbare Speicher-, Analyse- und Rechenkapazitäten für datenbasierte Anwendungen bereitstellt.
Azure Stream Analytics
Azure Stream Analytics ist ein cloudbasierter Dienst von Microsoft zur Echtzeitanalyse von Datenströmen - z. B. aus IoT-Geräten, Anwendungen oder Logs - mithilfe von Abfragen in SQL-ähnlicher Sprache.
Backup
Ein Backup ist eine Sicherheitskopie von Daten oder Systemzuständen, die regelmäßig erstellt wird, um bei Datenverlust oder Systemausfall eine Wiederherstellung zu ermöglichen. Backups sind ein zentraler Bestandteil der Datensicherungsstrategie.
Bedarfsanalyse
Die Bedarfsanalyse ist ein strukturierter Prozess zur Ermittlung fachlicher, technischer oder organisatorischer Anforderungen an datenbezogene Maßnahmen. Sie bildet die Grundlage für die Priorisierung von Zielen, die Auswahl geeigneter Tools und die passgenaue Entwicklung von Datenlösungen.
Best Practices
Best Practices sind bewährte Methoden, Vorgehensweisen oder Standards, die sich in der Praxis als besonders wirksam erwiesen haben. Im Datenkontext dienen sie als Orientierung für effiziente, qualitätsgesicherte und nachhaltige Umsetzung datengetriebener Lösungen.
Best-Practice-Scouting
Best-Practice-Scouting bezeichnet die gezielte Suche nach bewährten Ansätzen, Methoden oder Lösungen aus vergleichbaren Organisationen oder internen Erfolgsfällen - zur Übertragbarkeit auf eigene Dateninitiativen.
BI-Software (Business Intelligence)
BI-Software umfasst digitale Werkzeuge zur Sammlung, Aufbereitung, Analyse und Visualisierung von Unternehmensdaten. Sie unterstützt datenbasierte Entscheidungen, indem sie Kennzahlen, Trends und Zusammenhänge übersichtlich darstellt - häufig in Form von Dashboards oder interaktiven Berichten.
Bias
Bias bezeichnet systematische Verzerrungen in Daten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen können - z. B. durch unausgewogene Trainingsdaten oder fehlerhafte Modellannahmen.
Brown-Bag-Sessions
Brown-Bag-Sessions sind informelle Kurzformate (z. B. zur Mittagspause), in denen Wissen zu Daten, Tools oder Methoden niederschwellig und praxisnah vermittelt wird.
Business Intelligence (BI)
Business Intelligence umfasst alle Technologien, Prozesse und Werkzeuge zur Sammlung, Analyse und Visualisierung von Unternehmensdaten, um fundierte Entscheidungen zu ermöglichen.
Cloud-Lösungen
Cloud-Lösungen bezeichnen IT-Dienste, die über das Internet bereitgestellt und flexibel skalierbar genutzt werden können - etwa zur Speicherung, Verarbeitung oder Analyse von Daten. Im Datenkontext ermöglichen sie ortsunabhängigen Zugriff, hohe Verfügbarkeit und effiziente Bereitstellung von Datenplattformen und Analysefunktionen.
Cloud-Skalierung
Cloud-Skalierung bezeichnet die dynamische Anpassung von IT-Ressourcen in der Cloud - je nach Last oder Bedarf. Sie ermöglicht flexible Datenverarbeitung und kosteneffiziente Nutzung von Speicher und Rechenleistung.
Clustern
Clustern bezeichnet die datenbasierte Gruppierung von Objekten mit ähnlichen Eigenschaften - oft als Methode der explorativen Datenanalyse zur Mustererkennung.
Co-Creation
Co-Creation beschreibt die gemeinsame Entwicklung von Lösungen durch verschiedene Stakeholder - z. B. IT, Fachbereiche und Datenverantwortliche - zur Förderung von Akzeptanz, Praxistauglichkeit und Innovation.
Community of Practice
Eine Community of Practice ist eine freiwillige Gruppe von Mitarbeitenden mit gemeinsamen Interessen (z. B. Datenkompetenz), die sich regelmäßig zum Erfahrungsaustausch und zur gemeinsamen Weiterentwicklung trifft.
Compliance
Compliance bezeichnet die Einhaltung gesetzlicher, regulatorischer und interner Vorgaben im Umgang mit Daten. Dazu gehören unter anderem Datenschutzgesetze (z. B. DSGVO), Branchenstandards sowie unternehmensinterne Richtlinien zur Datennutzung, Sicherheit und Governance.
Compliance-Status
Der Compliance-Status gibt Auskunft über den Erfüllungsgrad regulatorischer, gesetzlicher oder interner Vorgaben - etwa im Datenschutz, bei Sicherheitsstandards oder Governance-Regeln.
Confluence
Confluence ist eine webbasierte Kollaborations- und Wissensmanagement-Plattform von Atlassian. Sie wird häufig genutzt, um Inhalte wie Dokumentationen, Leitfäden oder Projektseiten teamübergreifend zu erstellen, zu teilen und zu pflegen - auch im Daten- und Governance-Kontext.
Crossfunktionale Teams
Crossfunktionale Teams bestehen aus Mitgliedern mit unterschiedlichen fachlichen und technischen Kompetenzen, die gemeinsam an einem Ziel arbeiten. Im Datenumfeld fördern sie die enge Zusammenarbeit zwischen Fachbereich, IT, Analyse und Governance.
Customer Relationship Management (CRM)
CRM-Systeme verwalten Kundenbeziehungen und -interaktionen. Sie liefern wichtige Daten für Analysen in Vertrieb, Marketing und Kundenservice.
Dashboards
Dashboards sind visuelle Benutzeroberflächen zur kompakten Darstellung und Überwachung relevanter Kennzahlen, Daten und Entwicklungen. Sie ermöglichen eine schnelle, rollenbezogene Übersicht über Datenlagen und unterstützen datenbasierte Entscheidungen - häufig in Echtzeit und interaktiv aufbereitet.
Data & Digital Strategy Boards
Data & Digital Strategy Boards sind interdisziplinäre Steuerungsgremien, die daten- und digitalstrategische Entscheidungen begleiten, priorisieren und überwachen.
Data Academy
Eine Data Academy ist ein organisationsinternes Weiterbildungsprogramm zur systematischen Entwicklung datenbezogener Kompetenzen - u. a. durch Trainings, E-Learnings, Zertifizierungen oder Lernpfade.
Data Act
Legt harmonisierte Regeln fest, wer Zugang zu Daten (insbesondere von IoT‑Geräten) erhält und wie sie genutzt werden dürfen, um Fairness, Innovation und Interoperabilität im europäischen Datenmarkt zu fördern.
Data Ambassadors
Data Ambassadors sind engagierte Mitarbeitende, die als Vermittler:innen zwischen zentralen Dateninitiativen und den Fachbereichen agieren. Sie fördern das Verständnis für Daten, unterstützen bei der Umsetzung datenbasierter Arbeitsweisen und tragen aktiv zur Verankerung der Datenkultur in der Organisation bei.
Data Analysts
Data Analysts sind Fachkräfte, die strukturierte Daten analysieren, interpretieren und in aussagekräftige Erkenntnisse überführen - zur Entscheidungsunterstützung und Optimierung von Geschäftsprozessen.
Data At Disposal
"""Data At Disposal"" bezeichnet Daten, die zum Löschen, Vernichten oder sicheren Entsorgen vorgesehen sind und sich in diesem Übergangszustand befinden."
Data At Rest
"At Rest" bezeichnet den Zustand gespeicherter Daten - etwa in Datenbanken oder auf Servern. Hier gelten spezifische Sicherheitsmaßnahmen, z. B. Verschlüsselung oder Zugriffsschutz.
Data Champion
Ein Data Champion ist eine fachlich versierte Person innerhalb einer Abteilung, die den bewussten und wertschöpfenden Umgang mit Daten aktiv vorantreibt. Sie fungiert als Multiplikator, Ansprechpartner und Bindeglied zwischen zentralen Datenrollen (z. B. Data Governance) und dem Fachbereich - mit dem Ziel, Datenkompetenz, -qualität und -verantwortung dezentral zu stärken.
Data Correction Log
Ein Data Correction Log dokumentiert Änderungen oder Korrekturen an Datensätzen - inklusive Zeit, Grund, betroffener Felder und verantwortlicher Personen. Er erhöht Nachvollziehbarkeit und Qualitätssicherung.
Data Ethics
Richtlinien und Prinzipien für den verantwortungsvollen und ethischen Umgang mit Daten.
Data Ethics Commission
Die Data Ethics Commission war ein beratendes Gremium der Bundesregierung, das 2018 Empfehlungen zum ethischen Umgang mit Daten und Künstlicher Intelligenz formulierte.
Data Ethics Scout
Data Ethics Scouts sind speziell geschulte Mitarbeitende, die ethische Fragestellungen in datenbasierten Projekten frühzeitig identifizieren, ansprechbar sind und die Umsetzung ethischer Prinzipien unterstützen.
Data Governance
Rahmenwerk für den strukturierten Umgang mit Daten - inkl. Richtlinien, Rollen und Verantwortlichkeiten.
Data Governance Act (DGA)
Schafft Rahmenbedingungen für den sicheren Datenaustausch zwischen öffentlichen Stellen, Unternehmen und Bürger:innen und regelt insbesondere Datenvermittlung über vertrauenswürdige Intermediäre.
Data Hub
Ein Data Hub ist eine zentrale Dateninfrastruktur zur Verteilung und Integration von Daten aus verschiedenen Quellen. Er ermöglicht kontrollierten Zugriff, Vereinheitlichung und Wiederverwendung.
Data In Process
"""Data In Process"" bezeichnet Daten, die sich gerade in aktiver Verarbeitung befinden, z. B. beim Berechnen, Analysieren oder Umwandeln in einem System."
Data In Transit
"""In Transit"" bezeichnet Daten, die gerade aktiv über ein Netzwerk oder zwischen Systemen übertragen werden"
Data Lakes
Data Lakes sind zentrale Speicherlösungen für große Mengen strukturierter und unstrukturierter Rohdaten. Sie ermöglichen flexible, skalierbare Datenspeicherung ohne vorherige Modellierung und dienen häufig als Basis für fortgeschrittene Analysen und Machine Learning.
Data Learning Circle
Ein Data Learning Circle ist ein formatives Lernformat, bei dem Mitarbeitende regelmäßig im kleinen Kreis Erfahrungen austauschen, Fragen diskutieren und sich gemeinsam im Umgang mit Daten weiterentwickeln.
Data Literacy
Die Fähigkeit, Daten zu verstehen, kritisch zu hinterfragen und effektiv zur Entscheidungsfindung zu nutzen
Data Lunch
Ein Data Lunch ist ein freiwilliges Lern- und Austauschformat zur Mittagspause, bei dem datenbezogene Themen niedrigschwellig besprochen und Wissen geteilt wird - ähnlich wie Brown-Bag-Sessions.
Data Mesh
Ein dezentraler Ansatz für Datenarchitekturen, bei dem Domänen eigenverantwortlich Daten als Produkte bereitstellen.
Data Mining
Unter Data-Mining ist die systematische Anwendung statistischer Methoden auf große Datenbestände mit dem Ziel, neue Querverbindungen und Trends zu erkenne
Data Owner
Fachlich verantwortliche Person für bestimmte Daten - zuständig für Nutzung, Freigaben und strategische Ausrichtung im jeweiligen Kontext.
Data Steward
Rolle mit operativer Verantwortung für Pflege, Qualität und Dokumentation spezifischer Datenbereiche - oft an der Schnittstelle zwischen Fachbereich und IT.
Data Stewardship
Die operative Verantwortung für die Verwaltung, Pflege und Qualitätssicherung von Daten in einer Organisation.
Data Storytelling
Data Storytelling ist die gezielte Kombination aus Datenanalyse, Visualisierung und narrativer Vermittlung, um komplexe Daten verständlich, einprägsam und wirkungsvoll zu kommunizieren. Ziel ist es, datenbasierte Erkenntnisse adressatengerecht aufzubereiten und Entscheidungsprozesse zu unterstützen.
Data Warehouse
Ein Data Warehouse ist eine zentrale Datenbank, in der strukturierte Daten aus verschiedenen Quellsystemen integriert, historisiert und für Analysezwecke aufbereitet werden.
Databricks
Databricks ist eine cloudbasierte Datenanalyseplattform für Big Data, Machine Learning und kollaboratives Arbeiten mit Apache Spark. Sie wird häufig für skalierbare Analyseprojekte eingesetzt.
Datacoach
Ein Datacoach ist eine qualifizierte Person innerhalb der Organisation, die Mitarbeitende im alltäglichen, praxisnahen Umgang mit Daten unterstützt. Er oder sie vermittelt grundlegende Datenkompetenzen, begleitet Analysevorhaben und trägt zur Förderung einer datenorientierten Arbeitsweise bei - mit Fokus auf Beratung, Schulung und Empowerment in den Fachbereichen.
Daten-Ökosphäre
Daten-Ökosphäre beschreibt das Gesamtsystem aus Akteuren, Technologien, Prozessen und Regeln, die miteinander Daten erzeugen, austauschen, nutzen und weiterentwickeln.
Daten-Ökosysteme
Ein Daten-Ökosystem ist ein vernetztes System aus Organisationen, Personen, Technologien und Prozessen, das den Austausch, die gemeinsame Nutzung und Weiterentwicklung von Daten ermöglicht, um Mehrwert für alle Beteiligten zu schaffen.
Daten-Wiki
Ein Daten-Wiki ist eine kollaborative Plattform zur Dokumentation und Pflege von Datenwissen - z. B. Definitionen, Quellen, Prozesse oder Governance-Richtlinien.
Datenabfragen
Datenabfragen sind gezielte Abrufe von Informationen aus Datenbanken oder Datenquellen mithilfe von Abfragesprachen wie SQL. Sie ermöglichen das Filtern, Verknüpfen und Auswerten von Daten für Analyse, Reporting oder operative Zwecke.
Datenbereinigung
Datenbereinigung umfasst alle Maßnahmen zur Korrektur, Entfernung oder Ergänzung fehlerhafter, unvollständiger oder redundanter Daten. Sie ist zentral für Datenqualität und Analysevalidität.
Datenethik
Datenethik befasst sich mit den moralischen, gesellschaftlichen und rechtlichen Fragestellungen rund um die Erhebung, Nutzung und Wirkung von Daten - z. B. Transparenz, Fairness oder Diskriminierung.
Datengovernance
Datengovernance umfasst die strategische, organisatorische und prozessuale Steuerung des unternehmensweiten Umgangs mit Daten. Sie definiert Rollen, Verantwortlichkeiten, Richtlinien und Standards zur Sicherstellung von Datenqualität, Sicherheit, Transparenz und Compliance über den gesamten Datenlebenszyklus hinweg.
Datenintermediär
Eine neutrale Stelle, die den sicheren und vertrauenswürdigen Austausch von Daten zwischen Parteien vermittelt
Datenkooperationen
Datenkooperationen sind organisierte Partnerschaften zwischen Unternehmen, Behörden oder Institutionen zum gemeinsamen Nutzen von Daten. Sie basieren auf abgestimmten Regeln zu Datenschutz, Sicherheit, Haftung und Mehrwertverteilung.
Datenkoordinator:in
Datenkoordinator*innen übernehmen eine vermittelnde Rolle zwischen Fachbereichen, IT und zentralen Datenverantwortlichen. Sie koordinieren Datenanforderungen, fördern die Datenqualität in ihrem Bereich und unterstützen bei der Umsetzung von Datenprozessen, Governance-Vorgaben und Standards.
Datenkultur
Beschreibt die gelebte Haltung zum Umgang mit Daten - etwa Offenheit für datenbasierte Entscheidungen, Transparenz und Verantwortungsbewusstsein.
Datenlizensierung
Datenlizenzierung bezeichnet die vertragliche oder rechtliche Regelung, die festlegt, wer Daten nutzen darf, unter welchen Bedingungen und mit welchen Rechten oder Einschränkungen.
Datenmarktplatz
Ein Datenmarktplatz bietet eine Plattform zum Datenaustausch zwischen Datenanbieter:innen und -nutzer:innen
Datenpipelines
Datenpipelines sind automatisierte Prozesse, die Daten aus verschiedenen Quellen extrahieren, transformieren und in Zielsysteme laden, um sie für Analyse, Verarbeitung oder operative Nutzung bereitzustellen.
Datenplattform
Eine Datenplattform ist eine zentrale technische Infrastruktur, die den unternehmensweiten Zugriff, Austausch und die Verarbeitung von Daten ermöglicht. Sie unterstützt verschiedene Anwendungen über standardisierte Schnittstellen und ist häufig cloudbasiert oder datenbankgestützt. Ziel ist eine skalierbare, integrierte Datennutzung über Fachbereiche hinweg.
Datenqualitäts-Cockpits
Datenqualitäts-Cockpits sind Dashboards, die zentrale Kennzahlen zur Datenqualität visualisieren - z. B. Vollständigkeit, Dubletten, Plausibilität - oft in Echtzeit oder mit Frühwarnfunktionen.
Datenräume (Data Spaces)
Europäische Datenräume (Data Spaces) sind sektorübergreifende, gemeinsame Dateninfrastrukturen, die den sicheren, vertrauenswürdigen und standardisierten Austausch von Daten innerhalb der EU ermöglichen sollen. Sie fördern Innovation, Wettbewerb und Souveränität im digitalen Binnenmarkt durch klare Regeln, Interoperabilität und transparente Datenzugriffsrechte.
Datenschutz-Folgeabschätzungen (DSFA)
Die Datenschutz-Folgeabschätzung (DSFA) ist ein Instrument gemäß DSGVO, um potenzielle Risiken für die Rechte und Freiheiten betroffener Personen bei der Datenverarbeitung zu bewerten und zu dokumentieren - verpflichtend bei besonders risikobehafteten Verarbeitungen.
Datensouveränität
Datensouveränität beschreibt die Fähigkeit und das Recht von Individuen oder Organisationen, eigenständig über die Nutzung, Verarbeitung und Weitergabe ihrer Daten zu bestimmen.
Datentreuhänder
Datentreuhänder sind neutrale Vermittler, die Daten im Auftrag von Datengeber*innen sicher verwalten und fair bereitstellen. Sie übernehmen Governance-Funktionen, etwa zur Einhaltung von Zugriffsrechten, Nutzungsvorgaben oder ethischen Richtlinien.
Datenvalidierung
Datenvalidierung bezeichnet die systematische Überprüfung von Daten auf Richtigkeit, Vollständigkeit, Format und Plausibilität. Sie ist ein fester Bestandteil datenbezogener Prozesse und dient dazu, die Qualität und Verlässlichkeit von Daten für Analysen, Berichte oder operative Entscheidungen sicherzustellen.
Design Thinking
Design Thinking ist ein nutzerzentrierter, iterativer Ansatz zur Lösung komplexer Probleme, der auch in datenbezogenen Projekten zur Ideengenerierung und Prototypentwicklung eingesetzt wird.
DevOps-/DataOps-Praktiken
DevOps- und DataOps-Praktiken übertragen Prinzipien aus der agilen Softwareentwicklung auf Datenprozesse. Sie fördern automatisierte, kollaborative und kontinuierliche Bereitstellung von Datenpipelines und Analyselösungen. Ziel ist eine höhere Effizienz, Qualität und Anpassungsfähigkeit bei der Entwicklung datengetriebener Anwendungen und Services.
DigComp 2.3 AT
DigComp 2.3 AT ist die österreichische Anpassung des europäischen Referenzrahmens für digitale Kompetenzen, der beschreibt, welche Fähigkeiten Bürger:innen für einen sicheren, kritischen und kreativen Umgang mit digitalen Technologien benötigen
Digital Markets Act (DMA)
Sorgt für faire Wettbewerbsbedingungen in digitalen Märkten, indem "Gatekeeper"-Plattformen reguliert und Marktmachtbegrenzungen durchgesetzt werden.
Digital Services Act (DSA)
Der Digital Services Act ist eine EU-Verordnung, die Plattformbetreiber zur Verantwortung zieht. Er regelt den Umgang mit illegalen Inhalten, stärkt Nutzungsrechte und schafft Transparenzpflichten für digitale Dienste.
Digitale Verantwortung 2030 (Strategie)
Die Strategie "Digitale Verantwortung 2030" bezeichnet eine unternehmerische oder politische Ausrichtung, die digitale Innovation mit ethischer, rechtlicher und gesellschaftlicher Verantwortung langfristig verbindet.
Dropdown-Auswahllisten
Dropdown-Auswahllisten sind vordefinierte Eingabefelder, die standardisierte Auswahloptionen bereitstellen - z. B. zur Dateneingabe in Formularen oder BI-Tools.
DSGVO
Die DSGVO ist eine EU-Verordnung, die den Schutz personenbezogener Daten innerhalb der Europäischen Union regelt. Sie legt verbindliche Anforderungen an die Erhebung, Verarbeitung, Speicherung und Weitergabe personenbezogener Daten fest und stärkt die Rechte betroffener Personen. Für Organisationen bedeutet sie klare Pflichten in Bezug auf Transparenz, Einwilligung, Datensicherheit und Rechenschaftspflicht.
DSGVO Art.30
Artikel 30 der DSGVO verpflichtet Verantwortliche und Auftragsverarbeiter zur Führung eines Verzeichnisses aller Verarbeitungstätigkeiten personenbezogener Daten. Dieses Verzeichnis muss Angaben zu Zwecken, Kategorien, Empfängern, Speicherfristen und technischen sowie organisatorischen Maßnahmen enthalten und dient der Nachvollziehbarkeit und Rechenschaftspflicht.
DSGVO-Konformität
DSGVO-Konformität beschreibt die Übereinstimmung von Datenverarbeitungsaktivitäten mit den Anforderungen der Datenschutz-Grundverordnung - etwa in Bezug auf Einwilligungen, Speicherfristen und Betroffenenrechte.
Dublettenrate
Die Dublettenrate misst den Anteil mehrfach erfasster (doppelter) Datensätze in einem Datenbestand. Sie ist ein Indikator für Datenqualität und beeinflusst Analysen sowie Prozesse.
E-Learnings
E-Learnings sind digital bereitgestellte Lernformate, die orts- und zeitunabhängige Weiterbildung ermöglichen. Sie eignen sich insbesondere zur Vermittlung von Grundlagen zu Datenkompetenz, Tools, Prozessen oder Datenschutz.
Echtzeitanalyse
Echtzeitanalyse bezeichnet die sofortige Auswertung und Visualisierung von Daten im Moment ihres Entstehens. Sie ermöglicht schnelle Reaktionen, z. B. in Monitoring, Prozesssteuerung oder Anomalieerkennung.
Endpoint-Security-Lösungen
Endpoint-Security-Lösungen schützen Endgeräte (z. B. Laptops, Smartphones) vor unbefugtem Zugriff, Schadsoftware oder Datenverlust - durch Maßnahmen wie Firewalls, Verschlüsselung oder Gerätemanagement.
Enterprise Resource Planning (ERP)
ERP (Enterprise Resource Planning) bezeichnet integrierte Softwarelösungen zur Steuerung betrieblicher Prozesse und Ressourcen, die auch als Datenquellen für Analysen dienen.
Enterprise Resource Planning (ERP)-Systeme
ERP-Systeme (Enterprise Resource Planning) integrieren verschiedene Unternehmensbereiche (z. B. Einkauf, Buchhaltung, Logistik) in einer zentralen Softwarelösung und liefern strukturierte Daten für Analysen.
Ethical Value Requirements
Abgeleitete, überprüfbare Anforderungen, die sicherstellen, dass ein digitales System die definierten ethischen Werte in seiner Funktion und Nutzung erfüllt.
Ethics Deep Dives
Ethics Deep Dives sind vertiefte Workshops oder Analysen, in denen daten- oder KI-Projekte gezielt auf ethische Herausforderungen, Wertefragen oder Spannungsfelder hin untersucht werden.
Ethics Impact Assessment (EIA)
Ethics Impact Assessments (EIA) sind systematische Prüfungen zur Bewertung ethischer Implikationen eines Projekts, Produkts oder Algorithmus - häufig analog zu rechtlichen oder ökologischen Folgenabschätzungen.
Ethics Update Day
Ein Ethics Update Day ist ein unternehmensinternes Format zur Reflexion, Diskussion und Aktualisierung ethischer Leitlinien, Projekte oder Herausforderungen im Datenumfeld.
Ethik-Boards
Ethik-Boards sind interdisziplinäre Gremien, die daten- oder KI-bezogene Projekte auf ethische Fragestellungen prüfen, Empfehlungen abgeben und zur Qualitätssicherung beitragen.
Ethik-by-Design-Richtlinien
Ethik-by-Design bedeutet, ethische Prinzipien wie Fairness, Transparenz oder Verantwortung bereits in der Konzeption daten- oder KI-basierter Systeme systematisch zu berücksichtigen.
Ethik-Checklisten
Ethik-Checklisten sind strukturierte Fragenkataloge zur systematischen Bewertung ethischer Risiken oder Anforderungen in daten- oder KI-getriebenen Projekten.
European Health Data Space (EHDS)
Regelt den Austausch und die Nutzung elektronischer Gesundheitsdaten, gewährt Bürgern mehr Kontrolle über ihre Gesundheitsdaten und erleichtert deren Nutzung für Forschung, Politik und Innovation.
Evidenzbasiert
Evidenzbasiertes Arbeiten stützt Entscheidungen auf belastbare, nachvollziehbare Daten oder Forschungsergebnisse - statt auf Intuition oder Annahmen.
FAIR Principles
Leitprinzipien für Daten, die auffindbar (Findable), zugänglich (Accessible), interoperabel (Interoperable) und wiederverwendbar (Reusable) sind
Fairness
Fairness bezeichnet das Ziel, bei der Verarbeitung und Analyse von Daten keine Person oder Gruppe systematisch zu benachteiligen - z. B. in Algorithmen oder automatisierten Entscheidungen.
Feedbackkultur
Feedbackkultur beschreibt den strukturierten und offenen Umgang mit Rückmeldungen innerhalb einer Organisation. Sie fördert Transparenz, kontinuierliches Lernen und Verbesserung - auch im Umgang mit Daten, z. B. durch gemeinsame Auswertungserfahrungen, Reflexion datenbasierter Entscheidungen und gegenseitige Unterstützung bei der Interpretation von Ergebnissen.
Feedbackschleifen
Feedbackschleifen bezeichnen den wiederkehrenden Austausch über Erfahrungen, Ergebnisse oder Verbesserungsmöglichkeiten in Prozessen oder Projekten. Im Datenkontext helfen sie, z. B. Analyseergebnisse zu reflektieren, datenbasierte Entscheidungen zu optimieren oder die Datenqualität kontinuierlich zu verbessern.
Feedbacksysteme
Feedbacksysteme sind strukturierte Instrumente oder Plattformen, über die Mitarbeitende Rückmeldungen geben und erhalten können - z. B. zu Prozessen, Datenqualität oder Zusammenarbeit. Sie fördern Transparenz, kontinuierliche Verbesserung und die Einbindung von Nutzerperspektiven, insbesondere bei der Einführung datenbasierter Lösungen.
Felddefinitionen
Felddefinitionen legen für jedes Datenfeld (Spalte) die Bedeutung, zulässigen Werte, Formate und Validierungsregeln fest - essenziell für Konsistenz und Verständlichkeit von Datensätzen.
Filter
Filter sind Funktionen in Datenabfragen oder Visualisierungen, mit denen bestimmte Merkmale gezielt ein- oder ausgeschlossen werden - z. B. Zeiträume, Regionen oder Kategorien.
Firewall
Eine Firewall ist ein Sicherheitsmechanismus, der den Datenverkehr zwischen Netzwerken überwacht und kontrolliert. Sie schützt IT-Systeme vor unautorisierten Zugriffen, Schadsoftware und anderen Bedrohungen durch gezielte Filterregeln.
Forecasts
Forecasts sind datenbasierte Vorhersagen über zukünftige Entwicklungen oder Kennzahlen - z. B. Absatz, Umsatz oder Nutzerverhalten - häufig mithilfe von Machine Learning oder Zeitreihenanalysen erstellt.
GAIA-X
GAIA-X ist eine europäische Initiative zum Aufbau einer vertrauenswürdigen, offenen und interoperablen Dateninfrastruktur. Ziel ist es, europäische Werte wie Datensouveränität, Sicherheit und Transparenz in der digitalen Wirtschaft zu sichern.
General Data Protection Regulation (GDPR)
Regelt den Schutz personenbezogener Daten und deren freie Verarbeitung und Übermittlung im Europäischen Binnenmarkt.
Geodaten
Geodaten sind Daten, die eine direkte oder indirekte räumliche Referenz zu Orten auf der Erde besitzen. Sie werden etwa in der Stadtplanung, im Verkehrswesen oder in Umweltanwendungen genutzt und gelten als besonders wertvoll im Kontext von Open Data.
Gießkannenprinzipien
Gießkannenprinzipien bezeichnen unspezifische, breit gestreute Maßnahmen ohne zielgerichtete Differenzierung - z. B. bei Schulungen oder Datenzugängen. Im Datenkontext gelten sie als ineffizient, da sie den tatsächlichen Bedarf und Reifegrad der Zielgruppen nicht berücksichtigen.
Google BigQuery
Google BigQuery ist ein skalierbares, cloudbasiertes Data-Warehouse von Google zur Analyse großer Datenmengen in Echtzeit. Es basiert auf SQL, unterstützt komplexe Abfragen und eignet sich für datenintensive Anwendungen und Machine Learning.
Google Data Studio (Looker Studio)
Google Data Studio - heute Looker Studio - ist ein cloudbasiertes Visualisierungstool von Google zur Erstellung interaktiver Berichte und Dashboards. Es ermöglicht die Verknüpfung mit verschiedenen Datenquellen und unterstützt die einfache Aufbereitung und Kommunikation von Analyseergebnissen.
Governance-Strukturen
Governance-Strukturen bezeichnen formalisierte Rahmenbedingungen innerhalb einer Organisation, die Zuständigkeiten, Entscheidungswege und Regelwerke für den Umgang mit Daten festlegen. Sie schaffen Transparenz, fördern Verantwortungsbewusstsein und sichern die Einhaltung interner sowie externer Anforderungen - insbesondere in Bezug auf Datenqualität, Sicherheit und Compliance.
Identitätsmanagement
Identitätsmanagement umfasst Prozesse und Technologien zur Verwaltung von Benutzeridentitäten und deren Zugriffsrechten, um sicheren und kontrollierten Zugang zu IT-Systemen und Daten zu gewährleisten.
Identity & Access Management (IAM)
Identity & Access Management (IAM) umfasst Richtlinien, Prozesse und Technologien zur Verwaltung von digitalen Identitäten sowie zur Steuerung und Überwachung von Zugriffsrechten auf Systeme, Anwendungen und Daten.
Informationsfreiheitsgesetz (IFG)
Das Informationsfreiheitsgesetz (IFG) regelt den Zugang der Öffentlichkeit zu amtlichen Informationen von Bundesbehörden. Es schafft Transparenz staatlichen Handelns, indem es Bürger:innen das Recht einräumt, Informationen ohne besondere Begründung anzufordern - mit bestimmten Ausnahmen, z. B. bei Datenschutz oder Sicherheitsinteressen.
Informationssicherheits-Managementsystem (ISMS)
Ein ISMS ist ein systematischer Rahmen zur Steuerung der Informationssicherheit in einer Organisation. Es umfasst Richtlinien, Prozesse, Verantwortlichkeiten und technische sowie organisatorische Maßnahmen, um vertrauliche Informationen zu schützen, Risiken zu minimieren und regulatorische Anforderungen zu erfüllen - häufig orientiert an Standards wie ISO/IEC 27001.
Inklusion
Inklusion im Datenkontext bedeutet, dass Daten, Systeme und Entscheidungen so gestaltet werden, dass sie alle Menschen - unabhängig von Herkunft, Geschlecht, Alter oder Fähigkeiten - einbeziehen und berücksichtigen.
Innovationsscouting
Innovationsscouting bezeichnet das strukturierte Beobachten und Bewerten neuer Technologien, Trends und Methoden mit Relevanz für Datenstrategien und datengetriebene Geschäftsmodelle.
Interne Roadshows
Interne Roadshows sind organisationsweite Informations- und Austauschformate, bei denen datenbezogene Initiativen vorgestellt, Fragen beantwortet und Feedback eingeholt wird.
Internes Barcamp
Ein internes Barcamp ist ein offenes, mitgestaltbares Veranstaltungsformat, bei dem Mitarbeitende Sessions zu datenrelevanten Themen selbst anbieten und diskutieren - fördert Beteiligung und interne Vernetzung.
Interoperabilität
Die Fähigkeit unterschiedlicher Systeme, Organisationen oder Datenquellen, nahtlos zusammenzuarbeiten und Informationen auszutauschen.
ISO 27005
ISO/IEC 27005 ist eine internationale Norm zur Risikobewertung und zum Management von Informationssicherheitsrisiken - häufig genutzt im Rahmen von ISMS.
ISO/IEC 27000
ISO/IEC 27000 ist die internationale Normenreihe für Informationssicherheits-Managementsysteme (ISMS), der grundlegende Begriffe und Prinzipien definiert.
ISO/IEC 27001
ISO/IEC 27001 ist die zentrale Norm der 27000er-Reihe, die Anforderungen an die Einrichtung, Umsetzung, Aufrechterhaltung und kontinuierliche Verbesserung eines ISMS festlegt
Key Performance Indicator (KPI)
KPIs sind zentrale Leistungskennzahlen, mit denen der Fortschritt in Bezug auf definierte Ziele messbar gemacht wird. Im Datenkontext dienen sie z. B. zur Bewertung von Datenqualität, Nutzung, Effizienz oder Erfolgsbeitrag datengetriebener Initiativen.
Key-User
Key-User sind besonders geschulte Anwender:innen, die als Multiplikator:innen und erste Anlaufstelle in ihrem Fachbereich für bestimmte Tools oder Prozesse fungieren.
KI-Impact-Assessments
KI-Impact-Assessments sind strukturierte Bewertungen der potenziellen Auswirkungen von KI-Anwendungen auf Gesellschaft, Einzelpersonen oder Organisationen - z. B. in Bezug auf Diskriminierung, Transparenz oder Kontrolle.
Kodierungen
Kodierungen bezeichnen die standardisierte Umwandlung von Informationen in definierte Codes oder Zahlenwerte - z. B. Geschlecht = 1 für männlich - um Daten strukturierter analysieren zu können.
Korrelationen
Korrelationen beschreiben statistische Zusammenhänge zwischen zwei oder mehr Variablen. Eine positive oder negative Korrelation weist darauf hin, dass sich die Werte gemeinsam verändern - ohne zwingend eine Kausalität zu belegen.
Lean
Lean ist ein Managementansatz zur kontinuierlichen Verbesserung von Prozessen durch Vermeidung von Verschwendung und Fokussierung auf den Kundennutzen - auch im Kontext datengetriebener Prozessoptimierung.
Legal-Tech-Scouting-Teams
Legal-Tech-Scouting-Teams sind spezialisierte Gruppen innerhalb einer Organisation, die neue rechtliche Technologien, Plattformen und Gesetzesentwicklungen beobachten, bewerten und in strategische Entscheidungen einfließen lassen. Sie fördern die Innovationsfähigkeit im Umgang mit rechtlichen Rahmenbedingungen.
Lernpfade
Lernpfade sind strukturierte Weiterbildungsformate, die Mitarbeitende gezielt beim Auf- und Ausbau ihrer Datenkompetenzen unterstützen. Sie bestehen aus aufeinander abgestimmten Schulungsmodulen, Übungen und Lernzielen - angepasst an Rollen, Vorkenntnisse und Anwendungsfelder - und fördern die nachhaltige Verankerung datenbasierter Arbeitsweisen in der Organisation.
Logfiles
Logfiles sind Protokolldateien, in denen Ereignisse, Prozesse oder Zugriffe auf Systemen automatisiert aufgezeichnet werden - sie dienen der Analyse, Fehlerdiagnose und Sicherheit.
Maschinelles Lernen
Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz, bei dem Algorithmen aus Daten Muster erkennen und Vorhersagen treffen - ohne explizit programmiert zu sein.
Matrix
Im Datenkontext beschreibt eine Matrix z. B. eine tabellarische Übersicht zur Einordnung von Verantwortlichkeiten (RACI-Matrix), Datenflüssen oder Reifegraden. Sie unterstützt Klarheit, Struktur und Entscheidungsfindung.
Metadaten
Metadaten sind strukturierte Informationen, die Daten beschreiben, klassifizieren oder einordnen - z. B. Herkunft, Format, Erstellungszeitpunkt oder Verantwortlichkeiten. Sie erleichtern das Auffinden, Verstehen und die Nutzung von Daten in Datenplattformen und Analyseprozessen.
Microservices
Microservices sind modulare, unabhängig deploybare Softwarekomponenten, die jeweils eine klar abgegrenzte Funktion erfüllen. Sie ermöglichen skalierbare und flexible Architekturen - auch im Aufbau von Datenplattformen und analytischen Anwendungen.
Microsoft Azure Data Lake
Der Microsoft Azure Data Lake ist eine skalierbare Cloud-Datenplattform zur Speicherung und Analyse großer Datenmengen in Rohform. Er unterstützt moderne Analyse-Workloads und Machine Learning.
Microsoft Dataverse
Microsoft Dataverse ist eine cloudbasierte Datenplattform, die strukturierte Daten zentral speichert und in Microsoft Power Platform sowie Dynamics 365 integriert nutzbar macht. Sie unterstützt rollenbasierten Zugriff, Datenmodellierung und automatisierte Prozesse.
Microsoft Power Automate
Microsoft Power Automate ist ein Cloud-Dienst zur Automatisierung wiederkehrender Arbeitsabläufe zwischen verschiedenen Apps und Diensten - etwa für Benachrichtigungen, Datenübertragungen oder Genehmigungen.
Middleware-Layers
Middleware-Layers vermitteln zwischen unterschiedlichen Anwendungen oder Datenquellen, ohne dass diese direkt integriert werden müssen. Sie ermöglichen Kommunikation, Datenverarbeitung und Systeminteroperabilität.
Mobility Data Space
Der Mobility Data Space ist eine Dateninfrastruktur für die Mobilitätsbranche in Deutschland und Europa. Er ermöglicht den souveränen, sicheren und fairen Austausch von Mobilitätsdaten zwischen unterschiedlichen Akteuren.
Monitoring
Monitoring bezeichnet die kontinuierliche Überwachung von Systemen, Prozessen oder Daten anhand definierter Kennzahlen oder Ereignisse. Ziel ist es, Abweichungen, Fehler oder Risiken frühzeitig zu erkennen und geeignete Maßnahmen einzuleiten - z. B. zur Sicherstellung von Datenqualität, Systemverfügbarkeit oder Compliance.
MS SQL Server
Microsoft SQL Server ist ein relationales Datenbankmanagementsystem zur Speicherung, Abfrage und Verwaltung strukturierter Daten. Es wird häufig in Unternehmensumgebungen eingesetzt und ist eng mit dem Microsoft-Ökosystem verknüpft.
Multiplikator:innen
Multiplikator:innen sind geschulte Mitarbeitende, die Wissen, Kompetenzen oder Veränderungsimpulse in ihre Fachbereiche hineintragen. Sie fördern datenorientiertes Arbeiten, sensibilisieren für Governance-Vorgaben und unterstützen als erste Ansprechpersonen.
Nachfrageprognose
Nachfrageprognosen sind analytische Verfahren zur Vorhersage zukünftiger Bedarfe auf Basis historischer Daten - z. B. für Produktion, Ressourcen oder Lagerhaltung.
Natural Language Processing (NLP)
NLP ist ein Teilbereich der KI, der sich mit der Verarbeitung natürlicher Sprache durch Computer beschäftigt - z. B. zur Extraktion von Informationen aus Textdaten oder zur Sprachsteuerung.
Net Promoter Score (NPS)
Der NPS ist eine Kennzahl zur Messung der Weiterempfehlungsbereitschaft von Nutzenden oder Kunden. Er wird häufig im Rahmen datengetriebener Nutzerfeedback-Systeme verwendet.
NIS2 (Netzwerk- und Informationssystemen 2)

NIS2 ist die überarbeitete EU-Richtlinie über Maßnahmen zur Erhöhung der Cybersicherheit von Netz- und Informationssystemen.

Sie verpflichtet Unternehmen und Organisationen in kritischen und wichtigen Sektoren, angemessene Sicherheitsmaßnahmen zu ergreifen, Cybervorfälle zu melden und Risikomanagement- sowie Governance-Anforderungen einzuhalten, um die Widerstandsfähigkeit gegen Cyberbedrohungen zu stärken.

Nutzungsstandards
Nutzungsstandards sind verbindliche Regeln und Vorgaben, die festlegen, wie Daten, Systeme oder Ressourcen verwendet werden dürfen - einschließlich zulässiger Anwendungen, Qualitätsanforderungen, Zugriffsrechte und Sicherheitsrichtlinien -, um eine einheitliche, rechtssichere und effiziente Nutzung zu gewährleisten.
On-Demand-Angebote
On-Demand-Angebote sind flexibel abrufbare Inhalte, Schulungen oder Services - z. B. E-Learnings oder Datenservices - die bei Bedarf genutzt werden können, ohne feste Termine oder Vorlaufzeit.
Onboarding
Onboarding bezeichnet den strukturierten Einstieg neuer Mitarbeitender in ein Unternehmen oder Projekt. Im Datenkontext umfasst es die Einführung in Datenprozesse, Tools, Verantwortlichkeiten und Governance-Regelungen.
Open Data
Open Data bezeichnet Daten, die frei zugänglich, nutzbar und weiterverwendbar sind. Meist stammen sie aus öffentlichen Quellen und sollen Transparenz, Innovation und gesellschaftlichen Nutzen fördern.
Organigramme
Organigramme sind grafische Darstellungen der Organisationsstruktur eines Unternehmens - inkl. Rollen, Verantwortlichkeiten und Hierarchien. Sie helfen bei der Zuordnung von Datenverantwortlichkeiten.
Original Equipment Manufacturers (OEM)
OEMs sind Hersteller, die Produkte oder Komponenten produzieren, die unter dem Markennamen eines anderen Unternehmens verkauft werden. Im Datenkontext sind OEMs oft zentrale Akteure in industriellen Wertschöpfungsnetzwerken, etwa in der Automobilbranche.
OWASP-Standards
Die OWASP-Standards sind international anerkannte Sicherheitsrichtlinien für Webanwendungen. Sie helfen, häufige Schwachstellen zu erkennen und zu vermeiden - z. B. SQL-Injection oder XSS.
Peer-to-Peer-Formate
Peer-to-Peer-Formate sind Austauschformate auf Augenhöhe, bei denen Mitarbeitende voneinander lernen - z. B. durch kollegiale Beratung, Erfahrungsaustausch oder Co-Analysen.
Penetrationstests
Penetrationstests sind kontrollierte Sicherheitsüberprüfungen, bei denen Angriffe auf Systeme simuliert werden, um Schwachstellen frühzeitig zu erkennen und zu beheben.
Phishing
Phishing ist eine Form des digitalen Betrugs, bei der Angreifende versuchen, über gefälschte E-Mails, Webseiten oder Nachrichten vertrauliche Informationen wie Passwörter, Zugangsdaten oder Zahlungsinformationen zu erlangen. Es zählt zu den häufigsten Cyberangriffen und erfordert gezielte Sensibilisierung der Mitarbeitenden.
Pilotierungen
Pilotierungen sind zeitlich und inhaltlich begrenzte Erprobungen neuer datenbezogener Ansätze, Technologien oder Prozesse. Sie dienen dazu, Wirksamkeit und Umsetzbarkeit im kleinen Rahmen zu testen, bevor eine breitere Einführung erfolgt.
Pivot-Tabellen
Pivot-Tabellen sind ein Analysewerkzeug (z.B. in Excel), mit dem sich große Datenmengen schnell strukturieren, gruppieren und auswerten lassen. Sie ermöglichen flexible Aggregationen und Einblicke in Daten, ohne diese manuell umstrukturieren zu müssen.
Planspiele
Planspiele sind simulierte Szenarien, in denen sicherheits- oder datenspezifische Ereignisse durchgespielt werden - z. B. zur Schulung von Krisenreaktionen oder zur Überprüfung von Notfallplänen.
Plausibilitätsprüfungen
Plausibilitätsprüfungen sind Kontrollen, mit denen überprüft wird, ob Daten logisch konsistent, vollständig und realistisch erscheinen. Sie dienen der frühzeitigen Erkennung von Eingabefehlern, Ausreißern oder Unstimmigkeiten und ergänzen formale Validierungsregeln.
Portabilität
Portabilität bezeichnet das Recht und die technische Möglichkeit, personenbezogene oder unternehmensbezogene Daten in einem strukturierten, gängigen und maschinenlesbaren Format von einem Dienstanbieter zu einem anderen zu übertragen. Sie stärkt die Datenhoheit von Nutzer*innen und fördert den Wettbewerb und die Interoperabilität zwischen digitalen Diensten.
PostgreSQL
PostgreSQL ist ein leistungsfähiges, objektrelationales Open-Source-Datenbankmanagementsystem. Es eignet sich für vielfältige Anwendungen, bietet hohe Datenintegrität und unterstützt komplexe Abfragen sowie Erweiterungen.
Power Automate-Flows
Power Automate-Flows sind automatisierte Workflows, die mithilfe von Microsoft Power Automate zwischen verschiedenen Anwendungen ausgelöst werden - z.B. zur Datenweitergabe oder Benachrichtigung.
Power BI
Power BI ist eine Business-Intelligence-Plattform von Microsoft zur Datenvisualisierung, Analyse und Berichterstellung. Sie ermöglicht die Verbindung verschiedener Datenquellen, die Erstellung interaktiver Dashboards und die gemeinsame Nutzung von Analysen im Unternehmen.
Power-User
Power-User zeichnen sich durch tiefergehende Kenntnisse und häufige Nutzung datenbezogener Tools aus. Sie nutzen erweiterte Funktionen und unterstützen andere bei komplexen Anwendungsfällen.
Prädiktive Analysen
Prädiktive Analysen verwenden historische Daten und statistische Modelle, um zukünftige Ereignisse oder Verhaltensweisen vorherzusagen - etwa zur Bedarfsplanung, Risikofrüherkennung oder Kundenabwanderung.
Privacy by Design
Privacy by Design ist ein Datenschutzprinzip, das vorsieht, Schutzmaßnahmen bereits bei der Konzeption von Systemen und Prozessen einzuplanen - nicht erst nachträglich.
Privacy Champions
Privacy Champions sind dezentrale Ansprechpersonen in Fachbereichen, die den Datenschutz aktiv unterstützen. Sie fördern das Bewusstsein für Datenschutzanforderungen, begleiten die Umsetzung entsprechender Maßnahmen und fungieren als Bindeglied zwischen zentraler Datenschutzstelle und operativer Ebene.
Process Owner
Process Owner sind verantwortlich für die Gestaltung, Steuerung und kontinuierliche Verbesserung eines definierten Prozesses - inklusive Datenverantwortung und Qualitätssicherung.
Prozess-Status-Meldungen
Prozess-Status-Meldungen zeigen den aktuellen Bearbeitungsstand eines (datenbezogenen) Prozesses - z. B. Genehmigungen, Datenfreigaben oder Validierungen - meist über ein Workflow-System.
Prozessmetriken
Prozessmetriken sind Kennzahlen, mit denen Effizienz, Qualität oder Stabilität von Abläufen gemessen werden - z. B. Durchlaufzeiten, Fehlerquoten oder Automatisierungsgrade in datenbezogenen Prozessen.
Public-/Private-Data-Sharing
Public-/Private-Data-Sharing bezeichnet den kontrollierten Austausch von Daten zwischen öffentlichen Institutionen und privaten Unternehmen. Ziel ist es, durch Zusammenarbeit Innovationen zu fördern, Effizienz zu steigern und gesellschaftlichen Mehrwert zu schaffen - unter Einhaltung rechtlicher und ethischer Standards.
Python-Skripte
Python-Skripte sind Programme oder Routinen in der Programmiersprache Python, die zur Datenverarbeitung, Analyse oder Automatisierung eingesetzt werden.
Qlik Sense
Qlik Sense ist eine moderne BI- und Datenvisualisierungssoftware, die benutzerfreundliche Dashboards, Self-Service-Analysen und datengetriebene Entscheidungsunterstützung ermöglicht.
QM-Handbücher
QM-Handbücher dokumentieren Qualitätsrichtlinien, Standards und Prozesse in einer Organisation - auch im Datenkontext zur Sicherstellung konsistenter Arbeitsweisen.
Qualitative Metriken
Qualitative Metriken erfassen nicht numerische, sondern beschreibende Bewertungen - etwa Wahrnehmungen, Einschätzungen oder Erfahrungswerte. Im Datenkontext dienen sie z. B. zur Bewertung von Datenverständnis, Nutzerzufriedenheit oder kultureller Reife und ergänzen quantitative Kennzahlen um weiche Faktoren.
Quellsysteme
Quellsysteme sind Ursprungssysteme, aus denen Daten extrahiert und in nachgelagerte Anwendungen oder Plattformen eingespeist werden - z.B. ERP-, CRM- oder operative Systeme.
Realtime-Systeme
Realtime-Systeme verarbeiten und analysieren Daten nahezu in Echtzeit. Sie ermöglichen zeitnahe Reaktionen auf Ereignisse und werden u. a. in Bereichen wie Monitoring, Betrugserkennung oder operativer Steuerung eingesetzt.
Reifegradstufe

Bewertungsstufe von 1 ("Initial") bis 5 ("Strategisch wertschöpfend") zur Einordnung der organisatorischen und technischen Fähigkeiten.

  • Initial - Kaum strukturierter Datenumgang und Datenquellen, hoher Handlungsbedarf.
  • Strukturiert - Erste Strukturen, begrenzte Wirkung.
  • Koordiniert - Funktionale Grundlagen vorhanden, Wirkung noch nicht voll entfaltet.
  • Integriert wertschöpfend - Organisation profitiert regelmäßig und gezielt von Daten.
  • Strategisch wertschöpfend - Daten sind strategischer und nachhaltiger Erfolgsfaktor.
Repository
Ein Repository ist ein zentraler Speicherort für digitale Inhalte wie Code, Daten, Dokumentationen oder Metadaten. Im Datenkontext dient es zur strukturierten Ablage, Versionierung und gemeinsamen Nutzung von Datenobjekten, Analyseartefakten oder technischen Komponenten.
Rollenprofile
Rollenprofile definieren Aufgaben, Kompetenzen und Verantwortlichkeiten einer Funktion - z. B. Data Steward, Data Owner oder BI Developer - und schaffen Klarheit in datenbezogenen Projekten.
Rückkopplungsschleifen
Rückkopplungsschleifen bezeichnen iterative Prozesse, bei denen Ergebnisse oder Erkenntnisse systematisch in den Verbesserungsprozess zurückgespielt werden - z. B. zur Optimierung von Datenpipelines.
Rücklaufquoten
Rücklaufquoten messen den Anteil der tatsächlich eingegangenen Antworten bei Befragungen oder Prozessen - z. B. bei Feedbackumfragen oder Datenkorrekturanfragen.
Schnittstellen (APIs)
Schnittstellen - insbesondere Programmierschnittstellen (APIs) - ermöglichen den strukturierten Austausch von Daten zwischen Systemen, Anwendungen oder Datenplattformen. Sie fördern Interoperabilität, Automatisierung und Effizienz und sind entscheidend für eine unternehmensweite Integration von Datenquellen.
Schnittstellenprobleme
Schnittstellenprobleme entstehen, wenn Systeme, Formate oder Datenstrukturen nicht kompatibel sind. Sie führen zu Medienbrüchen, Datenverlusten oder Fehlern bei der Datenintegration.
Schwellenwertüberschreitungen
Schwellenwertüberschreitungen treten auf, wenn definierte Grenzwerte (z. B. bei KPIs oder Qualität) über- oder unterschritten werden. Sie lösen häufig Warnungen oder automatisierte Reaktionen aus.
Scouting-Formats
Scouting-Formate sind strukturierte Methoden oder Veranstaltungsformate zur gezielten Identifikation neuer Technologien, Tools oder Use Cases - oft im Rahmen von Innovations- oder Tech-Radars.
Security Incident Management (ITIL 4.0)
Ist der strukturierte Prozess zur Erkennung, Meldung, Analyse und Behebung von sicherheitsrelevanten Vorfällen, um deren Auswirkungen auf den Geschäftsbetrieb zu minimieren und die Sicherheit zeitnah wiederherzustellen (im Kontext mir dem IT Service Management Standard ITIL 4.0).
Security Incident Response Plan
Ein Security Incident Response Plan ist ein vordefinierter Handlungsrahmen für den Umgang mit Sicherheitsvorfällen. Er legt Abläufe, Rollen und Kommunikationswege fest, um Schäden zu minimieren und schnell zu reagieren.
Segmentierung
Segmentierung bezeichnet die Aufteilung von Datenbeständen in Gruppen mit gemeinsamen Merkmalen, z. B. Kundensegmente nach Verhalten, Region oder Bedarf. Ziel ist es, gezielte Analysen, Maßnahmen oder Entscheidungen für spezifische Teilmengen zu ermöglichen.
Self-Service Analysen
Self-Service-Analysen ermöglichen es Fachanwendern, eigenständig Daten auszuwerten und Erkenntnisse zu gewinnen - ohne auf Unterstützung durch IT oder Datenexperten angewiesen zu sein. Sie basieren auf leicht bedienbaren Tools und klar zugänglichen Datenstrukturen und fördern datengetriebene Entscheidungen direkt in den Fachbereichen.
Self-Service-Portals
Self-Service-Portale sind benutzerfreundliche Plattformen, über die Fachanwender:innen eigenständig auf Daten, Reports oder Analysefunktionen zugreifen können - ohne direkte Unterstützung durch IT oder Datenexperten. Sie fördern Eigenverantwortung, Transparenz und effiziente Nutzung datenbasierter Ressourcen.
Sensor-Streams
Sensor-Streams sind kontinuierlich erzeugte Datenströme aus physischen Sensoren - z. B. Temperatur, Bewegung oder Zustand - die in Echtzeit verarbeitet und analysiert werden können.
Sicherheitsarchitektur
Die Sicherheitsarchitektur beschreibt den strukturellen Aufbau aller technischen und organisatorischen Sicherheitsmaßnahmen in einer IT-Umgebung. Sie legt fest, wie Daten, Systeme und Zugriffe geschützt werden - z. B. durch Firewalls, Zugriffskontrollen, Verschlüsselung und Monitoring.
Silodenken
Silodenken bezeichnet eine organisationsinterne Haltung, bei der Abteilungen oder Bereiche Informationen und Wissen isoliert betrachten und teilen. Dies erschwert bereichsübergreifende Zusammenarbeit, hemmt den Austausch von Daten und behindert ganzheitliche, datengetriebene Entscheidungsfindung.
Simulationen
Simulationen sind modellbasierte Nachbildungen realer Prozesse oder Szenarien zur Analyse möglicher Entwicklungen und Auswirkungen - oft genutzt zur Entscheidungsunterstützung oder Risikobewertung.
Single Sign-On
Single Sign-On (SSO) ist eine Authentifizierungsmethode, die es Nutzer:innen ermöglicht, sich einmalig anzumelden und anschließend auf mehrere unabhängige Systeme oder Anwendungen zuzugreifen, ohne sich erneut anmelden zu müssen.
Single Source of Truth (SSOT)
Single Source of Truth (SSOT) bezeichnet ein zentrales, konsistentes und verlässliches Datenfundament, auf das alle Beteiligten zugreifen. Es verhindert widersprüchliche Informationsquellen.
Skalierbare Systeme
Skalierbare Systeme können flexibel an wachsende Anforderungen oder Datenmengen angepasst werden - ohne Einbußen bei Performance oder Stabilität.
Snowflake
Snowflake ist eine cloudnative Data-Platform, die Data-Warehouse-, Data-Lake- und Datenfreigabefunktionen vereint. Sie ermöglicht skalierbare, performante Analysen und bietet Unterstützung für verschiedene Cloud-Infrastrukturen.
SQL-basierte Data Validation Pipelines
SQL-basierte Data Validation Pipelines sind automatisierte Prüfstrecken, in denen mit Hilfe von SQL Abfragen Daten auf Vollständigkeit, Richtigkeit und Integrität geprüft werden.
SQL-Datenbanken
SQL-Datenbanken sind relationale Datenbanksysteme, die über die Abfragesprache SQL strukturiert verwaltet und analysiert werden. Sie sind weit verbreitet in operativen und analytischen Anwendungsszenarien.
Stakeholder
Stakeholder sind Personen oder Gruppen, die ein berechtigtes Interesse an Entscheidungen, Prozessen oder Ergebnissen einer Organisation haben. Dazu zählen u. a. Mitarbeitende, Kund*innen, Partner oder Regulierungsbehörden
Standard Operating Procedure (SOP)
SOPs sind standardisierte Arbeitsanweisungen, die definierte Abläufe und Verantwortlichkeiten dokumentieren. Im Datenkontext sichern sie konsistente und regelkonforme Durchführung von Prozessen wie Datenfreigaben oder Analysen.
Storytelling
Storytelling ist die gezielte Nutzung erzählerischer Elemente, um Informationen wirkungsvoll und verständlich zu vermitteln. Im datenbezogenen Kontext wird es eingesetzt, um Analyseergebnisse in eine nachvollziehbare, adressatengerechte Botschaft zu überführen - oft kombiniert mit Visualisierung und Kontextbezug.
Strategiepapier
Ein Strategiepapier ist ein dokumentiertes Konzept, das Ziele, Maßnahmen und Prioritäten zur Umsetzung einer Daten- oder Digitalstrategie strukturiert darstellt.
Streaming-Datenpipelines
Streaming-Datenpipelines verarbeiten Daten kontinuierlich im Moment ihres Entstehens - z. B. aus Sensoren, Logdaten oder Nutzerinteraktionen - für Echtzeitanalysen oder Monitoring.
Tableau
Tableau ist eine Business-Intelligence-Software zur interaktiven Datenvisualisierung und -analyse. Die Plattform ermöglicht die Verbindung verschiedenster Datenquellen, das Erstellen dynamischer Dashboards und die intuitive Darstellung komplexer Zusammenhänge für datenbasierte Entscheidungen.
Talend Workflows
Talend Workflows sind grafisch modellierte Datenflüsse in der Talend Data Integration Plattform zur Extraktion, Transformation und Bereitstellung von Daten aus verschiedenen Quellen.
Tech Radar
Ein Tech Radar ist ein strategisches Visualisierungstool, das den Reifegrad und die Relevanz technischer Trends oder Tools für das Unternehmen systematisch darstellt.
Technologie-Roadmap
Eine Technologie-Roadmap ist ein strukturierter Plan zur Einführung, Weiterentwicklung und Integration von Technologien innerhalb einer Organisation. Sie zeigt auf, welche Systeme, Tools oder Plattformen im Datenkontext wann und wie eingeführt oder ausgebaut werden sollen - abgestimmt auf strategische Ziele und Reifegrade.
Technologie-Stacks
Technologie-Stacks bezeichnen die Kombination aus Software, Tools und Frameworks, die gemeinsam eine datenbezogene Lösung oder Plattform bilden - z.B. Datenbanken, Analysewerkzeuge und Visualisierungskomponenten.
Think Tanks
Think Tanks sind Organisationen oder Netzwerke, die unabhängig Forschung, Beratung und Strategieentwicklung betreiben - z. B. zu datenethischen, technologischen oder regulatorischen Fragestellungen.
Townhalls
Townhalls sind unternehmensweite Informationsveranstaltungen, in denen Führungskräfte aktuelle Entwicklungen, Strategien oder datenbezogene Initiativen offen mit Mitarbeitenden teilen.
Transit
Transit beschreibt die Phase, in der Daten zwischen Systemen übertragen werden. In dieser Phase müssen Sicherheitsmaßnahmen wie Verschlüsselung besonders berücksichtigt werden.
Transparenz
Transparenz bedeutet im Datenkontext, dass Prozesse, Datenquellen, Modelle und Entscheidungen nachvollziehbar, offen dokumentiert und erklärbar sind - essenziell für Vertrauen und Rechenschaftspflicht.
Transport Layer Security (TLS)
TLS ist ein Protokoll zur verschlüsselten Übertragung von Daten über Netzwerke. Es schützt Daten während der Übertragung vor unbefugtem Zugriff oder Manipulation.
Trends
Trends sind systematisch beobachtete Entwicklungen oder Muster in Daten über einen bestimmten Zeitraum hinweg. Sie helfen, Veränderungen frühzeitig zu erkennen und strategisch darauf zu reagieren.
Typologien
Typologien sind systematische Klassifikationen von Objekten oder Personen in bestimmte Typen - z. B. Verhaltens- oder Nutzungstypen - zur besseren Zielgruppenanalyse und Maßnahmenplanung.
Use Cases
Use Cases (Anwendungsfälle) beschreiben konkrete Szenarien, in denen Daten oder Systeme genutzt werden, um einen fachlichen oder geschäftlichen Mehrwert zu erzielen. Sie helfen dabei, Anforderungen zu klären, Lösungen zielgerichtet zu entwickeln und datengetriebene Potenziale systematisch zu erschließen.
Validität
Validität beschreibt, inwieweit ein Messinstrument oder eine Analyse tatsächlich das misst, was beabsichtigt ist. Hohe Validität ist essenziell für belastbare datengestützte Entscheidungen.
Value Qualities
Messbare oder beschreibbare Eigenschaften eines digitalen Systems, die den Grad der Erfüllung der zugrunde liegenden Werte widerspiegeln
Value Register
Ein dokumentierter Katalog aller identifizierten und priorisierten Werte, die während der Entwicklung eines digitalen Systems berücksichtigt werden sollen
Value-based Engineering (IEEE 7000)
Ein Vorgehensmodell zur Integration ethischer Werte in den gesamten System- und Softwareentwicklungsprozess, sodass technische Entscheidungen mit gesellschaftlich relevanten Prinzipien im Einklang stehen.
Verschlüsselung
Verschlüsselung ist ein technisches Verfahren, bei dem Daten in eine nicht lesbare Form umgewandelt werden, um sie vor unbefugtem Zugriff zu schützen. Nur autorisierte Personen oder Systeme können die Daten mit einem entsprechenden Schlüssel wieder entschlüsseln.
Wertschöpfungsketten
Wertschöpfungsketten beschreiben alle aufeinanderfolgenden Aktivitäten und Prozesse, durch die ein Produkt oder eine Dienstleistung entsteht - von der Rohstoffgewinnung bis zum Endkunden. In datengetriebenen Kontexten spielen digitale Datenflüsse entlang dieser Kette eine immer wichtigere Rolle.
White List
Eine White List ist eine Positivliste, die den explizit erlaubten Zugriff auf Systeme, Anwendungen oder IP-Adressen definiert - häufig im Kontext von IT-Sicherheit oder Datenschutz.
Wiki
Ein Wiki ist eine kollaborative, digitale Wissensplattform, auf der Informationen, Richtlinien, Begriffe oder Prozessbeschreibungen zentral dokumentiert und gepflegt werden. Im Datenkontext dient es der transparenten Bereitstellung von Datenwissen.
Wirkungsanalyse
Wirkungsanalyse bezeichnet die systematische Bewertung, inwieweit Maßnahmen, Prozesse oder Dateninitiativen konkrete Effekte erzielen - z. B. Effizienzsteigerung, Qualitätsverbesserung oder Nutzerzufriedenheit. Sie dient der Erfolgskontrolle datengetriebener Aktivitäten und unterstützt strategische Entscheidungen.
Zapier
Zapier ist eine No-Code-Automatisierungsplattform, die es ermöglicht, Webanwendungen über vorgefertigte Schnittstellen miteinander zu verbinden und Prozesse ohne Programmierung zu automatisieren.
Zero-Trust-Architektur
Die Zero-Trust-Architektur ist ein Sicherheitskonzept, das grundsätzlich keinen Nutzer oder Dienst innerhalb oder außerhalb eines Netzwerks vertraut. Jeder Zugriff muss explizit autorisiert und verifiziert werden.
Zugangspflichten
Zugangspflichten bezeichnen gesetzliche oder regulatorische Vorgaben, die Organisationen dazu verpflichten, bestimmten Nutzergruppen Zugang zu Daten oder digitalen Infrastrukturen zu gewähren - z. B. zur Förderung von Wettbewerb, Innovation oder Transparenz.
Zugriffe
Zugriffe bezeichnen autorisierte oder unautorisierte Versuche, auf Daten, Systeme oder Anwendungen zuzugreifen. Im Datenkontext ist die Protokollierung und Steuerung von Zugriffen ein zentrales Element der Datensicherheit.
Zugriffsverletzungen
Zugriffsverletzungen bezeichnen unautorisierte oder fehlerhafte Zugriffe auf Daten oder Systeme. Sie stellen ein Sicherheitsrisiko dar und müssen dokumentiert und untersucht werden.
Zwei-Faktor-Authentifizierung
Zwei-Faktor-Authentifizierung (2FA) ist ein Sicherheitsmechanismus, bei dem der Zugriff auf Systeme oder Daten nur durch Kombination zweier unabhängiger Merkmale (z. B. Passwort + Code) erlaubt wird.