Glossar — D

DaaS (Desktop as a Service) ist ein Cloud-Dienst, bei dem vollständige virtuelle Desktop-Umgebungen über das Internet bereitgestellt werden. Der Nutzer greift dabei mit einem beliebigen Endgerät auf seinen virtuellen Desktop zu, der auf Servern des Anbieters läuft. Alle Daten und Anwendungen befinden sich in der Cloud, was die Verwaltung vereinfacht und den Gerätewechsel erleichtert. DaaS eignet sich besonders für Unternehmen mit vielen Remote-Mitarbeitern oder wechselnden Arbeitsplätzen.

Das Daily Scrum ist ein täglich stattfindendes, auf maximal 15 Minuten begrenztes Standup-Meeting im Scrum-Framework. Das Entwicklungsteam synchronisiert den Fortschritt und bespricht, was gestern erledigt wurde, was heute geplant ist und welche Hindernisse (Impediments) vorliegen. Ziel ist Transparenz, schnelle Kommunikation und die Identifikation von Blockern. Der Scrum Master moderiert das Meeting und sorgt dafür, dass es fokussiert und zeitlich begrenzt bleibt.

Gesammelte, aber ungenutzte Daten in Unternehmen, die gespeichert werden, jedoch keinen aktiven Mehrwert liefern.

Im IT-Kontext bezeichnet Darlehensarten die verschiedenen Finanzierungsformen für IT-Investitionen. Die wichtigsten Arten sind das Annuitätendarlehen (gleichbleibende Monatsraten aus Zins und Tilgung), das Tilgungsdarlehen (konstante Tilgung, sinkende Raten) und das endfällige Darlehen (Zinszahlungen laufend, Rückzahlung am Ende). Bei der Anschaffung von IT-Infrastruktur muss ein Unternehmen entscheiden, ob Kauf (ggf. mit Darlehen), Leasing oder Miete wirtschaftlich sinnvoller ist.

Database as a Service (DBaaS) ist ein Cloud-Servicemodell, bei dem Datenbankfunktionen über das Internet bereitgestellt und vom Anbieter betrieben werden. Der Nutzer muss sich nicht um Installation, Wartung, Backups oder Skalierung der Datenbank kümmern, sondern kann diese sofort nutzen. Bekannte Anbieter sind Amazon RDS, Google Cloud SQL und Azure SQL Database. DBaaS ist eine Ausprägung von Platform as a Service (PaaS) und reduziert den administrativen Aufwand erheblich.

Ein Datacenter (Rechenzentrum) ist eine speziell gesicherte und klimatisierte Einrichtung, in der Server, Netzwerkkomponenten und Speichersysteme zentral betrieben werden. Rechenzentren sorgen durch redundante Stromversorgung, Klimatechnik, Brandschutz und Zugangskontrollen für einen hochverfügbaren und sicheren Betrieb. Sie sind die physische Grundlage für Cloud-Dienste, Unternehmens-IT und das Internet. Große Cloud-Anbieter wie AWS, Microsoft Azure und Google betreiben weltweit Dutzende von Datacentern.

Data Cleaning (Datenbereinigung) bezeichnet den Prozess, fehlerhafte, inkonsistente, doppelte oder unvollständige Daten in einem Datensatz zu identifizieren und zu korrigieren. Ziel ist es, die Datenqualität zu verbessern, bevor Daten für Analysen oder Entscheidungsprozesse genutzt werden. Typische Schritte sind das Entfernen von Duplikaten, das Auffüllen fehlender Werte und die Standardisierung von Formaten. Data Cleaning ist ein wesentlicher Schritt in jedem Data-Science- und Business-Intelligence-Projekt.

Die Data Control Language (DCL) ist eine Teilmenge von SQL, die Befehle zur Steuerung von Zugriffsrechten auf Datenbankobjekte enthält. Die wichtigsten DCL-Befehle sind GRANT (Rechte vergeben) und REVOKE (Rechte entziehen). Mit DCL legt der Datenbankadministrator fest, welche Benutzer oder Rollen bestimmte Tabellen lesen, schreiben oder verändern dürfen. DCL ist ein wesentliches Werkzeug für die Datensicherheit und das Berechtigungsmanagement in Datenbanksystemen.

Die Data Definition Language (DDL) ist eine Teilmenge von SQL, die Befehle zum Erstellen, Ändern und Löschen von Datenbankstrukturen enthält. Zu den wichtigsten DDL-Befehlen gehören CREATE (Objekte erstellen), ALTER (Objekte ändern) und DROP (Objekte löschen). Mit DDL-Befehlen wird das Schema einer Datenbank definiert – also die Struktur von Tabellen, Indizes, Views und Constraints. DDL-Befehle werden bei der Datenbankmodellierung und -migration eingesetzt.

Ein Data Lake ist ein zentrales Datenspeichersystem, das große Mengen strukturierter, semistrukturierter und unstrukturierter Rohdaten in ihrem Originalformat speichert. Im Gegensatz zum Data Warehouse werden die Daten erst bei Bedarf strukturiert und analysiert (Schema on Read). Data Lakes werden häufig in Big-Data-Umgebungen eingesetzt, um Daten aus vielen verschiedenen Quellen zu sammeln und flexibel auswertbar zu machen. Typische Technologien sind Apache Hadoop und Amazon S3.

Data-Management (Datenmanagement) umfasst alle Prozesse, Richtlinien und Technologien zur Erfassung, Speicherung, Pflege, Sicherung und Nutzung von Daten in einer Organisation. Ziel ist es, die Datenqualität, -verfügbarkeit und -sicherheit dauerhaft sicherzustellen. Zu den Disziplinen des Data-Managements gehören Datenbankadministration, Data Governance, Datenschutz und Archivierung. Ein effektives Datenmanagement ist Grundlage für datengetriebene Geschäftsentscheidungen.

Die Data Manipulation Language (DML) ist eine Teilmenge von SQL, die Befehle zur Verarbeitung von Daten in Datenbanktabellen enthält. Die vier grundlegenden DML-Befehle sind SELECT (Daten abfragen), INSERT (Daten einfügen), UPDATE (Daten ändern) und DELETE (Daten löschen). DML-Befehle werden im täglichen Betrieb einer Datenbank am häufigsten verwendet, da sie die eigentliche Datenverwaltung übernehmen.

Analyse großer Datenmengen mit statistischen Methoden, um Muster, Trends und Zusammenhänge zu entdecken.

Data Monitoring bezeichnet die kontinuierliche Überwachung von Datenströmen, Datenqualität und Datenbankzuständen, um Anomalien, Fehler oder Qualitätsprobleme frühzeitig zu erkennen. Es werden dabei Metriken wie Vollständigkeit, Aktualität, Konsistenz und Genauigkeit der Daten überwacht. Tools wie Apache Kafka, Grafana oder spezielle Datenqualitäts-Plattformen werden eingesetzt. Data Monitoring ist wichtiger Bestandteil des Datenmanagements und der IT-Betriebsüberwachung.

Data Profiling ist der Prozess der Analyse von Daten, um deren Struktur, Inhalt, Qualität und Beziehungen zu verstehen. Es werden statistische Kennzahlen wie Werteverteilungen, Nullwert-Anteile, Duplikate und Datentypen ermittelt. Data Profiling ist eine wichtige Vorstufe für Data Cleaning und die Datenmigration, da es Qualitätsprobleme aufdeckt. Es unterstützt IT-Fachkräfte dabei, fundierte Entscheidungen über Datenstrukturierung und -verarbeitung zu treffen.

Datenhaltungsschicht in der Drei-Schichten-Architektur, zuständig für Speicherung und Verwaltung der Daten.

Versionierungssystem (DVC) für Datensätze und ML-Modelle, ähnlich wie Git für Quellcode.

Ein Data Warehouse ist ein zentrales, themenorientiertes Datenspeichersystem, das Daten aus verschiedenen operativen Quellsystemen integriert, bereinigt und für Analysezwecke optimiert bereitstellt. Es folgt dem Schema on Write-Prinzip: Daten werden vor dem Speichern strukturiert und transformiert (ETL-Prozess). Data Warehouses bilden die Grundlage für Business Intelligence, Reporting und Entscheidungsunterstützung. Im Unterschied zum Data Lake speichert das Data Warehouse nur strukturierte, aufbereitete Daten.

Daten sind rohe, unverarbeitete Fakten, Zahlen, Zeichen oder Symbole, die noch keinen interpretierten Bedeutungsgehalt besitzen. Erst durch Einordnung in einen Kontext und Interpretation werden aus Daten Informationen. In der Informatik werden Daten digital als Binärzahlen (0 und 1) dargestellt und gespeichert. Daten sind die Grundlage jeder Informationsverarbeitung und gelten heute als wichtiger Wirtschaftsfaktor ("Daten sind das neue Öl").

Datenalterung bezeichnet den Prozess, bei dem gespeicherte Daten im Laufe der Zeit an Aktualität, Relevanz oder Richtigkeit verlieren. Ursachen sind veränderte Realweltbedingungen, fehlende Pflege oder technologische Veränderungen. Veraltete Daten können zu Fehlentscheidungen und Sicherheitsrisiken führen. IT-Fachkräfte müssen Maßnahmen wie regelmäßige Datenprüfungen, Löschfristen und Datenqualitätsmanagement kennen, um Datenalterung zu kontrollieren.

Datenanalyse bezeichnet die systematische Untersuchung von Datensätzen, um Muster, Zusammenhänge und Erkenntnisse zu gewinnen, die für Entscheidungsprozesse genutzt werden können. Sie umfasst Methoden der deskriptiven, explorativen, prädiktiven und präskriptiven Analyse. Werkzeuge wie SQL, Python (pandas), R oder Business-Intelligence-Tools werden eingesetzt. Für IT-Fachkräfte ist Datenanalyse relevant für die Auswertung von Systemdaten, Kundeninformationen und Geschäftsprozessen.

Datenarten klassifizieren Daten nach ihrer Herkunft, Struktur oder Verwendung. Man unterscheidet u. a. zwischen Stammdaten (gleichbleibende Grunddaten wie Kundenadressen), Bewegungsdaten (transaktionsbezogene Daten wie Bestellungen) und Metadaten (Daten über Daten). Weitere Unterscheidungen betreffen strukturierte Daten (in Tabellen organisiert), semistrukturierte Daten (z. B. JSON, XML) und unstrukturierte Daten (z. B. Texte, Bilder). Das Verständnis von Datenarten ist grundlegend für Datenbankdesign und Datenmanagement.

Bereinigung, Transformation und Anreicherung von Rohdaten zur Vorbereitung auf Analyse oder Weiterverarbeitung.

Ein Datenbankmanagementsystem (DBMS) ist eine Software, die die Verwaltung, Speicherung, Abfrage und Manipulation von Daten in einer Datenbank ermöglicht. Es stellt eine Schnittstelle zwischen den Anwendungsprogrammen und den gespeicherten Daten bereit und übernimmt Aufgaben wie Zugriffskontrolle, Transaktionsverwaltung und Datensicherung. Bekannte DBMS sind MySQL, PostgreSQL, Microsoft SQL Server und Oracle. Das DBMS ist zusammen mit der Datenbasis das Datenbanksystem.

Strukturbeschreibung einer Datenbank: definiert Tabellen, Spalten, Datentypen und Beziehungen.

Software (z. B. PostgreSQL, MySQL), die Datenbanken verwaltet und Anfragen von Clients beantwortet.

Ein Datenbanksystem besteht aus zwei Komponenten: der Datenbasis (den eigentlichen gespeicherten Daten) und dem Datenbankmanagementsystem (DBMS), das die Verwaltung und den Zugriff auf diese Daten steuert. Datenbanksysteme ermöglichen die strukturierte, redundanzarme und konsistente Speicherung großer Datenmengen. Sie unterstützen gleichzeitigen Mehrnutzerzugriff und stellen Mechanismen zur Datensicherung und Wiederherstellung bereit.

Gespeicherte Prozedur, die automatisch bei bestimmten Datenbankereignissen (INSERT, UPDATE, DELETE) ausgelöst wird.

Die Datenbasis ist der Teil eines Datenbanksystems, der die eigentlichen Nutzdaten enthält – also alle gespeicherten Tabellen, Datensätze und Beziehungen zwischen ihnen. Sie wird durch das Datenbankmanagementsystem (DBMS) verwaltet und ist von der Verwaltungssoftware konzeptionell getrennt. Die Datenbasis umfasst sowohl die eigentlichen Daten als auch die Metadaten (Schemainformationen), die ihre Struktur beschreiben.

Datendurchsatz (auch Throughput) bezeichnet die Datenmenge, die ein System oder eine Netzwerkverbindung in einem bestimmten Zeitraum tatsächlich übertragen kann. Er wird typischerweise in Bit pro Sekunde (bps, Mbps, Gbps) gemessen und ist eine wichtige Kenngröße für die Leistungsbewertung von Netzwerken und Datenbanksystemen. Im Gegensatz zur theoretischen Bandbreite gibt der Datendurchsatz die reale Übertragungsleistung unter Berücksichtigung von Protokolloverhead und Fehlerraten an. Er ist prüfungsrelevant bei der Netzwerkplanung und -analyse.

Weg, den Daten durch ein System nehmen – von der Eingabe über Verarbeitung bis zur Ausgabe oder Speicherung.

Ein Datenflussplan (auch Datenflussprogramm oder DFD – Data Flow Diagram) ist eine grafische Darstellung, die den Fluss von Daten durch ein System oder einen Prozess veranschaulicht. Er zeigt, woher Daten kommen, wie sie verarbeitet werden und wohin sie fließen, ohne dabei auf die zeitliche Reihenfolge oder die Programmierlogik einzugehen. Datenflusspläne werden in der Systemanalyse und beim Softwareentwurf eingesetzt, um Systeme zu dokumentieren und zu verstehen.

Ein Datenformat definiert die Struktur und Syntax, in der Daten gespeichert oder übertragen werden. Gängige Datenformate in der IT sind CSV, JSON, XML, YAML und binäre Formate wie Parquet. Die Wahl des richtigen Datenformats beeinflusst Lesbarkeit, Kompatibilität, Speichereffizienz und Verarbeitungsgeschwindigkeit. IT-Fachkräfte müssen Datenformate kennen, um Daten zwischen Systemen korrekt auszutauschen und zu verarbeiten.

Schicht einer Softwarearchitektur, die für die persistente Speicherung und den Zugriff auf Daten verantwortlich ist.

Datenherkunft (auch Data Provenance oder Data Lineage) beschreibt, woher Daten stammen, wie sie erfasst wurden und welchen Weg sie durch verschiedene Systeme und Transformationen genommen haben. Die Kenntnis der Datenherkunft ist für die Bewertung der Datenqualität und -vertrauenswürdigkeit entscheidend. Im Kontext von Big Data und Data Warehouses ermöglicht die Nachvollziehbarkeit der Datenherkunft eine bessere Fehleranalyse und die Einhaltung von Compliance-Anforderungen.

Datenkonsistenz bedeutet, dass Daten in einem Datenbanksystem widerspruchsfrei und korrekt sind – alle definierten Integritätsregeln und Constraints werden eingehalten. Eine inkonsistente Datenbank enthält beispielsweise doppelte oder widersprüchliche Einträge. Datenbankmanagementsysteme stellen Konsistenz durch Transaktionsverwaltung sicher: Entweder werden alle Änderungen einer Transaktion gemeinsam übernommen (COMMIT) oder vollständig rückgängig gemacht (ROLLBACK). Datenkonsistenz ist eines der ACID-Prinzipien.

Datenmenge bezeichnet das Volumen an digitalen Daten, gemessen in Einheiten wie Byte, Kilobyte (KB), Megabyte (MB), Gigabyte (GB), Terabyte (TB) oder Petabyte (PB). Die weltweit produzierte Datenmenge wächst exponentiell – ein Phänomen, das als "Big Data" bezeichnet wird. Für IT-Profis ist das Verständnis von Datenmengen relevant bei der Planung von Speicher-kapazitäten, Netzwerkbandbreiten und der Wahl geeigneter Datenverarbeitungsverfahren.

Datenmigration bezeichnet den Prozess der Übertragung von Daten von einem Quellsystem in ein Zielsystem, beispielsweise beim Wechsel einer Software oder beim Umzug in die Cloud. Dabei müssen Daten häufig transformiert, bereinigt und an das neue Datenformat angepasst werden. Eine sorgfältige Planung ist entscheidend, um Datenverluste zu vermeiden und die Datenqualität zu erhalten. Datenmigration ist ein typischer Bestandteil von IT-Projekten wie ERP-Einführungen oder System-Updates.

Ein Datenmodell ist eine abstrakte Darstellung der Datenstrukturen, Beziehungen und Regeln, die in einem Informationssystem verwendet werden. Es beschreibt, welche Daten gespeichert werden, wie sie strukturiert sind und welche Beziehungen zwischen ihnen bestehen. Wichtige Modellierungstypen sind das Entity-Relationship-Modell (ERM), das relationale Datenmodell und objektorientierte Modelle. Das Datenmodell ist Grundlage für den Entwurf von Datenbanken und ist in der IHK-Prüfung prüfungsrelevant.

Maß für die Eignung von Daten für ihren Verwendungszweck – Kriterien: Vollständigkeit, Korrektheit, Konsistenz.

Eine Datenquelle ist der Ursprungsort, von dem Daten für Verarbeitungs- oder Analyseprozesse bezogen werden. Datenquellen können Datenbanken, APIs, Dateisysteme, Sensoren, Webservices oder manuelle Eingaben sein. Die Qualität, Aktualität und Vertrauenswürdigkeit der Datenquelle bestimmt maßgeblich die Güte der darauf aufbauenden Analysen. Im ETL-Prozess ist die Datenquelle der Ausgangspunkt für die Datenintegration in ein Zielsystem.

Datenquellen sind alle Ursprünge, aus denen Daten für die Verarbeitung oder Analyse gewonnen werden. Sie können intern (z. B. Unternehmensdatenbanken, ERP-Systeme, CRM-Systeme) oder extern (z. B. öffentliche Statistiken, APIs, soziale Netzwerke, Sensoren) sein. Im Kontext von Business Intelligence und Data Warehousing werden Daten aus verschiedenen Quellen zusammengeführt, um ein vollständiges Bild zu erhalten. Die Qualität und Zuverlässigkeit der Datenquellen bestimmt maßgeblich die Qualität der Analyseergebnisse.

Datenredundanz bezeichnet das mehrfache Vorhandensein identischer Daten an verschiedenen Stellen in einem System oder einer Datenbank. Redundanz entsteht häufig in unstrukturierten Datensammlungen und führt zu Problemen wie erhöhtem Speicherbedarf und Inkonsistenzen bei Änderungen. Die Datenbanktheorie zielt durch Normalisierung darauf ab, Redundanz zu minimieren. Allerdings kann kontrollierte Redundanz auch gewollt sein, z. B. für Backups oder zur Steigerung der Performance in Data Warehouses.

Ein Datensatz ist eine logisch zusammengehörige Menge von Datenfeldern, die gemeinsam einen Eintrag in einer Datenbanktabelle bilden. In einer relationalen Datenbank entspricht ein Datensatz einer Zeile (Tupel) in einer Tabelle. Jedes Feld des Datensatzes enthält einen Wert für eine bestimmte Eigenschaft (Attribut), beispielsweise enthält ein Kundendatensatz Felder wie Name, Adresse und Telefonnummer.

Definierte Verbindung zwischen Systemen oder Komponenten zum standardisierten Austausch von Daten.

Datenschutz umfasst alle Maßnahmen, die den Schutz personenbezogener Daten vor Missbrauch, unberechtigtem Zugriff und Verlust sicherstellen. In der EU ist der Datenschutz durch die Datenschutz-Grundverordnung (DSGVO) geregelt, die seit 2018 gilt. Sie gibt Betroffenen das Recht auf Auskunft, Berichtigung und Löschung ihrer Daten. Unternehmen müssen die Grundsätze der Datensparsamkeit, Zweckbindung und Transparenz einhalten und bei Verstößen mit empfindlichen Bußgeldern rechnen.

Datensicherheit bezeichnet alle technischen und organisatorischen Maßnahmen, die Daten vor Verlust, unberechtigtem Zugriff, Manipulation und Zerstörung schützen. Sie umfasst Aspekte wie Verschlüsselung, Zugriffskontrollen, Backups, Firewalls und sichere Übertragungsprotokolle. Während Datenschutz vor allem personenbezogene Daten und die Privatsphäre schützt, bezieht sich Datensicherheit auf alle Arten von Daten, unabhängig vom Personenbezug. Beide Bereiche ergänzen sich und sind für Unternehmen rechtlich und wirtschaftlich relevant.

Ein Datenstrom (englisch: Data Stream) ist eine kontinuierliche, sequenzielle Abfolge von Daten, die in Echtzeit erzeugt und übertragen werden. Im Gegensatz zur Stapelverarbeitung (Batch Processing) werden Datenströme sofort bei ihrer Entstehung verarbeitet. Anwendungsbeispiele sind Sensordaten in IoT-Systemen, Live-Videoübertragungen und Börsenkurse. Stream-Processing-Systeme wie Apache Kafka ermöglichen die Echtzeit-Analyse von Datenströmen.

Organisationsform für Daten im Speicher, z. B. Array, Liste oder Baum, die effizienten Zugriff ermöglicht.

Ein Datentyp definiert die Art der Werte, die eine Variable oder ein Datenbankfeld speichern kann, sowie die erlaubten Operationen darauf. Grundlegende Datentypen in der Programmierung sind Integer, Float, String, Boolean und Char; Datenbanken kennen zusätzlich Typen wie DATE, TIMESTAMP oder BLOB. Die korrekte Wahl des Datentyps ist wichtig für Speichereffizienz, Datenintegrität und die Vermeidung von Laufzeitfehlern. In der IHK-Prüfung werden Datentypen bei Datenbankdesign und Programmieraufgaben abgefragt.

Komplexe Zahlen bestehen aus einem Realteil und einem Imaginärteil (z. B. 3 + 4i). In Programmiersprachen existieren spezielle Datentypen für komplexe Zahlen: Python bietet den eingebauten Typ `complex`, C++ den Typ `std::complex<T>` aus der Standardbibliothek. Für wissenschaftliche und technische Berechnungen, etwa in der Elektrotechnik oder Signalverarbeitung, sind komplexe Zahlen unerlässlich. Einige Sprachen wie Java oder PHP unterstützen komplexe Zahlen nicht nativ und erfordern externe Bibliotheken.

Datenübertragung bezeichnet den Prozess der Übermittlung digitaler Daten von einem Sender zu einem Empfänger über ein Übertragungsmedium. Sie kann kabelgebunden (z. B. über Ethernet, Glasfaser) oder kabellos (z. B. über WLAN, Mobilfunk) erfolgen. Wichtige Kenngrößen sind die Übertragungsrate (Bandbreite in bit/s), die Latenz (Verzögerungszeit) und die Fehlerrate. Protokolle wie TCP/IP regeln, wie Daten zuverlässig und in der richtigen Reihenfolge übertragen werden.

Die Datenübertragungsrate (auch Bandbreite oder Bitrate) gibt an, wie viele Datenbits pro Sekunde über ein Übertragungsmedium übermittelt werden können. Die Einheit ist bit/s oder in höheren Einheiten Mbit/s (Megabit pro Sekunde) oder Gbit/s (Gigabit pro Sekunde). Man unterscheidet die theoretische Nettodatenrate von der praktisch erreichbaren Bruttodatenrate, die durch Protokoll-Overhead und Störungen stets geringer ist. Typische Werte: WLAN-802.11ac bis 1.300 Mbit/s, Gigabit-Ethernet 1.000 Mbit/s.

Geordnete Liste numerischer Werte, die einen Datenpunkt in einem mehrdimensionalen Merkmalsraum repräsentiert.

Gesamtheit der Prozesse zur Erfassung, Speicherung, Pflege und Bereitstellung von Daten im Unternehmen.

Grafische Darstellung von Daten durch Diagramme und Dashboards, um Muster und Trends erkennbar zu machen.

DBaaS (Database as a Service) ist ein Cloud-Servicemodell, bei dem Datenbankdienste vollständig über das Internet bereitgestellt und vom Anbieter verwaltet werden. Der Nutzer erhält Zugriff auf Datenbankfunktionen ohne eigene Installation, Wartung oder Verwaltung der zugrundeliegenden Infrastruktur. Bekannte DBaaS-Angebote sind Amazon RDS, Google Cloud SQL, Azure Database und MongoDB Atlas. DBaaS ist eine Unterform von PaaS und ermöglicht schnelle Skalierung und hohe Verfügbarkeit.

DCL (Data Control Language) ist eine Teilmenge von SQL, die Befehle zur Verwaltung von Datenbankberechtigungen enthält. Mit GRANT werden Zugriffsrechte an Benutzer oder Rollen vergeben, mit REVOKE werden sie entzogen. Beispiel: `GRANT SELECT ON tabelle TO benutzer;` erlaubt dem Benutzer, die Tabelle zu lesen. DCL ist ein wesentliches Instrument des Datenbankadministrators zur Umsetzung des Prinzips der minimalen Rechtevergabe (Least Privilege).

DDL (Data Definition Language) ist eine Teilmenge von SQL zur Definition und Änderung der Datenbankstruktur. Die wichtigsten DDL-Befehle sind CREATE (Tabellen und andere Objekte anlegen), ALTER (Struktur ändern) und DROP (Objekte löschen). Im Gegensatz zu DML-Befehlen (die Daten verändern) verändern DDL-Befehle das Schema der Datenbank. DDL-Befehle werden beim Datenbankdesign, bei Migrationen und bei Schema-Anpassungen eingesetzt.

DDoS (Distributed Denial of Service) ist ein Cyberangriff, bei dem ein Angreifer ein Zielsystem (z. B. einen Webserver) durch eine Flut von Anfragen aus vielen verteilten Quellen gleichzeitig überlastet, sodass es für legitime Nutzer nicht mehr erreichbar ist. Die Angriffe werden meist über sogenannte Botnetze durchgeführt – Netzwerke aus mit Schadsoftware infizierten Geräten. Schutzmaßnahmen sind unter anderem DDoS-Mitigation-Dienste, Content Delivery Networks (CDNs) und Rate Limiting.

DDR (Double Data Rate) bezeichnet eine Arbeitsspeichertechnologie, bei der Daten sowohl auf der steigenden als auch auf der fallenden Flanke des Taktsignals übertragen werden – also doppelt so schnell wie bei einfacher Datenrate (SDR). Die Generationen DDR1, DDR2, DDR3, DDR4 und DDR5 unterscheiden sich in Taktfrequenz, Spannung und Transferraten. Aktueller Standard ist DDR5, das in modernen Mainboards für deutlich höhere Speicherbandbreiten sorgt.

Debugging ist der systematische Prozess der Identifikation, Analyse und Behebung von Fehlern (Bugs) in einem Computerprogramm. Entwickler nutzen dafür Debugging-Tools (Debugger), mit denen sie den Programmablauf schrittweise verfolgen, Variablenwerte inspizieren und Breakpoints setzen können. Häufige Debugging-Techniken sind das schrittweise Durchlaufen (Step Through), das Setzen von Haltepunkten (Breakpoints) und das Ausgeben von Zwischenwerten (Logging). Debugging ist eine der wichtigsten Fähigkeiten in der Softwareentwicklung.

Ein Dedicated Server (dedizierter Server) ist ein physischer Server, der ausschließlich einem einzigen Kunden oder einer Anwendung zur Verfügung steht. Im Gegensatz zu Shared-Hosting-Umgebungen teilt der Nutzer keine Ressourcen mit anderen und hat volle Kontrolle über Betriebssystem, Hardware und Konfiguration. Dedicated Server bieten höchste Leistung, Sicherheit und Anpassbarkeit, sind jedoch teurer als virtuelle oder geteilte Lösungen. Sie eignen sich für ressourcenintensive Anwendungen und sensible Daten.

Teilgebiet des maschinellen Lernens mit mehrschichtigen neuronalen Netzen zur Erkennung komplexer Muster.

Deeskalationsstrategien sind Methoden und Verhaltensweisen, um Konflikte oder angespannte Situationen in der Kommunikation zu entschärfen und eine konstruktive Lösung zu ermöglichen. Im IT-Kontext kommen sie im Kundensupport, Helpdesk oder bei Projektkonfliken zum Einsatz, wenn Kunden oder Kollegen unzufrieden oder aufgebracht sind. Techniken umfassen aktives Zuhören, Verständnis zeigen, sachliche Kommunikation und das Anbieten konkreter Lösungswege. Für IT-Fachkräfte sind Deeskalationsstrategien im Rahmen von Kommunikation und Kundenbetreuung prüfungsrelevant.

Die Definition of Done (DoD) ist eine im Scrum-Framework vereinbarte Checkliste von Kriterien, die erfüllt sein müssen, damit ein Arbeitspaket (User Story oder Task) als vollständig abgeschlossen gilt. Sie stellt sicher, dass alle Teammitglieder ein gemeinsames Verständnis von Qualität und Vollständigkeit haben. Typische Kriterien sind Code-Review, Tests, Dokumentation und erfolgreiche Integration. Die DoD verhindert unvollständige Ergebnisse und erhöht die Transparenz im Entwicklungsprozess.

Verlustfreier Kompressionsalgorithmus, der LZ77 und Huffman-Codierung kombiniert; Basis von ZIP und PNG.

Das deklarative Programmierparadigma beschreibt einen Programmierstil, bei dem der Programmierer beschreibt, was das Programm tun soll, ohne den genauen Ablauf (das Wie) festzulegen. Das Gegenteil ist das imperative Paradigma, bei dem Schritt für Schritt vorgegeben wird, wie ein Ergebnis berechnet wird. Typische Vertreter der deklarativen Programmierung sind SQL (Datenbankabfragen), HTML (Strukturbeschreibung von Webseiten) und funktionale Sprachen wie Haskell. Deklarativer Code ist oft kürzer und leichter zu verstehen.

SQL-DML-Befehl zum Löschen von Datensätzen aus einer Tabelle, optional mit WHERE-Bedingung.

Ein Denial of Service (DoS)-Angriff zielt darauf ab, einen Dienst oder ein System für legitime Nutzer unerreichbar zu machen, indem es mit Anfragen überflutet oder durch Ausnutzung von Schwachstellen zum Absturz gebracht wird. Im Unterschied zum DDoS-Angriff geht der Angriff bei DoS von einem einzelnen System aus. Typische Angriffsmethoden sind SYN-Flood, Ping of Death und UDP-Flood. Schutzmaßnahmen sind Firewalls, Rate Limiting und Intrusion Detection Systeme.

Entwurfsprinzip, bei dem Abhängigkeiten einer Klasse von außen übergeben statt intern erzeugt werden.

DESC (kurz für DESCENDING, deutsch: absteigend) ist ein Schlüsselwort in SQL, das in ORDER BY-Klauseln verwendet wird, um Abfrageergebnisse in absteigender Reihenfolge zu sortieren – also von dem größten zum kleinsten Wert bzw. von Z nach A. Das Gegenteil ist ASC (ASCENDING, aufsteigend), das den Standardfall darstellt. Beispiel: `SELECT * FROM produkte ORDER BY preis DESC;` gibt alle Produkte sortiert nach dem höchsten Preis zuerst aus.

Bewährte, wiederverwendbare Lösungsschablone für häufig auftretende Entwurfsprobleme in der Softwareentwicklung.

Nutzerzentrierter Innovationsprozess in iterativen Phasen: Verstehen, Ideen entwickeln, Prototypen und Testen.

Desktop as a Service (DaaS) ist ein Cloud-Modell, bei dem vollständige virtuelle Desktop-Umgebungen vom Anbieter gehostet und über das Internet bereitgestellt werden. Der Nutzer greift mit einem Thin Client, Tablet oder gewöhnlichem Rechner per Browser oder Remote-Desktop-Protokoll auf seinen virtuellen Desktop zu. Alle Rechenleistung, Speicherung und Anwendungen befinden sich beim Anbieter in der Cloud. DaaS reduziert den Verwaltungsaufwand für Endgeräte und erleichtert das sichere Arbeiten im Homeoffice.

Ein Desktop-PC (auch Standrechner oder Tischcomputer) ist ein stationärer Personal Computer, der für den Einsatz an einem festen Arbeitsplatz konzipiert ist. Er besteht aus einem Gehäuse (Tower oder Kompaktgehäuse) mit Hauptplatine, CPU, Arbeitsspeicher, Festplatte und Netzteil sowie externen Peripheriegeräten wie Monitor, Tastatur und Maus. Im Vergleich zu Laptops bieten Desktop-PCs eine bessere Aufrüstbarkeit, mehr Leistung pro Euro und eine einfachere Reparierbarkeit, sind aber ortsgebunden.

Ein Destruktor ist eine spezielle Methode in der objektorientierten Programmierung, die automatisch aufgerufen wird, wenn ein Objekt zerstört oder aus dem Speicher entfernt wird. Er wird verwendet, um Ressourcen freizugeben, Datenbankverbindungen zu schließen oder Dateien zu sichern. In PHP wird der Destruktor mit der Methode `__destruct()` implementiert; in C++ mit `~Klassenname()`. Das Verständnis von Konstruktoren und Destruktoren ist für OOP-Aufgaben in der IHK-Prüfung relevant.

Ein Detachable ist ein Gerät, das sowohl als Laptop als auch als Tablet genutzt werden kann, indem die Tastatur vom Display getrennt wird. Im Gegensatz zum Convertible wird bei einem Detachable die Tastatur vollständig abgenommen statt umgeklappt. Diese Bauform bietet maximale Flexibilität für mobile Arbeitsszenarien.

Feinplanung der Softwareimplementierung: Klassendiagramme, Algorithmen und Schnittstellen werden genau spezifiziert.

DevOps (Development and Operations) ist eine Kultur und Methodik, die die Zusammenarbeit zwischen Softwareentwicklung (Dev) und IT-Betrieb (Ops) fördert, um schnellere und zuverlässigere Softwarelieferung zu ermöglichen. Kernprinzipien sind Automatisierung, kontinuierliche Integration und Bereitstellung (CI/CD), Monitoring und eine gemeinsame Verantwortungskultur. DevOps-Werkzeuge umfassen Git, Docker, Jenkins, Kubernetes und Ansible. DevOps ist ein zentrales Konzept moderner IT-Organisationen und in der IHK-Prüfung relevant.

DevOps ist eine Methode, die Softwareentwicklung (Development) und IT-Betrieb (Operations) enger miteinander verzahnt. Ziel ist es, Software schneller, zuverlässiger und in kürzeren Zyklen auszuliefern. Durch Automatisierung, kontinuierliche Integration (CI) und kontinuierliche Auslieferung (CD) werden Silos zwischen Entwicklungs- und Betriebsteams aufgebrochen. Der DevOps-Ansatz fördert eine Kultur der gemeinsamen Verantwortung für den gesamten Softwarelebenszyklus.

Dezimalpräfixe sind Vorsätze wie Kilo (k = 10³), Mega (M = 10⁶) oder Giga (G = 10⁹), die Vielfache einer Maßeinheit bezeichnen. In der IT werden sie häufig für Datenmengen verwendet, wobei jedoch oft Binärpräfixe (Kibi, Mebi, Gibi) gemeint sind, was zu Verwirrung führen kann. Ein Kilobyte kann je nach Kontext 1.000 Byte (Dezimal) oder 1.024 Byte (Binär) bedeuten.

Das Dezimalsystem ist das im Alltag gebräuchliche Zahlensystem mit der Basis 10, das die Ziffern 0 bis 9 verwendet. Jede Stelle in einer Zahl entspricht einer Zehnerpotenz (Einer, Zehner, Hunderter usw.). In der IT wird es für die Kommunikation mit Menschen verwendet, während Computer intern im Binärsystem rechnen. Die Umwandlung zwischen Dezimal- und Binärsystem ist eine grundlegende Fertigkeit in der IT-Ausbildung.

DHCP (Dynamic Host Configuration Protocol) ist ein Netzwerkprotokoll, das Geräten automatisch eine IP-Adresse sowie weitere Netzwerkkonfigurationen wie Subnetzmaske, Standardgateway und DNS-Server zuweist. Ohne DHCP müsste jeder Netzwerkteilnehmer manuell konfiguriert werden. Der DHCP-Server verwaltet einen Pool verfügbarer IP-Adressen und vergibt diese für eine bestimmte Leasingdauer. DHCP vereinfacht die Netzwerkverwaltung erheblich, besonders in großen Umgebungen.

Datenstruktur (auch Hash-Map), die Schlüssel-Wert-Paare speichert und schnellen Zugriff über den Schlüssel bietet.

Dienst-Protokolle (auch Anwendungsprotokolle genannt) sind Protokolle der OSI-Schichten 5–7, die konkrete Netzwerkdienste wie E-Mail, Webseiten oder Dateiübertragung ermöglichen. Bekannte Beispiele sind HTTP/HTTPS (Web), SMTP/IMAP/POP3 (E-Mail), FTP (Dateiübertragung) und SSH (sichere Fernzugriff). Jeder Dienst nutzt dabei einen festgelegten Port, über den er erreichbar ist.

Digitale Daten sind Informationen, die in diskreten, eindeutigen Werten (meist 0 und 1) codiert und gespeichert werden. Im Gegensatz zu analogen Daten, die kontinuierliche Wertverläufe darstellen, sind digitale Daten verlustfrei kopierbar und können ohne Qualitätsverlust übertragen werden. Alle modernen Computer verarbeiten ausschließlich digitale Daten in Form von Bits und Bytes.

Digitale Disruption beschreibt den Prozess, durch den neue digitale Technologien oder Geschäftsmodelle bestehende Märkte, Branchen oder Unternehmen grundlegend verändern oder verdrängen. Bekannte Beispiele sind Streaming-Dienste, die die Videothek überflüssig gemacht haben, oder Online-Plattformen, die traditionellen Einzelhandel herausfordern. Unternehmen müssen sich kontinuierlich anpassen, um nicht von disruptiven Newcomern überholt zu werden.

Digitale Plattformen sind Online-Infrastrukturen, die verschiedene Nutzergruppen (z. B. Käufer und Verkäufer) zusammenbringen und Transaktionen oder Interaktionen ermöglichen. Bekannte Beispiele sind Amazon Marketplace, App Stores oder soziale Netzwerke. Plattformen erzeugen Netzwerkeffekte: Je mehr Nutzer teilnehmen, desto wertvoller wird die Plattform für alle Beteiligten. In der digitalen Wirtschaft dominieren oft wenige große Plattformbetreiber ganze Branchen.

Digitale Transformation bezeichnet den umfassenden Wandel, den Unternehmen und Gesellschaft durch den Einsatz digitaler Technologien durchlaufen. Dabei werden nicht nur Prozesse digitalisiert, sondern Geschäftsmodelle, Unternehmenskultur und Kundenbeziehungen grundlegend neu gedacht. Erfolgreiche digitale Transformation erfordert technologische Investitionen ebenso wie organisatorischen Wandel und die Qualifizierung von Mitarbeitern.

Digitalisierung bezeichnet die Umwandlung analoger Informationen, Prozesse und Abläufe in digitale Form. Im engeren Sinne meint es die technische Überführung (z. B. Papier in PDF), im weiteren Sinne die Nutzung digitaler Technologien zur Optimierung von Geschäftsprozessen. Digitalisierung ist eine Voraussetzung für die weitergehende digitale Transformation von Unternehmen.

Der Digital Workplace bezeichnet den modernen, digital ausgestatteten Arbeitsplatz, der Mitarbeitern ortsunabhängiges Arbeiten ermöglicht. Er umfasst alle digitalen Tools, Anwendungen und Infrastrukturen, die für produktives Arbeiten benötigt werden — von Kollaborationsplattformen über Cloud-Dienste bis zu mobilen Endgeräten. Ein gut gestalteter Digital Workplace fördert Produktivität, Zusammenarbeit und Mitarbeiterzufriedenheit.

DIMM (Dual Inline Memory Module) ist die gängige Bauform für Arbeitsspeichermodule in Desktop-Computern und Servern. Im Gegensatz zu älteren SIMM-Modulen haben DIMMs auf beiden Seiten der Platine unabhängige Kontakte, was eine breitere Datenübertragung ermöglicht. Gängige Varianten sind DDR4- und DDR5-DIMMs, die sich in Takt, Spannung und Leistungsaufnahme unterscheiden.

Deutsches Institut für Normung – erstellt nationale Normen für Technik, Qualität und Sicherheit.

DIN 66001 ist eine deutsche Norm, die Sinnbilder (Symbole) für Datenflusspläne, Programmablaufpläne und Systemflusspläne festlegt. Sie definiert standardisierte grafische Darstellungen für Elemente wie Prozesse, Entscheidungen, Ein-/Ausgaben und Verbindungspfeile. Diese Norm bildet die Grundlage für eine einheitliche und verständliche Darstellung von Algorithmen und Programmabläufen in der IT-Ausbildung.

DIN 66261 ist eine deutsche Norm, die Sinnbilder für Struktogramme (Nassi-Shneiderman-Diagramme) definiert. Struktogramme stellen Programmlogik durch ineinander geschachtelte Kästen dar und machen die Struktur eines Algorithmus besonders übersichtlich. Im Gegensatz zu Programmablaufplänen nach DIN 66001 sind Struktogramme für strukturierte Programmierung optimiert und vermeiden "Spaghetti-Code"-Darstellungen.

Dependency Inversion Principle – SOLID-Prinzip: Module sollen von Abstraktionen, nicht von konkreten Klassen abhängen.

Sofortige Rückmeldung an ein System oder einen Nutzer, die eine unmittelbare Korrektur von Abweichungen ermöglicht.

Diskussionstypen beschreiben verschiedene Verhaltensrollen, die Menschen in Gruppengesprä­chen einnehmen können, wie den Moderator, den Kritiker, den Schweiger oder den Vielredner. Das Wissen über Diskussionstypen hilft IT-Fachkräften, Teambesprechungen, Projektmeetings und Kundengespräche effektiver zu gestalten und alle Teilnehmer einzubeziehen. Eine gezielte Ansprache unterschiedlicher Diskussionstypen verbessert die Qualität der Ergebnisse und das Gruppenklima. Das Thema ist im Bereich Kommunikation und Teamarbeit prüfungsrelevant.

Disposition bezeichnet in der Betriebswirtschaft die Planung und Steuerung des Materialeinsatzes und der Lagerbestände. Ziel ist es, Materialien zum richtigen Zeitpunkt, in der richtigen Menge und zum günstigen Preis bereitzustellen — ohne übermäßige Lagerkosten zu verursachen. Eine gute Disposition verhindert sowohl Produktionsunterbrechungen durch fehlende Materialien als auch übermäßige Kapitalbindung durch zu hohe Bestände.

Der dispositive Faktor ist in der Betriebswirtschaftslehre der leitende und planende Produktionsfaktor, also das Management und die Unternehmensführung. Er koordiniert und kombiniert die anderen Produktionsfaktoren (Arbeit, Betriebsmittel, Werkstoffe) zielgerichtet. Der Begriff geht auf den Ökonomen Erich Gutenberg zurück und betont die besondere Bedeutung unternehmerischer Entscheidungen für den Produktionsprozess.

DISTINCT ist ein SQL-Schlüsselwort, das bei SELECT-Abfragen doppelte Ergebniszeilen aus der Ausgabe entfernt. Mit `SELECT DISTINCT spalte FROM tabelle` erhält man nur eindeutige Werte in der Ergebnismenge. DISTINCT wird eingesetzt, wenn man z. B. alle unterschiedlichen Städte aus einer Kundentabelle ermitteln möchte, ohne dass jede Stadt mehrfach erscheint.

SQL-Schlüsselwort (korrekt: DISTINCT), das doppelte Zeilen aus dem Abfrageergebnis entfernt.

Die Divisionsmethode ist ein Verfahren zur Umrechnung von Dezimalzahlen in andere Zahlensysteme (z. B. Binär- oder Hexadezimalsystem). Dabei wird die Dezimalzahl wiederholt durch die Basis des Zielsystems geteilt, und die Reste werden in umgekehrter Reihenfolge notiert — das ergibt die Zahl im neuen System. Zum Beispiel ergibt die Dezimalzahl 13 im Binärsystem durch wiederholte Division durch 2 die Binärzahl 1101.

DIY-Service (Do-It-Yourself-Service) bezeichnet ein Servicemodell, bei dem Kunden oder Nutzer Aufgaben selbst erledigen, anstatt Fachpersonal zu beauftragen. Im IT-Kontext bezieht sich das auf Self-Service-Portale, bei denen Nutzer eigenständig Software installieren, Tickets erstellen oder Konfigurationen vornehmen können. DIY-Services reduzieren den Support-Aufwand und erhöhen die Nutzerautonomie. Sie setzen jedoch voraus, dass die Benutzeroberfläche intuitiv und gut dokumentiert ist.

Python-Webframework nach dem Prinzip "Batteries included" für schnelle Entwicklung sicherer Webanwendungen.

Der DMAIC-Zyklus ist ein strukturiertes Problemlösungs- und Prozessverbesserungsmodell aus der Six-Sigma-Methodik mit den Phasen Define (Definieren), Measure (Messen), Analyze (Analysieren), Improve (Verbessern) und Control (Steuern). Er wird eingesetzt, um bestehende Geschäfts- oder IT-Prozesse datenbasiert zu optimieren und Fehlerquoten zu reduzieren. Jede Phase hat klar definierte Ziele und Methoden, wie z. B. Ursache-Wirkungs-Analysen oder statistische Auswertungen. Der DMAIC-Zyklus ist im IT-Qualitätsmanagement und Prozessoptimierung prüfungsrelevant.

DML (Data Manipulation Language) ist die Teilmenge der SQL-Sprache, mit der Daten in Datenbanktabellen bearbeitet werden. Zu den DML-Befehlen gehören INSERT (Daten einfügen), UPDATE (Daten ändern), DELETE (Daten löschen) und SELECT (Daten abfragen). Im Gegensatz zur DDL (Data Definition Language), die die Tabellenstruktur verwaltet, arbeitet DML auf den Dateninhalten der Tabellen.

Ein DMS (Dokumentenmanagementsystem) ist eine Software zur digitalen Erfassung, Verwaltung, Archivierung und Bereitstellung von Dokumenten und Dateien in Unternehmen. Es ermöglicht die strukturierte Ablage, Versionierung und revisionssichere Aufbewahrung von Geschäftsdokumenten. DMS-Lösungen unterstützen auch Workflows wie Freigabeprozesse und erleichtern die Suche nach Dokumenten erheblich.

Eine DMZ (Demilitarisierte Zone) ist ein abgetrenntes Netzwerksegment, das öffentlich erreichbare Server (z. B. Webserver, E-Mail-Server) vom internen Unternehmensnetz isoliert. Sie liegt zwischen dem Internet und dem internen Netz und wird durch Firewalls auf beiden Seiten geschützt. Durch die DMZ kann ein Angreifer, der einen öffentlichen Server kompromittiert, nicht direkt auf das interne Netz zugreifen.

DNS (Domain Name System) ist das "Telefonbuch des Internets" und übersetzt lesbare Domainnamen wie www.beispiel.de in numerische IP-Adressen. Ohne DNS müssten Internetadressen als IP-Adressen eingegeben werden. DNS ist hierarchisch aufgebaut mit Root-Servern, Top-Level-Domain-Servern (z. B. für .de) und autoritativen Nameservern für einzelne Domains. DNS-Anfragen werden meist über UDP auf Port 53 übertragen.

Docker ist eine Open-Source-Plattform zur Containerisierung von Anwendungen, die es ermöglicht, Software und ihre Abhängigkeiten in isolierten, portablen Containern zu verpacken und auszuführen. Container sind leichtgewichtiger als virtuelle Maschinen, da sie den Betriebssystemkern des Hosts nutzen. Docker vereinfacht Entwicklung, Test und Deployment durch konsistente Laufzeitumgebungen (Dev, Test, Prod). Wesentliche Konzepte sind Images, Container, Dockerfile und Docker Compose.

Dokumentation umfasst alle schriftlichen Unterlagen, die ein IT-Projekt oder -System beschreiben — von Anforderungen über Architektur und Quellcode-Kommentare bis zu Benutzerhandbüchern. Eine gute Dokumentation ist unverzichtbar für Wartung, Weiterentwicklung und den Wissenstransfer im Team. In der IT-Ausbildung wird unterschieden zwischen technischer Dokumentation (für Entwickler) und Benutzerdokumentation (für Anwender).

Die Dokumentation von Software umfasst alle Texte, Diagramme und Kommentare, die Aufbau, Funktionsweise und Bedienung einer Software erklären. Man unterscheidet zwischen interner Dokumentation (Quellcode-Kommentare, API-Dokumentation für Entwickler) und externer Dokumentation (Benutzerhandbücher, Installationsanleitungen). Fehlende oder veraltete Dokumentation zählt zu den häufigsten Qualitätsproblemen in der Softwareentwicklung.

Eine Dokumenten-Datenbank ist ein NoSQL-Datenbanksystem, das Daten als flexible Dokumente (meist im JSON- oder BSON-Format) speichert statt in starren Tabellen. Jedes Dokument kann eine eigene Struktur haben, was besonders für heterogene oder sich ändernde Datenstrukturen geeignet ist. Bekannte Vertreter sind MongoDB und CouchDB. Dokumentendatenbanken werden häufig in modernen Webanwendungen eingesetzt.

Das Domain Name System (DNS) ist ein verteiltes, hierarchisches Verzeichnissystem, das Domainnamen in IP-Adressen auflöst und so die Nutzung von Klarnamen im Internet ermöglicht. Die Hierarchie beginnt bei der Root-Zone ("."), gefolgt von Top-Level-Domains (.de, .com), Second-Level-Domains (beispiel.de) und weiteren Subdomains. DNS-Einträge verschiedener Typen (A, AAAA, MX, CNAME) ermöglichen unterschiedliche Zuordnungen.

Die doppelte Buchführung ist das grundlegende System der kaufmännischen Buchführung, bei dem jeder Geschäftsvorfall auf mindestens zwei Konten gleichzeitig gebucht wird (Soll und Haben). Sie ermöglicht eine vollständige, lückenlose und fehlererkennende Erfassung aller Geschäftsvorfälle. Das Ergebnis der doppelten Buchführung sind Bilanz und Gewinn-und-Verlust-Rechnung, die ein vollständiges Bild der Vermögens- und Ertragslage des Unternehmens zeigen.

Datenstruktur, bei der jeder Knoten Zeiger auf Vorgänger und Nachfolger besitzt – bidirektionale Traversierung möglich.

Englische Bezeichnung für doppelt verkettete Liste; jeder Knoten enthält einen Vor- und Rückwärtszeiger.

Ein Double Word (DWORD) ist eine Dateneinheit in der Computertechnik, die aus 32 Bit (4 Byte) besteht — also dem Doppelten eines 16-Bit-Words. Double Words werden häufig für Integer-Werte, Speicheradressen und Registerwerte in 32-Bit-Prozessoren verwendet. In der Programmierung ist DWORD ein gängiger Datentyp für vorzeichenlose 32-Bit-Ganzzahlen mit einem Wertebereich von 0 bis 4.294.967.295.

Downtime (Ausfallzeit) bezeichnet den Zeitraum, in dem ein IT-System, ein Server oder ein Dienst nicht verfügbar ist. Man unterscheidet zwischen geplanter Downtime (z. B. für Wartungsarbeiten) und ungeplanter Downtime (durch Fehler oder Ausfälle). Downtime verursacht in Unternehmen direkte Kosten durch Produktivitätsverlust und ggf. Umsatzausfälle. Die Verfügbarkeit von Systemen wird oft als Prozentsatz angegeben (z. B. "99,9 % Verfügbarkeit" = max. 8,76 Stunden Downtime pro Jahr).

Werkzeug zur automatischen Erzeugung von API-Dokumentation aus speziell kommentierten Quellcode-Dateien.

DRAM (Dynamic Random Access Memory) ist die gebräuchlichste Form des flüchtigen Arbeitsspeichers in Computern. Im Gegensatz zu SRAM muss DRAM regelmäßig aufgefrischt (refresht) werden, da die gespeicherten Ladungen in den Kondensatoren langsam entweichen. DRAM ist kostengünstiger und dichter integrierbar als SRAM, aber auch langsamer und energieaufwändiger für den Refresh-Zyklus. Moderne DDR-Varianten (DDR4, DDR5) optimieren Takt und Energieeffizienz.

Das Drei-Phasen-Modell (nach Kurt Lewin) beschreibt Veränderungsprozesse in drei Phasen: Auftauen (Unfreezing) bestehender Strukturen, die eigentliche Veränderung (Change/Moving) und das Einfrieren (Refreezing) des neuen Zustands. Im IT-Projektmanagement und Change Management wird es genutzt, um technische oder organisatorische Veränderungen strukturiert zu planen und durchzuführen. Es sensibilisiert für den menschlichen Aspekt von Veränderungen und die Notwendigkeit, neue Prozesse zu verankern. Das Modell ist im Bereich IT-Management und Projektmanagement prüfungsrelevant.

Softwarearchitektur mit Präsentations-, Logik- und Datenhaltungsschicht zur klaren Trennung der Zuständigkeiten.

Drive-by-Exploits sind Angriffe, bei denen Schadsoftware automatisch auf dem Computer eines Opfers installiert wird, sobald es eine manipulierte Webseite besucht — ohne dass der Nutzer etwas herunterladen oder anklicken muss. Angreifer nutzen dabei Sicherheitslücken im Browser, Browser-Plugins (Flash, Java) oder im Betriebssystem aus. Regelmäßige Software-Updates und der Einsatz moderner Browser mit Sandbox-Technologie schützen vor Drive-by-Exploits.

SQL-DDL-Befehl zum vollständigen Löschen eines Datenbankobjekts inklusive Struktur und aller enthaltenen Daten.

DROP COLUMN ist ein DDL-Befehl in SQL, der eine Spalte dauerhaft aus einer bestehenden Tabelle entfernt. Die Syntax lautet: `ALTER TABLE tabellenname DROP COLUMN spaltenname`. Da dieser Vorgang nicht rückgängig gemacht werden kann und alle Daten in der Spalte unwiderruflich gelöscht werden, ist vorherige Datensicherung dringend empfohlen.

DROP INDEX ist ein DDL-Befehl in SQL, der einen bestehenden Index von einer Tabelle entfernt. Indizes beschleunigen Abfragen, belegen aber Speicherplatz und verlangsamen Schreiboperationen. Mit `DROP INDEX indexname` (Syntax variiert je nach Datenbanksystem) wird ein nicht mehr benötigter oder kontraproduktiver Index gelöscht. Nach dem Löschen eines Index können betroffene Abfragen deutlich langsamer werden.

DROP TABLE ist ein DDL-Befehl in SQL, der eine gesamte Tabelle einschließlich aller ihrer Daten und Strukturdefinitionen dauerhaft aus der Datenbank entfernt. Die Syntax lautet: `DROP TABLE tabellenname`. Dieser Befehl ist irreversibel — alle Datensätze der Tabelle sind danach unwiederbringlich verloren. In Produktionsdatenbanken sollte DROP TABLE nur nach sorgfältiger Prüfung und mit vorheriger Datensicherung ausgeführt werden.

Drucker sind Ausgabegeräte, die digitale Dokumente oder Bilder auf physische Medien (meist Papier) übertragen. Die wichtigsten Druckertypen sind Laserdrucker (elektrofotografisches Verfahren, hohe Druckgeschwindigkeit) und Tintenstrahldrucker (kostengünstig, für Fotodrucke geeignet). Für den Einsatz in Unternehmen sind Druckkosten pro Seite, Druckgeschwindigkeit, Netzwerkfähigkeit und Wartungsaufwand entscheidende Auswahlkriterien.

Der Druckkostenvergleich ist eine betriebswirtschaftliche Kalkulation, die die Gesamtkosten verschiedener Druckerlösungen gegenüberstellt, um die wirtschaftlichste Option zu ermitteln. Dabei werden Anschaffungskosten, Verbrauchsmaterialien (Toner, Tinte, Trommel), Wartungskosten und Energiekosten über einen definierten Zeitraum berücksichtigt. Der Kostenvergleich wird über die Berechnung der Gesamtbetriebskosten (TCO — Total Cost of Ownership) durchgeführt.

Drucktechnologie bezeichnet das physikalische oder chemische Verfahren, mit dem ein Drucker Zeichen und Bilder auf einem Medium erzeugt. Die wichtigsten Technologien sind: Laserdruck (Toner wird elektrostatisch aufgetragen und thermisch fixiert), Tintenstrahldruck (winzige Tintentröpfchen werden präzise aufgespritzt) und Nadeldruck (Nadeln schlagen ein Farbband auf Papier, für Endlosdruck geeignet). Die Wahl der Drucktechnologie beeinflusst Druckkosten, Qualität und Anwendungsgebiet.

Don't Repeat Yourself – Prinzip, das Code-Duplikation vermeidet, indem jede Logik nur einmal definiert wird.

Die DSGVO (Datenschutz-Grundverordnung) ist eine EU-Verordnung, die seit Mai 2018 den Umgang mit personenbezogenen Daten in Europa einheitlich regelt. Sie gibt Betroffenen Rechte wie Auskunft, Berichtigung, Löschung und Datenübertragbarkeit und verpflichtet Unternehmen zu Transparenz, Datensparsamkeit und technischen Schutzmaßnahmen. Verstöße können mit Bußgeldern von bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes geahndet werden.

DSL (Digital Subscriber Line) bezeichnet eine Gruppe von Technologien, die über herkömmliche Telefonleitungen (Kupferdoppelader) eine schnelle digitale Datenübertragung ermöglichen. Verbreitete Varianten sind ADSL (asymmetrisch, Download schneller als Upload), VDSL (sehr hohe Geschwindigkeit) und SDSL (symmetrisch). Die Übertragungsrate hängt von der Leitungslänge und -qualität ab. DSL war lange die vorherrschende Breitbandtechnologie in Deutschland und ist im Bereich Netzwerktechnik prüfungsrelevant.

Das duale Studium verbindet ein Hochschulstudium mit einer praktischen Ausbildung oder Berufstätigkeit im Unternehmen. Phasen an der Hochschule wechseln sich mit Praxisphasen im Betrieb ab, sodass Theorie und Praxis eng verknüpft werden. Absolventen erhalten sowohl einen anerkannten akademischen Abschluss als auch praktische Berufserfahrung, was ihre Chancen auf dem Arbeitsmarkt verbessert.

Das Dualsystem (Binärsystem) ist ein Zahlensystem mit der Basis 2, das nur die Ziffern 0 und 1 verwendet. Es ist die Grundlage aller digitalen Computer, da Transistoren und logische Schaltkreise genau zwei Zustände (Spannung an/aus) darstellen können. Jede Stelle im Dualsystem entspricht einer Zweierpotenz (1, 2, 4, 8, 16 …). Die Dezimalzahl 13 entspricht im Dualsystem der Zahl 1101.

Dynamische Bindung (auch Late Binding oder Polymorphismus zur Laufzeit) bezeichnet das Prinzip in der objektorientierten Programmierung, bei dem die tatsächlich aufgerufene Methode erst zur Laufzeit, nicht zur Compile-Zeit, bestimmt wird. Entscheidend ist der tatsächliche Typ des Objekts, nicht der deklarierende Typ der Referenz. Dynamische Bindung ermöglicht Polymorphismus und ist Grundlage für erweiterbare, wartbare Softwarearchitekturen. Das Konzept ist zentral für OOP und in der IHK-Prüfung prüfungsrelevant.

Dynamische Testverfahren prüfen Software durch tatsächliche Ausführung des Programmcodes mit konkreten Eingabedaten. Im Gegensatz zu statischen Verfahren (Code-Review, statische Analyse) wird das Programm wirklich gestartet und sein Verhalten beobachtet. Zu den dynamischen Testverfahren zählen Unit-Tests, Integrationstests, Systemtests und Akzeptanztests. Man unterscheidet zudem zwischen Whitebox-Tests (mit Kenntnis des Quellcodes) und Blackbox-Tests (nur Eingabe/Ausgabe bekannt).