Glossar — S
SaaS (Software as a Service) ist ein Cloud-Computing-Modell, bei dem Software nicht lokal installiert wird, sondern über das Internet als Dienst bereitgestellt und genutzt wird. Der Anbieter übernimmt Betrieb, Wartung und Updates der Software, während der Kunde in der Regel eine monatliche oder jährliche Lizenzgebühr zahlt. Bekannte Beispiele sind Microsoft 365, Google Workspace, Salesforce oder Slack. SaaS gehört neben IaaS und PaaS zu den drei Hauptmodellen des Cloud Computing.
Ein SaaS-Vertrag (Software as a Service) regelt die Nutzung einer cloudbasierten Software, die der Anbieter betreibt und der Kunde über das Internet nutzt. Typische Inhalte sind Service-Level-Agreements (SLAs) zu Verfügbarkeit und Support, Regelungen zur Datensicherheit und Datenschutz (DSGVO), Nutzungsentgelte (meist Abonnementmodell) sowie Bedingungen zur Datenmigration und Vertragskündigung. SaaS-Verträge sind ein zentrales Thema bei der Beschaffung und dem Einsatz von IT-Dienstleistungen im Unternehmen.
Sampling bezeichnet die Stichprobenerhebung bei der Datenanalyse: Aus einer großen Datenmenge wird eine repräsentative Teilmenge ausgewählt, um Aussagen über die Gesamtheit zu treffen. In der IT wird Sampling z. B. bei der Leistungsüberwachung eingesetzt, um nicht jeden einzelnen Messwert zu erfassen, sondern nur ausgewählte Stichproben. Auch in der Audioverarbeitung bezeichnet Sampling die Digitalisierung analoger Signale durch regelmäßiges Abtasten (Nyquist-Theorem).
Ein Storage Area Network (SAN) ist ein spezialisiertes Hochgeschwindigkeitsnetzwerk, das Server mit zentralen Speichersystemen verbindet. Im Gegensatz zu einem NAS bietet ein SAN blockbasierten Zugriff auf den Speicher, sodass die angebundenen Server den Speicher wie eine lokale Festplatte nutzen können. SANs werden vor allem in Rechenzentren eingesetzt, wo hohe Datendurchsatzraten und geringe Latenzen erforderlich sind. Typische Protokolle sind Fibre Channel und iSCSI.
SATA (Serial ATA) ist eine Schnittstelle zur Anbindung von Massenspeichern wie Festplatten und SSDs an das Mainboard. Gegenüber dem älteren PATA-Standard überträgt SATA Daten seriell statt parallel, was dünnere Kabel, höhere Übertragungsraten und eine einfachere Verkabelung ermöglicht. Die aktuelle Version SATA III erreicht eine Übertragungsrate von bis zu 6 Gbit/s. Bei modernen Hochleistungs-SSDs wird SATA zunehmend durch NVMe über PCIe abgelöst.
Formel zur Berechnung bedingter Wahrscheinlichkeiten; Grundlage für probabilistische KI-Klassifikatoren.
SCADA (Supervisory Control and Data Acquisition) ist ein System zur Überwachung, Steuerung und Datenerfassung von industriellen Prozessen und Infrastrukturen wie Kraftwerken, Wasserversorgung oder Produktionsanlagen. SCADA-Systeme bestehen aus Fernwirkeinheiten (RTUs/PLCs), Kommunikationsnetzwerken und zentralen Leitständen mit Visualisierungssoftware (HMI). Die IT-Sicherheit von SCADA-Systemen ist besonders kritisch, da Angriffe auf diese Systeme unmittelbar physische Schäden verursachen können.
Ein Scanner ist ein Eingabegerät, das physische Dokumente oder Objekte in digitale Bilddaten umwandelt. Flatbed-Scanner eignen sich für einzelne Seiten und Fotos, Dokumentenscanner ermöglichen das automatische Einzugsscanning größerer Stapel. Die Bildqualität wird in dpi (dots per inch) gemessen. In der IT-Sicherheit bezeichnet „Scanner" auch Software, die Netzwerke oder Systeme auf offene Ports und Schwachstellen prüft.
Scareware ist eine Form von Schadsoftware, die Benutzer durch gefälschte Warnmeldungen erschreckt und zur Installation weiterer Schadsoftware oder zur Zahlung verleitet. Typische Beispiele sind Popup-Fenster, die einen angeblichen Virenbefall melden und zur Installation eines „Antivirenprogramms" auffordern, das in Wirklichkeit selbst Malware ist. Scareware nutzt psychologischen Druck und Angst als Angriffsmittel. Sie zählt zu den Social-Engineering-Methoden.
Grafisches JavaFX-Designwerkzeug zum Erstellen von Benutzeroberflächen per Drag-and-Drop als FXML-Datei.
Schadenskategorien klassifizieren mögliche Schäden nach ihrer Art und Schwere im Rahmen der IT-Sicherheit. Typische Kategorien sind Imageschäden, finanzielle Schäden, rechtliche Konsequenzen und Beeinträchtigungen des Geschäftsbetriebs. Die BSI-Grundschutz-Methodik unterscheidet zudem nach der Schadenshöhe: vernachlässigbar, begrenzt, beträchtlich und existenzbedrohend. Die korrekte Einordnung von Schäden ist Grundlage für die Schutzbedarfsfeststellung.
Schadenszenarien beschreiben konkrete Situationen, in denen ein Sicherheitsvorfall zu einem Schaden führen kann. Sie werden im Rahmen der Risikoanalyse und Schutzbedarfsfeststellung entwickelt, um realistische Bedrohungslagen abzubilden. Ein Schadensszenario kombiniert eine Bedrohung (z. B. Ransomware-Angriff) mit einem Angriffsobjekt (z. B. Kundendatenbank) und den möglichen Konsequenzen (z. B. Datenverlust, Bußgelder, Reputationsschaden). Szenarien helfen dabei, Sicherheitsmaßnahmen gezielt zu planen.
Schichtenmodelle strukturieren komplexe Netzwerkkommunikation in übereinander liegende Funktionsebenen, wobei jede Schicht bestimmte Aufgaben übernimmt und Dienste für die darüber liegende Schicht bereitstellt. Das bekannteste Modell ist das OSI-Referenzmodell mit 7 Schichten (von Bitübertragung bis Anwendung). Das praxisnähere TCP/IP-Modell fasst diese auf 4 Schichten zusammen. Schichtenmodelle erleichtern die Entwicklung interoperabler Netzwerkprotokolle und die systematische Fehleranalyse.
GUI-Element, mit dem Nutzer einen Wert innerhalb eines Bereichs durch Verschieben einer Markierung wählen.
Schleifen sind Kontrollstrukturen in der Programmierung, die eine Folge von Anweisungen wiederholt ausführen. Man unterscheidet kopfgesteuerte Schleifen (while, for — Bedingung wird vor dem ersten Durchlauf geprüft) und fußgesteuerte Schleifen (do-while — mindestens ein Durchlauf ist garantiert). Zählschleifen (for) werden eingesetzt, wenn die Anzahl der Wiederholungen bekannt ist; bedingte Schleifen (while) laufen, solange eine Bedingung erfüllt ist. Eine Endlosschleife entsteht, wenn die Abbruchbedingung nie eintritt.
Datenstruktur, die einem eindeutigen Schlüssel einen Wert zuordnet; Grundlage von Maps und NoSQL-Datenbanken.
Schlüsselwörter (auch reservierte Wörter) sind vordefinierte Bezeichner einer Programmiersprache, die eine festgelegte Bedeutung haben und nicht als Bezeichner für Variablen, Funktionen oder Klassen verwendet werden dürfen. Beispiele in Python sind `if`, `else`, `for`, `while`, `def`, `class`, `import`. In SQL zählen `SELECT`, `FROM`, `WHERE` oder `JOIN` zu den Schlüsselwörtern. Jede Sprache hat ihren eigenen Satz an Schlüsselwörtern, der ihren Sprachumfang definiert.
Phänomen aus der Chaostheorie: Kleine Anfangsänderungen können in komplexen Systemen große Wirkungen haben.
Schnittstellen (Interfaces) sind definierte Verbindungspunkte zwischen Hardwarekomponenten oder Softwaresystemen, über die Daten und Signale ausgetauscht werden. Bei Hardware unterscheidet man interne Schnittstellen (PCIe, SATA) und externe Schnittstellen (USB, HDMI, DisplayPort). In der Softwareentwicklung legt eine Schnittstelle fest, welche Methoden eine Klasse implementieren muss, ohne deren konkrete Umsetzung zu definieren. Schnittstellen fördern die Modularität und Austauschbarkeit von Komponenten.
Dokumente zur Nutzereinweisung (Handbücher, Tutorials) oder Produktvermarktung (Broschüren, Präsentationen).
Schulungsunterlagen sind didaktisch aufbereitete Materialien, die bei der Einweisung von Benutzern in IT-Systeme und -Prozesse eingesetzt werden. Dazu gehören Präsentationen, Benutzerhandbücher, Schritt-für-Schritt-Anleitungen, Videos und E-Learning-Module. Gute Schulungsunterlagen sind verständlich, praxisnah und auf die Zielgruppe abgestimmt. Im IT-Betrieb sind sie z. B. bei der Einführung neuer Software, bei Sicherheitsschulungen oder bei der Einarbeitung neuer Mitarbeiter unverzichtbar.
Der Schutzbedarf beschreibt, welchen Grad an Schutz ein IT-System oder eine Information hinsichtlich Vertraulichkeit, Integrität und Verfügbarkeit benötigt. Im BSI-Grundschutz werden drei Schutzstufen unterschieden: normal, hoch und sehr hoch. Je höher der Schutzbedarf, desto aufwändiger müssen die Sicherheitsmaßnahmen sein. Der Schutzbedarf wird auf Basis der möglichen Schäden bei einem Sicherheitsvorfall ermittelt.
Die Schutzbedarfsanalyse ist ein systematisches Verfahren zur Ermittlung, welchen Schutz IT-Systeme, Anwendungen und Daten benötigen. Ausgangspunkt sind die zu schützenden Geschäftsprozesse und die von ihnen verarbeiteten Informationen. Für jedes Asset wird bewertet, welche Schäden bei einem Verlust von Vertraulichkeit, Integrität oder Verfügbarkeit entstehen würden. Das Ergebnis bildet die Grundlage für die Auswahl geeigneter Sicherheitsmaßnahmen.
Die Schutzbedarfsfeststellung ist ein zentraler Schritt im IT-Grundschutz-Prozess nach BSI, bei dem für alle IT-Systeme, Anwendungen und Daten der konkrete Schutzbedarf (normal, hoch, sehr hoch) bezüglich der drei Grundwerte Vertraulichkeit, Integrität und Verfügbarkeit bestimmt wird. Sie basiert auf dem sogenannten Maximumprinzip: Der höchste Schutzbedarf der auf einem System verarbeiteten Daten bestimmt den Schutzbedarf des gesamten Systems. Das Ergebnis fließt in das Sicherheitskonzept ein.
Schutzmaßnahmen sind technische, organisatorische und personelle Vorkehrungen, die dazu dienen, Risiken für IT-Systeme und Daten zu reduzieren. Technische Maßnahmen umfassen z. B. Firewalls, Verschlüsselung und Zugriffskontrollen; organisatorische Maßnahmen sind Richtlinien, Notfallpläne und Zuständigkeitsregelungen; personelle Maßnahmen beinhalten Schulungen und Sensibilisierung. Die Auswahl der Maßnahmen richtet sich nach dem festgestellten Schutzbedarf und dem angestrebten Sicherheitsniveau.
Die drei klassischen Schutzziele der IT-Sicherheit sind Vertraulichkeit (nur Berechtigte haben Zugriff auf Informationen), Integrität (Daten werden unverändert und korrekt gespeichert und übertragen) und Verfügbarkeit (Systeme und Daten stehen bei Bedarf zur Verfügung). Diese drei Ziele werden häufig als CIA-Triade bezeichnet (Confidentiality, Integrity, Availability). Darüber hinaus werden in modernen Modellen auch Authentizität, Verbindlichkeit und Nicht-Abstreitbarkeit als erweiterte Schutzziele genannt.
Python-Bibliothek für maschinelles Lernen mit Algorithmen für Klassifikation, Regression und Clustering.
SCM steht für Supply Chain Management und bezeichnet die integrierte Planung, Steuerung und Überwachung aller Waren-, Informations- und Finanzflüsse entlang der gesamten Lieferkette — vom Rohstofflieferanten bis zum Endkunden. Ziel ist die Optimierung von Kosten, Lieferzeiten und Qualität. In der IT werden SCM-Systeme eingesetzt, um Lagerbestände, Bestellprozesse und Logistik digital zu koordinieren. Eine effiziente Supply Chain ist ein entscheidender Wettbewerbsvorteil.
Scrum ist ein agiles Framework für die Softwareentwicklung, das auf iterativen Entwicklungszyklen (Sprints) von 1–4 Wochen basiert. Zentrale Rollen sind der Product Owner (verantwortet das Produkt-Backlog), der Scrum Master (beseitigt Hindernisse und moderiert) und das Entwicklungsteam (selbstorganisiert, cross-funktional). Regelmäßige Meetings wie Daily Standup, Sprint Review und Sprint Retrospektive fördern Transparenz und kontinuierliche Verbesserung. Scrum eignet sich besonders für Projekte mit sich ändernden Anforderungen.
SDN (Software Defined Networking) ist ein Netzwerkkonzept, bei dem die Steuerungsebene (Control Plane) von der Datenübertragungsebene (Data Plane) getrennt und in einer zentralen Software (SDN-Controller) zusammengefasst wird. Netzwerkgeräte werden dadurch programmierbar und können zentral konfiguriert und überwacht werden, was die Flexibilität und Automatisierung von Netzwerken erheblich erhöht. SDN ist ein wichtiger Baustein für moderne Cloud-Infrastrukturen und Software-definierte Rechenzentren.
Der Second-Level-Support ist die zweite Eskalationsstufe im IT-Support-Modell und bearbeitet Anfragen, die der First-Level-Support (Helpdesk) nicht lösen konnte. Er verfügt über tiefergehendes Fachwissen und hat oft direkten Zugriff auf Systeme, um Konfigurationen zu ändern oder Fehleranalysen durchzuführen. Die Abgrenzung zwischen First-, Second- und Third-Level-Support sowie die zugehörigen Eskalationswege sind klassische Prüfungsthemen im IT-Service-Management.
Security by Design bezeichnet den Ansatz, Sicherheitsanforderungen bereits in der Planungs- und Entwurfsphase eines Systems zu berücksichtigen, anstatt sie nachträglich hinzuzufügen. Sicherheitsmechanismen werden damit zum integralen Bestandteil der Softwarearchitektur. Für IT-Fachleute ist dieses Prinzip prüfungsrelevant, weil es die Grundlage moderner sicherer Softwareentwicklung bildet.
Verbindung zwischen Neuronen derselben Schicht, die sich gegenseitig hemmen oder verstärken können.
Sekundärdaten sind bereits vorhandene Daten, die ursprünglich für einen anderen Zweck erhoben wurden und nun für eine neue Analyse wiederverwendet werden. Quellen können interne Unternehmensdaten (z. B. CRM-Daten, Verkaufsstatistiken) oder externe Quellen (z. B. Statistiken von Behörden, Studien, öffentliche Datensätze) sein. Im Gegensatz zu Primärdaten sind Sekundärdaten schneller und kostengünstiger verfügbar, jedoch möglicherweise nicht optimal auf die aktuelle Fragestellung zugeschnitten.
Daten, die ursprünglich für einen anderen Zweck erhoben wurden und für eine neue Analyse weiterverwendet werden.
Quelle bereits vorhandener Daten wie Statistikämter oder Berichte; Alternative zur eigenen Primärerhebung.
Die Sekundärverkabelung (auch Stockwerksverkabelung) ist nach EN 50173 die Verkabelungsebene, die den Gebäudeverteiler (EV) mit den Etagenverteilern (BV) verbindet. Sie überbrückt also die Verbindung zwischen Gebäude- und Stockwerksebene. Typischerweise werden hierfür Lichtwellenleiter oder hochwertige Kupferkabel eingesetzt. Zusammen mit der Primärverkabelung (Campusverkabelung) und der Tertiärverkabelung (horizontale Verkabelung zum Arbeitsplatz) bildet sie das strukturierte Verkabelungssystem nach dem 3-Ebenen-Modell.
Eigenschaft einer Oberfläche, Bedienung und Zustand ohne externe Hilfe verständlich zu kommunizieren.
Eigenverantwortliches Übernehmen und Priorisieren von Aufgaben zur effektiven Selbstorganisation.
SELECT ist das grundlegende SQL-Kommando zur Abfrage von Daten aus einer oder mehreren Datenbanktabellen. Mit `SELECT spalte1, spalte2 FROM tabelle WHERE bedingung` lassen sich gezielt Datensätze abrufen. Ergänzende Klauseln wie `JOIN` (Verknüpfung von Tabellen), `GROUP BY` (Gruppierung), `ORDER BY` (Sortierung) und `HAVING` (Filterbedingung für Gruppen) ermöglichen komplexe Auswertungen. SELECT verändert keine Daten und gehört zur DML (Data Manipulation Language).
Selektion ist eine Grundstruktur der Programmierung (auch Verzweigung oder bedingte Anweisung) und steuert den Programmablauf abhängig von einer Bedingung. Die einfachste Form ist die if-else-Anweisung: Ist eine Bedingung wahr, wird ein Codeblock ausgeführt, andernfalls ein alternativer. Mehrfachverzweigungen werden mit if-else-if-Ketten oder switch-case realisiert. Selektion ist neben Sequenz und Iteration eine der drei Grundstrukturen der strukturierten Programmierung.
Semistrukturierte Daten liegen zwischen vollständig strukturierten Daten (Tabellen in relationalen Datenbanken) und unstrukturierten Daten (Freitext, Bilder). Sie besitzen zwar eine gewisse Struktur durch Trennzeichen, Tags oder Schlüssel-Wert-Paare, folgen aber keinem fixen Schema. Typische Formate sind XML, JSON und CSV. Da nicht alle Datensätze dieselben Felder aufweisen müssen, bieten semistrukturierte Daten mehr Flexibilität — werden jedoch in relationalen Datenbanken schwieriger verwaltet als vollständig strukturierte Daten.
Sensoren sind Bauelemente, die physikalische Größen wie Temperatur, Druck, Helligkeit, Bewegung oder Feuchtigkeit erfassen und in elektrische Signale umwandeln. In der IT und im IoT (Internet of Things) liefern Sensoren die Rohdaten für automatisierte Systeme, Steuerungen und Analysen. Typische Beispiele sind Temperatursensoren in Serverräumen, Bewegungsmelder für Alarmanlagen oder GPS-Sensoren in mobilen Geräten. Die gelieferten analogen oder digitalen Messwerte werden von Mikrocontrollern oder Computern weiterverarbeitet.
Die Sequenz ist die einfachste Grundstruktur der Programmierung: Anweisungen werden nacheinander in der Reihenfolge ausgeführt, in der sie im Quellcode stehen. Jede Anweisung wird genau einmal ausgeführt, bevor die nächste beginnt. Zusammen mit Selektion (Verzweigung) und Iteration (Schleifen) bildet die Sequenz die drei Grundbausteine der strukturierten Programmierung. In UML-Sequenzdiagrammen bezeichnet Sequenz auch den zeitlichen Ablauf von Nachrichten zwischen Objekten oder Systemkomponenten.
Ein Sequenzdiagramm ist ein UML-Diagrammtyp, der die zeitliche Abfolge von Nachrichten und Interaktionen zwischen Objekten oder Systemkomponenten darstellt. Es zeigt, in welcher Reihenfolge Methoden aufgerufen werden und wie Objekte miteinander kommunizieren. In der IHK-Prüfung wird es häufig zur Modellierung von Anwendungsfällen und Systemabläufen eingesetzt.
Ein Server ist ein Computer oder ein Programm, das Dienste und Ressourcen für andere Computer (Clients) in einem Netzwerk bereitstellt. Server können verschiedene Aufgaben übernehmen, etwa Dateiablage, Webhosting oder Datenbankbetrieb. Das Client-Server-Modell ist ein grundlegendes Konzept in der Netzwerktechnik und prüfungsrelevant für IT-Azubis.
Serverdienste (auch Netzwerkdienste) sind Softwareprogramme, die auf einem Server laufen und Funktionen für Clients im Netzwerk bereitstellen. Typische Serverdienste sind DHCP (IP-Adressvergabe), DNS (Namensauflösung), HTTP/HTTPS (Webseiten), FTP (Dateiübertragung), SMTP/IMAP (E-Mail), NTP (Zeitsynchronisation) und SMB/NFS (Dateifreigabe). Jeder Dienst kommuniziert über festgelegte Portnummern. Die Verwaltung von Serverdiensten ist eine Kernaufgabe von IT-Administratoren.
Server-Virtualisierung bezeichnet die Technik, auf einem physischen Server mehrere virtuelle Server (VMs) gleichzeitig zu betreiben. Ein Hypervisor teilt dabei die Hardware-Ressourcen wie CPU, RAM und Speicher zwischen den virtuellen Maschinen auf. Diese Technologie erhöht die Ressourcenauslastung, senkt Kosten und erleichtert die Administration von IT-Infrastrukturen.
Serviceanfragen (Service Requests) sind formelle Anfragen von Nutzern an den IT-Servicedesk, die keine Störungen, sondern standardisierte Leistungen wie Passwortrücksetzungen oder Softwareinstallationen betreffen. Sie werden im ITIL-Framework vom Incident Management abgegrenzt und über definierte Prozesse bearbeitet. Für IT-Fachleute sind sie ein zentrales Element des täglichen Betriebs.
Servicearten beschreiben die verschiedenen Kategorien von IT-Dienstleistungen, die ein Unternehmen intern oder extern anbietet, etwa Infrastrukturservices, Anwendungsservices oder Supportservices. Die Unterscheidung hilft bei der strukturierten Planung und Steuerung des Servicekatalogs. Im ITIL-Kontext sind Servicearten Grundlage für das Service-Portfolio-Management.
Service-Availability-Management ist ein ITIL-Prozess, der sicherstellt, dass IT-Services die vereinbarte Verfügbarkeit kontinuierlich erfüllen. Dazu werden Verfügbarkeitsziele definiert, überwacht und Maßnahmen zur Verbesserung ergriffen. Dieser Prozess ist eng mit dem Service Level Management verknüpft und für die IHK-Prüfung im Bereich IT-Service-Management relevant.
Service-Capacity-Management stellt sicher, dass die Kapazität von IT-Services den aktuellen und zukünftigen Anforderungen der Geschäftsprozesse entspricht. Es umfasst die Überwachung, Analyse und Planung von Kapazitäten auf Service-Ebene. Im ITIL-Framework ist es Teil des übergeordneten Capacity Managements und verhindert Engpässe bei steigender Nachfrage.
Service-Catalogue-Management ist ein ITIL-Prozess, der den Servicekatalog pflegt und sicherstellt, dass alle verfügbaren IT-Services korrekt dokumentiert und für Kunden zugänglich sind. Der Servicekatalog dient als verbindliche Informationsquelle über angebotene Leistungen. Er bildet die Grundlage für Servicevereinbarungen und die Kommunikation mit Nutzern.
IT Service Continuity Management (ITSCM) ist ein ITIL-Prozess, der sicherstellt, dass IT-Services nach einem Ausfall oder einer Katastrophe innerhalb vereinbarter Zeitrahmen wiederhergestellt werden können. Es umfasst Business-Impact-Analysen, Notfallpläne und regelmäßige Tests der Wiederherstellungsverfahren. Dieser Prozess ist eng mit dem Business Continuity Management (BCM) des Unternehmens verknüpft.
Der Servicedesk ist die zentrale Anlaufstelle (Single Point of Contact) für alle Anfragen und Störungsmeldungen von IT-Nutzern. Er nimmt Incidents und Service Requests entgegen, kategorisiert sie und koordiniert deren Bearbeitung. Im ITIL-Framework ist der Servicedesk eine Schlüsselfunktion und für IT-Azubis prüfungsrelevant.
Der Servicekatalog ist ein strukturiertes Verzeichnis aller IT-Services, die ein Unternehmen intern oder extern anbietet, inklusive Beschreibung, Service Level und Ansprechpartner. Er dient als verbindliche Informationsquelle für Kunden und Mitarbeiter. Im ITIL-Kontext wird er vom Service-Catalogue-Management gepflegt und ist Grundlage für SLAs.
Ein Service Level definiert die messbaren Qualitätsmerkmale eines IT-Services, etwa Verfügbarkeit, Reaktionszeit oder Wiederherstellungszeit. Er bildet die Grundlage für Service Level Agreements (SLAs) zwischen Anbieter und Auftraggeber. Die Einhaltung von Service Levels wird regelmäßig überwacht und in Reports dokumentiert.
Ein Service Level Agreement (SLA) ist ein formeller Vertrag zwischen einem IT-Dienstleister und einem Kunden, der die vereinbarten Qualitäts- und Leistungsmerkmale eines Services verbindlich festlegt. Typische SLA-Inhalte sind Verfügbarkeit, Reaktionszeiten und Supportzeiten. SLAs sind prüfungsrelevant und bilden die Grundlage für das Service-Level-Management.
Service-Level-Management (SLM) ist ein ITIL-Prozess, der sicherstellt, dass vereinbarte Service Levels eingehalten und kontinuierlich verbessert werden. Dazu werden SLAs verhandelt, überwacht und bei Abweichungen Maßnahmen eingeleitet. SLM ist die Schnittstelle zwischen IT-Abteilung und Kunden und prüfungsrelevant im Bereich IT-Service-Management.
Service-Management-Arten beschreiben unterschiedliche Ansätze zur Verwaltung von IT-Services, wie ITIL (IT Infrastructure Library), COBIT oder ISO/IEC 20000. Jede Methode bietet Rahmenwerke und Best Practices für die Planung, Erbringung und Verbesserung von IT-Dienstleistungen. IT-Azubis sollten die gängigsten Frameworks kennen und unterscheiden können.
Die serviceorientierte Architektur (SOA) ist ein Architekturprinzip, bei dem eine Anwendung aus lose gekoppelten, wiederverwendbaren Services aufgebaut wird, die über standardisierte Schnittstellen miteinander kommunizieren. Jeder Service erfüllt eine klar definierte Aufgabe und kann unabhängig entwickelt, getestet und betrieben werden. SOA bildet die konzeptionelle Grundlage für Microservices und Web Services.
Service-Portfolio-Management ist ein ITIL-Prozess, der das gesamte Portfolio an IT-Services eines Unternehmens – aktive, geplante und eingestellte Services – strategisch verwaltet. Es stellt sicher, dass das Serviceangebot mit den Unternehmenszielen übereinstimmt und wirtschaftlich sinnvoll ist. Der Servicekatalog ist ein Bestandteil des Service-Portfolios.
Ein Service Request ist eine formelle Anfrage eines Nutzers für eine standardisierte Leistung, die keine Störung darstellt, etwa das Zurücksetzen eines Passworts oder die Installation einer Software. Im Gegensatz zum Incident ist ein Service Request ein normaler, vorhersehbarer Bestandteil des IT-Betriebs. Service Requests werden über definierte Prozesse und häufig über einen Self-Service-Katalog abgewickelt.
Im IT-Kontext bezeichnet ein Service eine Dienstleistung, die ein Mehrwert für Kunden oder Nutzer schafft, ohne dass diese die zugrundeliegenden Kosten und Risiken direkt tragen müssen. Services können technischer Natur sein (z. B. E-Mail-Service) oder prozessorientiert. Im ITIL-Framework sind Services der zentrale Gegenstand des IT-Service-Managements.
Servicestandards sind verbindliche Qualitätsvorgaben und Verhaltensregeln, die definieren, wie IT-Services erbracht werden sollen. Sie umfassen Aspekte wie Reaktionszeiten, Kommunikationsregeln und Bearbeitungsqualität. Servicestandards sichern eine gleichbleibend hohe Qualität und sind Grundlage für SLAs und interne Richtlinien.
Ein Serviceticket ist ein digitaler Datensatz, der eine Anfrage oder Störungsmeldung im IT-Helpdesk-System dokumentiert und ihren Bearbeitungsstatus verfolgt. Es enthält Informationen wie Beschreibung, Priorität, Bearbeiter und Lösungsstatus. Servicetickets sind das zentrale Arbeitsmittel im Servicedesk und ermöglichen eine nachvollziehbare Bearbeitung von Anfragen.
Ein Service-Ticket (auch Serviceticket) ist ein elektronischer Eintrag in einem IT-Service-Management-System, der einen Incident, ein Problem oder einen Service Request dokumentiert. Es dient der lückenlosen Nachverfolgung vom Eingang bis zur Lösung. Service-Tickets sind essenziell für die Qualitätssicherung und das Reporting im IT-Betrieb.
Die Service Value Chain ist ein zentrales Modell aus ITIL 4 und beschreibt die sechs Kernaktivitäten (Planen, Verbessern, Einbeziehen, Gestalten und Übergang, Erwerb und Aufbau, Bereitstellen und Unterstützen), die zur Wertschöpfung durch IT-Services beitragen. Sie bildet den operativen Kern des Service Value Systems. IT-Azubis sollten die Aktivitäten der Service Value Chain kennen und benennen können.
Das Service Value System (SVS) ist ein übergeordnetes Rahmenmodell aus ITIL 4, das alle Komponenten und Aktivitäten beschreibt, die zur gemeinsamen Wertschöpfung durch IT-Services beitragen. Es umfasst Leitprinzipien, Governance, die Service Value Chain, Praktiken und kontinuierliche Verbesserung. Das SVS ist prüfungsrelevant im Kontext moderner IT-Service-Management-Frameworks.
Ein Session Border Controller (SBC) ist ein Netzwerkgerät, das VoIP-Kommunikation an den Grenzen zwischen verschiedenen Netzwerken steuert, schützt und überwacht. Er kontrolliert Signalisierungs- und Mediendatenströme und schützt vor unerwünschten Zugriffen und Angriffen auf die Sprachkommunikation. SBCs sind in Unternehmensnetzen mit VoIP-Infrastruktur ein wichtiges Sicherheitselement.
Ein Setter ist eine Methode in der objektorientierten Programmierung, die dazu dient, den Wert einer privaten Instanzvariable (Attribut) eines Objekts von außen zu setzen. Setter gehören zum Konzept der Datenkapselung und werden typischerweise in Verbindung mit Gettern verwendet. Durch Setter kann eine Klasse die Gültigkeit von Eingabewerten prüfen, bevor sie ein Attribut ändert.
SFP (Small Form-factor Pluggable) ist ein standardisierter, hot-pluggable Transceiver, der in Switches, Router und andere Netzwerkgeräte eingesteckt wird, um verschiedene Übertragungsmedien wie Glasfaser oder Kupfer zu unterstützen. SFP-Module ermöglichen eine flexible Anpassung der Netzwerkschnittstellen ohne Austausch des Geräts. Sie sind in modernen Netzwerkinfrastrukturen weit verbreitet.
S/FTP (Shielded Foiled Twisted Pair) bezeichnet einen Kabeltyp für die Netzwerkverkabelung, bei dem jedes Adernpaar einzeln mit Folie abgeschirmt und zusätzlich ein gemeinsames Gesamtschirm aus Geflecht verwendet wird. Diese doppelte Abschirmung bietet besonders hohen Schutz gegen elektromagnetische Störungen. S/FTP-Kabel werden in störungsintensiven Umgebungen eingesetzt.
Shareware ist ein Softwarevertriebsmodell, bei dem Programme kostenlos zum Ausprobieren verteilt werden, für die dauerhafte oder vollständige Nutzung jedoch eine Lizenzgebühr fällig wird. Häufige Varianten sind zeitlich begrenzte Testversionen (Trialware), funktional eingeschränkte Versionen (Demoware) oder Versionen mit eingeblendeter Werbung. Shareware unterscheidet sich von Freeware (kostenlos und unbegrenzt nutzbar) und von Open-Source-Software (Quellcode zugänglich). Das Modell war besonders in den 1990er Jahren verbreitet.
Shift-Left ist ein Ansatz in der Softwareentwicklung und im IT-Service-Management, bei dem Qualitätssicherung, Tests und Fehlerbehebung möglichst früh im Entwicklungsprozess stattfinden. Das Ziel ist es, Fehler zu entdecken, bevor sie teuer werden – je früher ein Fehler gefunden wird, desto günstiger ist seine Behebung. Shift-Left ist eng mit DevOps- und agilen Methoden verknüpft.
Der Begriff Shopfloor bezeichnet in der Industrie den eigentlichen Produktionsbereich einer Fabrik, also den Ort, an dem Maschinen und Werker die Fertigung durchführen. Im Kontext der Digitalisierung (Industrie 4.0) werden Shopfloor-Daten in Echtzeit erfasst und mit übergeordneten IT-Systemen (MES, ERP) verbunden. Shopfloor-IT ist für IT-Berufe im Fertigungsumfeld prüfungsrelevant.
SIAM (Service Integration and Management) ist ein Managementansatz, der die Koordination und Integration mehrerer externer und interner IT-Dienstleister in einer Multi-Sourcing-Umgebung ermöglicht. Eine zentrale SIAM-Schicht orchestriert die verschiedenen Provider und stellt ein einheitliches Service-Management sicher. SIAM ist relevant für Unternehmen, die viele verschiedene IT-Dienstleister einsetzen.
Schutz von Daten und Systemen durch Maßnahmen zur Gewährleistung von Vertraulichkeit, Integrität und Verfügbarkeit.
Sicherheitskennzeichen sind genormte grafische Symbole, die am Arbeitsplatz auf Gefahren hinweisen, Schutzmaßnahmen vorschreiben oder Rettungswege kennzeichnen. In Deutschland sind sie durch die DIN EN ISO 7010 und die Arbeitsstättenverordnung (AStV) geregelt. Man unterscheidet Verbotszeichen (rot, rund), Warnzeichen (gelb, dreieckig), Gebotszeichen (blau, rund) und Rettungszeichen (grün, rechteckig). Im Serverraum und im Rechenzentrum sind z. B. Brandschutz- und Elektrogefahrenzeichen Pflicht.
Ein Sicherheitskonzept ist ein strukturiertes Dokument, das alle organisatorischen und technischen Maßnahmen zum Schutz der IT-Infrastruktur und der Daten eines Unternehmens beschreibt. Es basiert auf einer Risikoanalyse, der Schutzbedarfsfeststellung und den geltenden Sicherheitszielen. Bestandteile sind u. a. eine Bestandsaufnahme der IT-Assets, die Identifikation von Bedrohungen und Schwachstellen, die Auswahl geeigneter Schutzmaßnahmen sowie Regelungen zur Notfallvorsorge. Im BSI-Grundschutz ist das Sicherheitskonzept zentrales Element.
Eine Sicherheitsleitlinie (auch IT-Sicherheitsrichtlinie oder Security Policy) ist ein übergeordnetes Dokument, das die Sicherheitsstrategie und die grundlegenden Sicherheitsziele eines Unternehmens verbindlich festlegt. Sie wird von der Unternehmensleitung verabschiedet und richtet sich an alle Mitarbeiter. Die Sicherheitsleitlinie bildet das Fundament für alle weiteren Sicherheitsdokumente (Richtlinien, Konzepte, Betriebshandbücher) und ist im BSI-Grundschutz-Prozess ein verpflichtendes Dokument.
Der Sicherheitsprozess beschreibt den kontinuierlichen Managementzyklus zur Aufrechterhaltung und Verbesserung der IT-Sicherheit in einem Unternehmen. Er folgt dem PDCA-Zyklus (Plan-Do-Check-Act): Zunächst werden Sicherheitsziele und -maßnahmen geplant, dann umgesetzt, anschließend kontrolliert und schließlich verbessert. Auslöser für Anpassungen können neue Bedrohungen, Sicherheitsvorfälle, Audits oder Änderungen in der IT-Infrastruktur sein. Der Sicherheitsprozess ist niemals abgeschlossen, sondern ein dauerhaftes Managementprinzip.
Sicherheitsregeln am IT-Arbeitsplatz sind verbindliche Verhaltens- und Handlungsanweisungen, die Mitarbeiter zum Schutz von Personen, Geräten und Daten einhalten müssen. Dazu gehören z. B. das Tragen von ESD-Schutzausrüstung beim Umgang mit Hardware, das Abschalten von Geräten vor Reparaturarbeiten, die Einhaltung der Brandschutzvorschriften im Serverraum sowie organisatorische Regeln wie die Clean-Desk-Policy. Sicherheitsregeln ergänzen die technischen Schutzmaßnahmen auf der personellen und organisatorischen Ebene.
Bei der Datensicherung unterscheidet man drei grundlegende Sicherungsarten: Die Vollsicherung erstellt eine komplette Kopie aller Daten und ermöglicht eine schnelle Wiederherstellung, benötigt aber viel Speicherplatz. Die differentielle Sicherung speichert alle seit der letzten Vollsicherung geänderten Daten. Die inkrementelle Sicherung sichert nur die seit der letzten Sicherung (Voll- oder inkrementell) geänderten Daten — sie ist platzsparend, erfordert aber bei der Wiederherstellung mehrere Sicherungssätze.
Sichtbarkeit (engl. Visibility) ist in der Programmierung ein Konzept, das den Zugriff auf Klassen, Methoden und Attribute regelt. Typische Sichtbarkeitsmodifikatoren sind public (überall zugänglich), private (nur innerhalb der Klasse) und protected (nur in der Klasse und Unterklassen). Die gezielte Einschränkung der Sichtbarkeit ist ein zentrales Mittel zur Datenkapselung und sicheren Softwarearchitektur.
Das Sieben-Phasen-Modell beschreibt im ITIL-Kontext den Prozess des Continual Service Improvement und gliedert Verbesserungsvorhaben in sieben aufeinanderfolgenden Schritten von der Identifikation des Verbesserungsbedarfs bis zur Implementierung und Erfolgsmessung. Es bietet einen strukturierten Ansatz für nachhaltige Qualitätsverbesserungen im IT-Betrieb. Das Modell ist prüfungsrelevant im IT-Service-Management.
SIEM (Security Information and Event Management) ist eine Softwarelösung, die Sicherheitsereignisse aus verschiedenen IT-Systemen in Echtzeit sammelt, korreliert und analysiert, um Bedrohungen frühzeitig zu erkennen. SIEM-Systeme unterstützen IT-Sicherheitsteams bei der Erkennung von Angriffen, der forensischen Analyse und der Einhaltung von Compliance-Anforderungen. Sie sind ein zentrales Werkzeug moderner IT-Sicherheit.
Aktivierungsfunktion in neuronalen Netzen, die Eingabewerte auf den Bereich zwischen 0 und 1 abbildet.
Die Signalgeschwindigkeit (auch Ausbreitungsgeschwindigkeit) gibt an, mit welcher Geschwindigkeit sich ein elektrisches oder optisches Signal in einem Übertragungsmedium ausbreitet. In Kupferkabeln beträgt sie typischerweise etwa 60–80 % der Lichtgeschwindigkeit, in Glasfasern ca. 67 %. Die Signalgeschwindigkeit beeinflusst die Latenz in Netzwerken: Je länger die Leitung, desto größer die Verzögerung. Nicht zu verwechseln mit der Übertragungsrate (Bandbreite), die angibt, wie viele Daten pro Sekunde übertragen werden können.
Ein Single-Board-Computer (SBC) ist ein vollständiger Computer, dessen sämtliche Komponenten – Prozessor, Arbeitsspeicher, Schnittstellen – auf einer einzigen Platine integriert sind. Bekannte Beispiele sind der Raspberry Pi oder Arduino. SBCs werden häufig für IoT-Projekte, Prototypen und eingebettete Systeme eingesetzt und sind für IT-Azubis im Kontext von Digitalisierung und Industrie 4.0 relevant.
Ein Site-to-Site-VPN ist eine verschlüsselte Netzwerkverbindung zwischen zwei oder mehr räumlich getrennten Standorten (z. B. Hauptsitz und Filiale) über das öffentliche Internet. Im Gegensatz zum Client-to-Site-VPN (einzelner Benutzer verbindet sich mit dem Firmennetzwerk) verbindet ein Site-to-Site-VPN ganze Netzwerke miteinander. Typische Protokolle sind IPsec und OpenVPN. Aus Sicht der Nutzer verhält sich das Netzwerk wie ein einheitliches lokales Netz, obwohl die Daten über das Internet übertragen werden.
Six Sigma ist eine datengetriebene Methode zur Qualitätsverbesserung, die darauf abzielt, Fehler und Streuungen in Prozessen auf ein statistisch sehr geringes Maß zu reduzieren (maximal 3,4 Fehler pro Million Möglichkeiten). Das strukturierte DMAIC-Vorgehensmodell (Define, Measure, Analyze, Improve, Control) bildet dabei den Kern. Six Sigma wird sowohl in der Produktion als auch in IT-Prozessen angewendet.
Skalierbarkeit beschreibt die Fähigkeit eines Systems, bei steigender Last oder wachsenden Anforderungen seine Leistung durch den Einsatz zusätzlicher Ressourcen zu erhalten oder zu steigern. Man unterscheidet zwischen horizontaler Skalierung (mehr Server hinzufügen) und vertikaler Skalierung (leistungsfähigere Hardware). Skalierbarkeit ist ein wichtiges Qualitätsmerkmal bei der Planung von IT-Architekturen.
Skalierung bezeichnet den Vorgang, die Kapazität eines IT-Systems an veränderte Anforderungen anzupassen, etwa durch das Hinzufügen von Hardware-Ressourcen (Scale-up) oder weiterer Instanzen (Scale-out). In Cloud-Umgebungen erfolgt Skalierung häufig automatisch und dynamisch. Sie ist ein zentrales Konzept in der modernen IT-Infrastruktur und für IHK-Prüfungen relevant.
Sketch ist ein professionelles Vektorgrafik- und UI-Designprogramm für macOS, das vor allem für die Gestaltung von Benutzeroberflächen (User Interfaces) und Prototypen von Web- und Mobile-Apps eingesetzt wird. Es bietet Werkzeuge für Wireframing, interaktive Prototypen und die Zusammenarbeit im Designteam. Im IT-Bereich ist Sketch ein verbreitetes Werkzeug in UX/UI-Designprozessen.
Ein Service Level Agreement (SLA) ist eine vertragliche Vereinbarung zwischen einem IT-Dienstleister und einem Kunden, die die Qualität und den Umfang der zu erbringenden Dienstleistungen verbindlich festlegt. Typische SLA-Kennzahlen sind Verfügbarkeit (z. B. 99,9 % pro Monat), maximale Reaktionszeit bei Störungen, Wiederherstellungszeit (RTO) und vereinbarte Wartungsfenster. Bei Nichteinhaltung des SLA sind häufig Vertragsstrafen oder Gutschriften vorgesehen. SLAs sind wichtige Grundlage für IT-Service-Management (ITSM).
SMART ist ein Akronym für ein Qualitätskriterium bei der Zieldefinition: Ziele sollten Spezifisch (konkret und eindeutig), Messbar (mit überprüfbaren Kriterien), Attraktiv/Akzeptiert (motivierend und realistisch), Realistisch (mit vorhandenen Ressourcen erreichbar) und Terminiert (mit klarem Zeitrahmen) sein. SMART-Ziele vermeiden vage Formulierungen und erleichtern die Erfolgskontrolle. Das Konzept wird im Projektmanagement, im IT-Service-Management und in der Mitarbeiterführung eingesetzt.
Smart Cities sind städtische Konzepte, die digitale Technologien und vernetzte Infrastrukturen einsetzen, um städtische Dienstleistungen effizienter, nachhaltiger und lebenswerter zu gestalten. Beispiele sind intelligente Verkehrssteuerung, smarte Energieversorgung und digitale Verwaltung. Das Konzept ist prüfungsrelevant im Kontext von Digitalisierung und IoT.
Smart Devices sind internetfähige Endgeräte, die über integrierte Sensoren, Prozessoren und Kommunikationsschnittstellen verfügen und sich in vernetzte Systeme einbinden lassen. Dazu zählen Smartphones, Tablets, Smart-TVs, Smartwatches sowie Smart-Home-Geräte (smarte Lampen, Thermostate, Sicherheitskameras). Smart Devices sind zentrale Bausteine des Internet of Things (IoT) und können Daten erfassen, verarbeiten und austauschen. Sie stellen für Unternehmen sowohl Chance (neue Dienste) als auch Risiko (Angriffsfläche) dar.
Eine Smart Factory (intelligente Fabrik) ist ein Produktionskonzept, bei dem Maschinen, Anlagen und Produkte über das Industrial Internet of Things (IIoT) miteinander vernetzt sind und Fertigungsprozesse selbstständig steuern und optimieren. Kernelemente sind cyber-physische Systeme (CPS), Echtzeit-Datenerfassung, KI-gestützte Analyse und autonome Entscheidungsfindung. Die Smart Factory ist ein zentrales Element von Industrie 4.0 und ermöglicht hochflexible, ressourceneffiziente Produktion bis hin zur Losgröße 1.
Smart Health bezeichnet den Einsatz digitaler Technologien im Gesundheitswesen, um die medizinische Versorgung zu verbessern und effizienter zu gestalten. Dazu gehören Anwendungen wie Wearables zur Gesundheitsüberwachung, Telemedizin und KI-gestützte Diagnostik. Im IT-Kontext ist Smart Health ein wachsendes Feld mit hoher Relevanz für Datenschutz und IT-Sicherheit.
Smart Home bezeichnet die Vernetzung und automatisierte Steuerung von Haushaltsgeräten, Heizung, Beleuchtung und Sicherheitssystemen über das Internet oder lokale Netzwerke. Typische Technologien sind WLAN, Zigbee, Z-Wave sowie Sprachassistenten. Smart Home ist ein prüfungsrelevantes Anwendungsfeld für IoT, Netzwerktechnik und IT-Sicherheit.
SMS (Short Message Service) ist ein Mobilfunkdienst, der das Versenden von Textnachrichten mit bis zu 160 Zeichen zwischen Mobiltelefonen ermöglicht. SMS nutzt das Signalisierungsnetz des Mobilfunks und ist unabhängig von einer Internetverbindung. Im IT-Kontext spielt SMS auch als Authentifizierungskanal (z. B. für Zwei-Faktor-Authentifizierung) eine Rolle.
Snap ist ein paketbasiertes Software-Verteilungssystem für Linux-Distributionen, das von Canonical entwickelt wurde. Snap-Pakete enthalten alle Abhängigkeiten einer Anwendung und laufen in einer isolierten Umgebung (Sandbox), was Installationen vereinfacht und Konflikte mit anderen Paketen vermeidet. Snap ist ein Beispiel für moderne Softwareverteilung unter Linux.
Ein Snapshot ist eine sofortige, punktgenaue Zustandsaufnahme eines Systems, Dateisystems oder einer virtuellen Maschine zu einem bestimmten Zeitpunkt. Snapshots ermöglichen es, den Zustand eines Systems schnell wiederherzustellen, etwa nach fehlgeschlagenen Updates. Sie sind ein wichtiges Werkzeug in der Datensicherung und im Betrieb virtueller Infrastrukturen.
Das Simple Network Management Protocol (SNMP) ist ein Standardprotokoll zur Überwachung und Verwaltung von Netzwerkgeräten wie Routern, Switches, Servern und Druckern. Ein SNMP-Manager (z. B. ein Netzwerk-Monitoring-Tool) fragt Statusinformationen von SNMP-Agenten ab, die auf den verwalteten Geräten laufen. Die Gerätedaten sind in der Management Information Base (MIB) strukturiert. SNMP verwendet UDP auf Port 161 (Abfragen) und Port 162 (Traps = unaufgeforderte Benachrichtigungen bei Ereignissen).
SOA (Service-Oriented Architecture) ist ein Architekturprinzip, bei dem eine Anwendungslandschaft aus lose gekoppelten, wiederverwendbaren Services aufgebaut wird, die über standardisierte Schnittstellen kommunizieren. Jeder Service übernimmt eine klar definierte Aufgabe und kann unabhängig entwickelt und bereitgestellt werden. SOA bildet die konzeptionelle Grundlage für moderne Microservice-Architekturen.
SOAP (Simple Object Access Protocol) ist ein XML-basiertes Protokoll für den Austausch von strukturierten Nachrichten zwischen Webservices über Netzwerke, typischerweise über HTTP oder SMTP. SOAP definiert strenge Standards für Nachrichtenformat, Fehlerbehandlung und Sicherheit. Im Vergleich zum leichtgewichtigeren REST-Ansatz wird SOAP heute vor allem in Unternehmensumgebungen eingesetzt.
Social Engineering bezeichnet Angriffsmethoden, bei denen Angreifer menschliche Schwächen wie Vertrauen, Hilfsbereitschaft, Neugier oder Angst ausnutzen, um Mitarbeiter zur Preisgabe vertraulicher Informationen oder zur Ausführung schädlicher Aktionen zu verleiten. Typische Techniken sind Phishing (gefälschte E-Mails), Vishing (Telefonbetrug), Pretexting (Vortäuschen einer falschen Identität) und Baiting (Köder wie infizierte USB-Sticks). Social Engineering richtet sich gegen den Menschen als schwächstes Glied in der Sicherheitskette.
Social-Media-Marketing umfasst alle Marketingaktivitäten, die über soziale Netzwerke wie Instagram, LinkedIn, Facebook, TikTok oder YouTube durchgeführt werden. Ziele sind Markenbekanntheit steigern, Kundenbindung aufbauen, Traffic auf die Unternehmenswebsite lenken und Leads generieren. Erfolgsmessung erfolgt über KPIs wie Reichweite, Engagement-Rate und Conversions. Unternehmen müssen dabei auch rechtliche Aspekte (Impressumspflicht, Datenschutz, Urheberrecht bei Bildern) beachten.
Social Responsibility (soziale Verantwortung) oder Corporate Social Responsibility (CSR) bezeichnet das freiwillige Engagement von Unternehmen, über gesetzliche Anforderungen hinaus zum Wohl der Gesellschaft und Umwelt beizutragen. Im IT-Bereich umfasst dies z. B. nachhaltigen Energieeinsatz in Rechenzentren, faire Lieferketten bei Hardwarebeschaffung, barrierefreie Software und gesellschaftliche Digitalisierungsinitiativen. CSR beeinflusst auch die Arbeitgeberattraktivität, da viele Auszubildende und Fachkräfte Nachhaltigkeit bei der Arbeitgeberwahl berücksichtigen.
Der Sockel (englisch: Socket) ist die mechanische und elektrische Schnittstelle auf dem Mainboard, in die ein Prozessor eingesteckt wird. Er definiert, welche CPU-Generationen auf einem Board betrieben werden können, da jeder Hersteller verschiedene Sockelstandards verwendet (z. B. Intel LGA 1700, AMD AM5). Der Sockel legt die Anzahl der Kontaktstifte oder -pads fest und damit auch die Kompatibilität zwischen CPU und Mainboard. Bei einem CPU-Wechsel muss die Kompatibilität des Sockels zwingend geprüft werden.
In der Netzwerkkommunikation ist ein Socket der Kommunikationsendpunkt einer Netzwerkverbindung, der durch die Kombination aus IP-Adresse und Portnummer eindeutig identifiziert wird. Über Sockets können Prozesse auf verschiedenen Rechnern miteinander kommunizieren (z. B. über TCP oder UDP). Ein Webserver lauscht z. B. auf Socket 0.0.0.0:443 auf eingehende HTTPS-Verbindungen. Die Socket-API ist in praktisch allen Programmiersprachen verfügbar und bildet die Grundlage der Netzwerkprogrammierung.
Software ist die Gesamtheit der Programme, Daten und Dokumentationen, die auf einem Computersystem ausgeführt werden können — im Gegensatz zur Hardware, die die physischen Komponenten umfasst. Man unterscheidet Systemsoftware (Betriebssystem, Treiber, Dienstprogramme), Anwendungssoftware (Office-Programme, Browser, Apps) und Entwicklungssoftware (IDEs, Compiler, Frameworks). Software wird durch Quellcode beschrieben, der von Compilern oder Interpretern in für den Prozessor ausführbare Maschinenbefehle umgewandelt wird.
Struktureller Aufbau eines Softwaresystems: Komponenten, deren Beziehungen und grundlegende Entwurfsprinzipien.
Softwarearten kategorisieren Programme nach ihrer Funktion und ihrem Einsatzzweck. Systemsoftware (z. B. Betriebssysteme, Treiber) verwaltet die Hardware und stellt Basisdienste bereit. Anwendungssoftware (z. B. ERP-Systeme, Office-Pakete, Webbrowser) unterstützt Benutzer bei konkreten Aufgaben. Entwicklungssoftware (IDEs, Compiler, Debugger) dient der Erstellung neuer Software. Eine weitere Unterscheidung erfolgt nach dem Lizenzmodell: proprietäre Software, Freeware, Open-Source-Software und Shareware.
Software Defined Networking (SDN) ist ein Netzwerkarchitekturkonzept, bei dem die Netzwerksteuerung (Control Plane) von der Datenweiterleitung (Data Plane) getrennt und zentral in einem SDN-Controller gebündelt wird. Statt jedes Netzwerkgerät einzeln zu konfigurieren, werden Weiterleitungsregeln zentral programmiert und automatisch auf die Switches verteilt. SDN ermöglicht flexible, softwaregesteuerte Netzwerkkonfiguration, vereinfacht das Management großer Netzwerke und ist Grundlage für Cloud-Netzwerke und Network Function Virtualization (NFV).
Software Defined Networking (SDN) ist ein Netzwerkarchitekturansatz, bei dem die Steuerungsebene (Control Plane) vom eigentlichen Datentransport (Data Plane) softwarebasiert getrennt wird. Ein zentraler Controller programmiert das Netzwerkverhalten flexibel und dynamisch, ohne manuelle Konfiguration einzelner Geräte. SDN ermöglicht eine agile, automatisierte Netzwerkverwaltung und ist prüfungsrelevant in modernen Netzwerkkonzepten.
Softwareentwicklung ist der systematische Prozess der Planung, Erstellung, Testung und Wartung von Softwareprodukten. Er umfasst Phasen wie Anforderungsanalyse, Entwurf (Design), Implementierung (Coding), Testen und Deployment. Vorgehensmodelle wie das Wasserfallmodell (sequenziell) oder agile Methoden wie Scrum (iterativ) strukturieren diesen Prozess. Moderne Softwareentwicklung nutzt Versionsverwaltung (Git), CI/CD-Pipelines und kollaborative Werkzeuge, um Qualität und Effizienz zu steigern.
Der Softwareentwurf ist die Phase im Entwicklungsprozess, in der die Architektur und der Aufbau eines Programms geplant werden. Dabei werden Komponenten, Module und deren Schnittstellen festgelegt, bevor die eigentliche Programmierung beginnt. Entwurfsmuster (Design Patterns) helfen dabei, bewährte Lösungen für wiederkehrende Probleme anzuwenden. Das Ergebnis ist eine technische Spezifikation, die als Grundlage für die Implementierung dient.
Softwareergonomie beschreibt die Gestaltung von Software-Benutzeroberflächen nach Grundsätzen der Ergonomie und Gebrauchstauglichkeit (Usability), damit Nutzer effizient, sicher und zufriedenstellend damit arbeiten können. Normative Grundlage sind die DIN EN ISO 9241 (Grundsätze der Dialoggestaltung). Softwareergonomie ist ein Prüfungsthema im Bereich Anwendungsentwicklung und IT-Projektmanagement.
Abgeschlossener, wiederverwendbarer Baustein eines Softwaresystems mit klar definierten Schnittstellen.
Der Softwarelebenszyklus (Software Development Life Cycle, SDLC) beschreibt alle Phasen, die eine Software von der Idee bis zur Außerbetriebnahme durchläuft. Typische Phasen sind Anforderungsanalyse, Entwurf, Implementierung, Test, Einführung und Wartung. Je nach Vorgehensmodell (z. B. Wasserfall, agil) werden diese Phasen sequenziell oder iterativ durchlaufen. Das Verständnis des Lebenszyklus hilft, Projekte strukturiert zu planen und Kosten abzuschätzen.
Rechtliche Nutzungserlaubnis für Software, die Umfang und Bedingungen der Verwendung regelt (z. B. Einzel-, Volumen- oder Open-Source-Lizenz).
Definierte Verbindungsstelle (API) zwischen Softwarekomponenten, die Datenaustausch nach festem Protokoll regelt.
Netzwerkgerät für kleine Büros und Heimnetzwerke (Small Office/Home Office), das Router, Switch und WLAN in einem Gerät kombiniert.
Controllinginstrument, das geplante Werte (Soll) mit tatsächlichen Werten (Ist) vergleicht, um Abweichungen zu erkennen.
Anforderungen, die beschreiben, welche Eigenschaften eine technische oder fachliche Lösung haben muss, um die Geschäftsziele zu erfüllen.
Zeichen außerhalb des Buchstaben- und Ziffernvorrats (z. B. @, #, €); in der IT oft mit besonderer Funktion belegt.
Algorithmus, der Elemente in eine definierte Reihenfolge bringt, z. B. Bubble Sort, Quicksort oder Merge Sort.
Sourcing bezeichnet die strategische Entscheidung, welche IT-Leistungen ein Unternehmen selbst erbringt und welche es extern bezieht. Beim Outsourcing werden Aufgaben an externe Dienstleister ausgelagert, beim Insourcing werden sie intern übernommen. Cloud-Sourcing ist eine moderne Form, bei der IT-Dienste über das Internet bereitgestellt werden. Die Wahl der richtigen Sourcing-Strategie beeinflusst Kosten, Qualität und Abhängigkeiten eines Unternehmens.
Berücksichtigung menschlicher und organisatorischer Faktoren bei Einführung und Nutzung von IT-Systemen.
Die Soziale Marktwirtschaft ist das Wirtschaftssystem der Bundesrepublik Deutschland, das freie Marktwirtschaft mit sozialer Absicherung verbindet. Der Staat greift regulierend ein, um Wettbewerb zu sichern, soziale Gerechtigkeit zu fördern und Marktversagen auszugleichen. Instrumente sind u. a. Kartellrecht, Sozialversicherungen und Mindestlohn. Dieses System soll wirtschaftliche Freiheit und sozialen Ausgleich in Einklang bringen.
Die Sozialgerichtsbarkeit ist ein eigenständiger Zweig der deutschen Gerichtsbarkeit, der Streitigkeiten im Bereich des Sozialrechts entscheidet. Zuständig sind Sozialgerichte für Fälle rund um Kranken-, Renten-, Unfall- und Arbeitslosenversicherung. Der Instanzenzug führt vom Sozialgericht über das Landessozialgericht bis zum Bundessozialgericht. Arbeitnehmer können hier ihre Ansprüche gegenüber Sozialversicherungsträgern geltend machen.
Als Sozialpartner bezeichnet man die Tarifvertragsparteien auf Arbeitgeber- und Arbeitnehmerseite: Gewerkschaften und Arbeitgeberverbände. Sie verhandeln eigenverantwortlich Tarifverträge über Löhne, Arbeitszeiten und Arbeitsbedingungen (Tarifautonomie). Ziel ist die einvernehmliche Regelung von Arbeitsbedingungen ohne staatlichen Eingriff. Das Prinzip der Sozialpartnerschaft ist ein zentrales Element der deutschen Arbeitsmarktordnung.
Sozialversicherungsträger sind die öffentlich-rechtlichen Körperschaften, die die fünf Zweige der gesetzlichen Sozialversicherung in Deutschland verwalten. Dazu gehören Krankenkassen, Deutsche Rentenversicherung, Berufsgenossenschaften, Bundesagentur für Arbeit und Pflegekassen. Sie finanzieren sich hauptsächlich durch Beiträge von Arbeitnehmern und Arbeitgebern. Für IT-Fachkräfte ist die korrekte Abführung der Sozialversicherungsbeiträge in der Personalabrechnung relevant.
Eine spaltenorientierte Datenbank (Column Store) speichert Daten nicht zeilenweise, sondern spaltenweise auf dem Speichermedium. Dies ermöglicht bei analytischen Abfragen, die nur wenige Spalten einer großen Tabelle betreffen, eine deutlich höhere Performance als bei zeilenorientierten Datenbanken. Spaltenorientierte Systeme werden daher besonders in Data Warehouses und für Business Intelligence eingesetzt. Apache Cassandra und Google Bigtable sind bekannte Beispiele.
Spam bezeichnet unerwünschte, massenhaft versendete elektronische Nachrichten, überwiegend Werbe-E-Mails. Neben lästigen Werbebotschaften enthält Spam häufig auch Phishing-Versuche, Schadsoftware oder betrügerische Angebote. Spam-Filter in E-Mail-Programmen und -Servern erkennen und blockieren solche Nachrichten automatisch. Das Versenden von Spam ist in vielen Ländern gesetzlich verboten und kann zu hohen Bußgeldern führen.
Statistisches Streumaß: Differenz zwischen größtem und kleinstem Wert einer Datenmenge.
Industriell eingesetzte Steuerungseinheit, die Abläufe in Maschinen und Anlagen durch ein frei programmierbares, im Speicher abgelegtes Programm steuert.
Das Spiralmodell ist ein iteratives Vorgehensmodell der Softwareentwicklung, das von Barry Boehm 1986 entwickelt wurde. Es kombiniert Elemente des Wasserfallmodells mit Prototyping und legt besonderen Wert auf die systematische Risikoanalyse in jedem Durchlauf. Jede Iteration durchläuft die vier Phasen: Ziele festlegen, Risiken analysieren, Entwickeln und Testen sowie nächste Phase planen. Das Modell eignet sich besonders für große und komplexe Projekte mit hohem Risikopotenzial.
Sponsoring ist eine Marketingmaßnahme, bei der ein Unternehmen eine Person, Organisation oder Veranstaltung finanziell oder materiell unterstützt und dafür eine definierte Gegenleistung (z. B. Werbepräsenz, Namensnennung) erhält. Im IT-Bereich sponsern Unternehmen häufig Entwicklerkonferenzen, Open-Source-Projekte oder Sportteams. Sponsoring zählt zur Kommunikationspolitik im Marketing-Mix und dient der Markenbekanntheit und Imagepflege. Es unterscheidet sich von einer Spende durch die vertraglich vereinbarte Gegenleistung.
Text-to-Speech-Technologie, die geschriebenen Text in gesprochene Sprache umwandelt; genutzt für Barrierefreiheit.
Interaktionskonzept, bei dem Nutzer per Sprache mit einem System kommunizieren, ohne Tastatur oder Maus.
Technologie zur automatischen Umwandlung gesprochener Sprache in Text oder Steuerbefehle, eingesetzt z. B. in Sprachassistenten und Diktiersoftware.
Bedienung von Geräten durch Sprachbefehle auf Basis von Spracherkennungs- und Verarbeitungstechnologien.
Ein Sprint ist der zentrale Arbeitszyklus im agilen Scrum-Framework mit einer festen Zeitdauer von ein bis vier Wochen. Innerhalb eines Sprints wird ein zuvor festgelegtes Arbeitspaket aus dem Product Backlog bearbeitet und ein potenziell auslieferbares Produktinkrement erstellt. Jeder Sprint beginnt mit einem Sprint Planning und endet mit Sprint Review und Retrospektive. Die feste Länge und klare Zielsetzung sorgen für regelmäßigen Rhythmus und Fortschrittsmessung im Team.
Liste der User Stories und Aufgaben, die ein Scrum-Team im aktuellen Sprint umsetzen möchte; wird beim Sprint Planning aus dem Product Backlog abgeleitet.
Scrum-Meeting zu Sprintbeginn, in dem Team und Product Owner gemeinsam Umfang und Aufgaben des kommenden Sprints festlegen und das Sprint-Ziel definieren.
Scrum-Meeting nach jedem Sprint, bei dem das Team seinen Arbeitsprozess reflektiert und konkrete Verbesserungsmaßnahmen für den nächsten Sprint ableitet.
Scrum-Meeting am Sprintende, bei dem das Entwicklungsteam die fertigen Ergebnisse dem Product Owner und Stakeholdern präsentiert und das Backlog anpasst.
SQL (Structured Query Language) ist die standardisierte Abfragesprache für relationale Datenbanken. Mit SQL können Daten abgefragt (SELECT), eingefügt (INSERT), geändert (UPDATE) und gelöscht (DELETE) werden. Darüber hinaus ermöglicht SQL das Erstellen und Verwalten von Datenbankstrukturen (CREATE TABLE, ALTER TABLE). SQL ist für IT-Fachkräfte eine grundlegende Kernkompetenz und wird von nahezu allen relationalen Datenbanksystemen wie MySQL, PostgreSQL und Oracle unterstützt.
Angriffsmethode, bei der schadhafter SQL-Code in Eingabefelder eingeschleust wird, um unbefugt auf Datenbanken zuzugreifen oder Daten zu manipulieren.
SQLite ist ein schlankes, dateibasiertes relationales Datenbanksystem, das keine separate Serverinstallation benötigt. Die gesamte Datenbank wird in einer einzigen Datei gespeichert, was SQLite ideal für eingebettete Systeme, mobile Apps und kleine Anwendungen macht. SQLite unterstützt den SQL-Standard und wird u. a. in Android, iOS und vielen Desktop-Anwendungen verwendet. Aufgrund seiner Einfachheit eignet es sich auch hervorragend zum Lernen von SQL.
SRM (Supplier Relationship Management) bezeichnet die strategische Verwaltung und Pflege von Beziehungen zu Lieferanten. Ziel ist es, Lieferantenbeziehungen zu optimieren, Kosten zu senken und die Qualität der bezogenen Waren und Dienstleistungen zu verbessern. SRM umfasst die Auswahl, Bewertung und Entwicklung von Lieferanten sowie die Steuerung der Zusammenarbeit. Im IT-Bereich spielt SRM bei der Beschaffung von Hard- und Software sowie IT-Dienstleistungen eine wichtige Rolle.
Eine SSD (Solid State Drive) ist ein Massenspeicher, der Daten auf Flash-Speicherchips statt auf rotierenden magnetischen Scheiben speichert. SSDs sind deutlich schneller, robuster und energieeffizienter als herkömmliche Festplatten (HDDs), jedoch oft teurer pro Gigabyte. Sie haben keine beweglichen Teile, sind unempfindlich gegen Erschütterungen und erreichen sehr kurze Zugriffszeiten. In modernen PCs, Laptops und Servern haben SSDs die HDD als primären Systemdatenträger weitgehend abgelöst.
Qualitätsmerkmal: Software funktioniert auch bei Fehlern, Lastspitzen oder unerwarteten Eingaben zuverlässig.
Das Stabliniensystem ist eine Organisationsform, die das Liniensystem um spezialisierte Stabsstellen ergänzt. Stabsstellen beraten und unterstützen die Linienvorgesetzten, haben jedoch keine direkte Weisungsbefugnis gegenüber den Mitarbeitern der Linie. Typische Stabsstellen sind Rechtsabteilung, Controlling oder strategische Planung. Diese Struktur verbindet die klaren Weisungswege der Linienorganisation mit dem Fachwissen spezialisierter Experten.
Projektleiter als beratende Stabsstelle ohne Weisungsbefugnis; Mitarbeiter bleiben der Linie unterstellt.
Eine Stabsstelle ist eine Organisationseinheit, die Führungskräfte beratend und unterstützend entlastet, ohne selbst Weisungsbefugnis über Linienmitarbeiter zu haben. Stabsstellen sind außerhalb der eigentlichen Befehlskette angesiedelt und nehmen Sonderaufgaben wahr, die besonderes Fachwissen erfordern. Beispiele sind Controlling, Unternehmenskommunikation, Qualitätsmanagement oder IT-Sicherheitsbeauftragte. Sie stehen in direkter Beziehung zur Führungsebene, der sie zugeordnet sind.
Testumgebung, die der Produktionsumgebung nachempfunden ist und zur finalen Qualitätsprüfung von Software unmittelbar vor dem Live-Deployment genutzt wird.
Stakeholder (Interessenträger) sind alle Personen, Gruppen oder Organisationen, die von einem Projekt oder Unternehmen betroffen sind oder Einfluss darauf haben. Im IT-Projektmanagement zählen dazu Auftraggeber, Endnutzer, Entwickler, Management und externe Partner. Die Analyse und Einbindung von Stakeholdern (Stakeholder-Management) ist entscheidend für den Projekterfolg. Unterschiedliche Interessen und Erwartungen der Stakeholder müssen identifiziert und berücksichtigt werden.
Eine Stand-Alone-Datenbank (auch Einzelplatzdatenbank) ist ein Datenbanksystem, das nur auf einem einzigen Rechner läuft und ausschließlich lokal verwendet wird. Es gibt keinen Datenbankserver, über den mehrere Benutzer gleichzeitig auf die Daten zugreifen könnten. SQLite ist ein typisches Beispiel für eine Stand-Alone-Datenbank. Sie eignet sich für kleine Anwendungen oder Einzelarbeitsplatzsysteme, bei denen kein Mehrbenutzer-Zugriff erforderlich ist.
Maß für die Streuung von Datenwerten um den Mittelwert; je größer der Wert, desto stärker variieren die Daten.
Standardsoftware ist vorgefertigte Software, die für eine breite Nutzerbasis entwickelt wurde und ohne individuelle Programmierung eingesetzt werden kann. Bekannte Beispiele sind Microsoft Office, SAP oder Betriebssysteme wie Windows. Sie steht im Gegensatz zur Individualsoftware, die speziell für einen bestimmten Kunden entwickelt wird. Standardsoftware ist in der Regel kostengünstiger und schneller verfügbar, bietet aber weniger Flexibilität bei speziellen Anforderungen.
Erste angezeigte Seite einer Website oder Anwendung, die als Einstiegspunkt und zentraler Navigationspunkt dient.
Die statische Code-Analyse ist ein Testverfahren, bei dem der Quellcode eines Programms untersucht wird, ohne ihn auszuführen. Spezielle Analysewerkzeuge (Linter, Code-Checker) durchsuchen den Code automatisch nach Fehlern, Sicherheitslücken, Verstößen gegen Coding-Standards und potenziellen Problemen. Dadurch können Fehler frühzeitig im Entwicklungsprozess erkannt und behoben werden. Bekannte Tools sind SonarQube, ESLint für JavaScript oder PMD für Java.
Statische Testverfahren prüfen Software ohne deren Ausführung — im Gegensatz zu dynamischen Verfahren, bei denen das Programm tatsächlich läuft. Zu den statischen Verfahren gehören Code-Reviews, Walkthroughs, Inspektionen und die statische Code-Analyse mit Werkzeugen. Sie dienen dazu, Fehler, Sicherheitslücken und Verstöße gegen Standards frühzeitig zu erkennen. Da statische Tests keine Testumgebung benötigen, können sie bereits in frühen Entwicklungsphasen eingesetzt werden.
Kennzahlen wie Mittelwert, Median oder Varianz, die einen Datensatz kompakt beschreiben und zusammenfassen.
Verfahren zur Erfassung, Aufbereitung und Auswertung von Daten, z. B. Regression, Hypothesentests oder Korrelationsanalyse.
Stellenbildung ist der Prozess, bei dem Aufgaben in einer Organisation zu sinnvollen, von einer Person oder Gruppe erfüllbaren Einheiten zusammengefasst werden. Dabei werden Aufgaben, Kompetenzen und Verantwortlichkeiten einer Stelle festgelegt und in einer Stellenbeschreibung dokumentiert. Die Stellenbildung ist Grundlage der Aufbauorganisation und bestimmt, wie das Unternehmen strukturell aufgebaut ist. Kriterien für die Zusammenfassung von Aufgaben sind u. a. Gleichartigkeit, Sachnähe und Spezialisierung.
Ein Stellenwertsystem ist ein Zahlensystem, bei dem der Wert einer Ziffer von ihrer Position in der Zahl abhängt. Das gebräuchlichste Stellenwertsystem ist das Dezimalsystem mit der Basis 10. In der IT sind das Binärsystem (Basis 2), das Oktalsystem (Basis 8) und das Hexadezimalsystem (Basis 16) besonders wichtig. Das Verständnis von Stellenwertsystemen ist grundlegend für das Verständnis der Datendarstellung in Computern.
Die Sterntopologie ist eine Netzwerktopologie, bei der alle Endgeräte sternförmig an einen zentralen Knoten (Switch oder Hub) angeschlossen sind. Bei einem Ausfall eines einzelnen Geräts oder einer Verbindung funktioniert das restliche Netzwerk weiter — fällt jedoch der zentrale Knoten aus, bricht das gesamte Netz zusammen. Die Sterntopologie ist heute die am weitesten verbreitete Topologie in lokalen Netzwerken (LAN). Sie erleichtert die Fehlerdiagnose und Erweiterung des Netzes erheblich.
Softwarequalitätsmerkmal: Grad, in dem Benutzer oder Testsysteme die Kontrolle über Systemfunktionen und -zustände behalten.
Ein Stick-PC ist ein vollständiger Computer in Form eines USB- oder HDMI-Sticks, der direkt an einen Monitor oder Fernseher angeschlossen wird. Er enthält Prozessor, Arbeitsspeicher, Flashspeicher und Betriebssystem in einem sehr kompakten Gehäuse. Stick-PCs sind günstig und stromsparend, aber in ihrer Leistung begrenzt und eignen sich vor allem für einfache Aufgaben wie Büroarbeiten oder Streaming. Sie werden häufig in Digital-Signage-Anwendungen oder als kostengünstige Thin-Clients eingesetzt.
Lernverfahren, bei dem Modellparameter durch zufällig ausgewählte Datenstichproben (z. B. Mini-Batches beim SGD) aktualisiert werden.
Ein Store-and-Forward-Switch empfängt einen Datenrahmen (Frame) vollständig, speichert ihn kurz zwischen und prüft ihn auf Fehler (CRC-Prüfung), bevor er ihn weiterleitet. Diese Methode ist langsamer als Cut-Through-Switching, stellt aber sicher, dass fehlerhafte Frames nicht weitergeleitet werden. Store-and-Forward-Switching ist das zuverlässigste Vermittlungsverfahren für Switches und wird in den meisten modernen Netzwerken eingesetzt. Es eignet sich besonders gut für heterogene Netze mit unterschiedlichen Übertragungsgeschwindigkeiten.
In der Datenbank gespeicherte, vorcompilierte SQL-Prozedur, die per Aufruf ausgeführt wird und Performance sowie Sicherheit verbessert.
Ungeplante Ereignisse, die den normalen IT-Betrieb beeinträchtigen; werden im Incident Management erfasst, priorisiert und über ein Ticketsystem behoben.
Ein Stream (Datenstrom) ist eine kontinuierliche Folge von Daten, die nacheinander verarbeitet oder übertragen werden, ohne dass alle Daten auf einmal im Speicher vorliegen müssen. In der Programmierung werden Streams zum Lesen und Schreiben von Dateien, Netzwerkverbindungen oder anderen Datenquellen verwendet. Beim Streaming von Medieninhalten (Video, Audio) werden Daten in Echtzeit übertragen und abgespielt, ohne vollständig heruntergeladen zu werden. Das Stream-Konzept ist in Java, Python und vielen anderen Programmiersprachen grundlegend.
Ein Streik ist eine kollektive, vorübergehende Arbeitsniederlegung von Arbeitnehmern, um Forderungen gegenüber dem Arbeitgeber — meist in Tarifverhandlungen — durchzusetzen. Das Streikrecht ist in Deutschland ein Grundrecht und steht Gewerkschaften als Kampfmittel im Arbeitskampf zu. Ein rechtmäßiger Streik muss von einer Gewerkschaft organisiert werden und darf erst nach gescheiterten Verhandlungen und nach einer Urabstimmung ausgerufen werden. Das Gegenmittel der Arbeitgeber ist die Aussperrung.
Datenstruktur (Hash-Tabelle), die Schlüssel-Wert-Paare speichert und über eine Hash-Funktion nahezu in konstanter Zeit darauf zugreift.
Die Stromversorgung in IT-Systemen umfasst alle Komponenten, die die zuverlässige Bereitstellung elektrischer Energie für Hardware sicherstellen. Wichtige Bestandteile sind Netzteile (PSU), unterbrechungsfreie Stromversorgungen (USV) und Überspannungsschutzgeräte. In Rechenzentren ist eine redundante Stromversorgung mit Notstromaggregaten essenziell, um Datenverlust und Ausfallzeiten zu vermeiden. Die Qualität der Stromversorgung beeinflusst direkt die Zuverlässigkeit und Lebensdauer von IT-Komponenten.
Entwurfsmuster, das beschreibt, wie Klassen und Objekte zu größeren Strukturen kombiniert werden (z. B. Adapter, Decorator, Proxy).
Ein Struktogramm (Nassi-Shneiderman-Diagramm) ist eine grafische Darstellungsform für Algorithmen und Programmabläufe. Es zeigt die Programmstruktur mit ineinandergeschachtelten Blöcken für Sequenzen, Verzweigungen (if/else) und Schleifen (while, for). Struktogramme erzwingen strukturierte Programmierung, da Sprünge (GOTO) nicht darstellbar sind. Sie werden als Entwurfswerkzeug vor der eigentlichen Codierung eingesetzt und helfen, die Programmlogik übersichtlich zu planen.
Die Strukturanalyse ist eine Methode der IT-Systemanalyse, bei der ein bestehendes oder geplantes System in seine Bestandteile und deren Beziehungen zerlegt wird. Ziel ist es, die Struktur und Funktionsweise des Systems zu verstehen und zu dokumentieren. In der Softwareentwicklung dient sie als Grundlage für den Entwurf und die Implementierung neuer Systeme oder die Verbesserung bestehender Systeme. Ergebnisse der Strukturanalyse fließen in technische Dokumentationen und Systemspezifikationen ein.
Strukturdiagramme sind eine Kategorie der UML-Diagramme (Unified Modeling Language), die den statischen Aufbau eines Systems beschreiben. Sie zeigen, welche Elemente (Klassen, Objekte, Komponenten) existieren und wie sie miteinander in Beziehung stehen. Wichtige Strukturdiagrammtypen sind Klassendiagramm, Komponentendiagramm und Paketdiagramm. Im Gegensatz zu Verhaltensdiagrammen beschreiben Strukturdiagramme nicht Abläufe, sondern den Aufbau des Systems.
Strukturierte Daten sind Daten, die in einem definierten, festen Format vorliegen und in Tabellen mit klar definierten Spalten und Datentypen organisiert werden können. Typische Beispiele sind Datenbanktabellen, CSV-Dateien oder Tabellenkalkulationen. Im Gegensatz dazu stehen unstrukturierte Daten (z. B. Freitexte, Bilder) und semi-strukturierte Daten (z. B. JSON, XML). Strukturierte Daten lassen sich besonders gut maschinell verarbeiten, durchsuchen und analysieren.
Daten, die in einem definierten Format mit festem Schema vorliegen (z. B. Tabellen, CSV, SQL-Datenbanken) und maschinell leicht verarbeitet werden können.
Programmieransatz, der den Ablauf ausschließlich durch Sequenz, Selektion und Iteration steuert und auf GOTO-Sprünge verzichtet, um lesbaren Code zu erzeugen.
Strukturierte Verkabelung bezeichnet ein standardisiertes Konzept für die Netzwerkinfrastruktur in Gebäuden, das eine flexible und erweiterbare Verkabelung nach klaren Regeln ermöglicht. Sie gliedert sich in drei Bereiche: Primärverkabelung (Gebäudeverbindung), Sekundärverkabelung (Etagenverteilung) und Tertiärverkabelung (Anschluss der Endgeräte). Der internationale Standard ISO/IEC 11801 und die europäische Norm EN 50173 regeln die technischen Anforderungen. Eine strukturierte Verkabelung ermöglicht die herstellerunabhängige Nutzung verschiedener Netzwerktechnologien.
Strukturierte Verkabelung bezeichnet ein standardisiertes Konzept für die Netzwerkinfrastruktur in Gebäuden, das eine flexible und erweiterbare Verkabelung nach klaren Regeln ermöglicht. Sie gliedert sich in drei Bereiche: Primärverkabelung (Gebäudeverbindung), Sekundärverkabelung (Etagenverteilung) und Tertiärverkabelung (Anschluss der Endgeräte). Der internationale Standard ISO/IEC 11801 und die europäische Norm EN 50173 regeln die technischen Anforderungen. Eine strukturierte Verkabelung ermöglicht die herstellerunabhängige Nutzung verschiedener Netzwerktechnologien.
Designmuster zur Komposition von Klassen und Objekten, um flexiblere und wartbare Softwarestrukturen zu schaffen.
Kalkulation der Kosten pro Arbeitsstunde unter Berücksichtigung von Personalkosten, Gemeinkosten und Gewinnzuschlag; Grundlage für Angebote und Projektcontrolling.
Die Stundensatzkalkulation ist eine Methode zur Preisermittlung bei Dienstleistungen, bei der alle Kosten auf geleistete Arbeitsstunden umgerechnet werden. Der Stundensatz ergibt sich aus der Summe aller Personal- und Gemeinkosten geteilt durch die kalkulierten produktiven Stunden pro Jahr. IT-Dienstleister und Systemhäuser nutzen die Stundensatzkalkulation, um Angebote für Projekte und Wartungsverträge zu erstellen. Ein realistisch kalkulierter Stundensatz deckt alle Kosten und sichert die Rentabilität des Unternehmens.
ML-Algorithmus, der Datenpunkte durch eine optimale Trennhyperebene mit maximalem Abstand zu den Stützvektoren klassifiziert.
In eine übergeordnete SQL-Abfrage eingebettete Unterabfrage, deren Ergebnis als Eingabe für die äußere WHERE-, FROM- oder SELECT-Klausel dient.
SQL-Unterabfragen (SELECT innerhalb eines SELECT), die Zwischenergebnisse für die übergeordnete Abfrage liefern, z. B. zum Vergleich mit Aggregatwerten.
Das Subsidiaritätsprinzip besagt, dass Aufgaben auf der niedrigsten geeigneten Ebene erledigt werden sollen — übergeordnete Ebenen sollen nur eingreifen, wenn untergeordnete Einheiten überfordert sind. Es ist ein Grundprinzip der sozialen Marktwirtschaft und der Europäischen Union, das staatliche Eingriffe auf das notwendige Maß beschränkt. Im Sozialrecht bedeutet es, dass staatliche Leistungen erst dann gewährt werden, wenn Eigeninitiative und Selbsthilfe erschöpft sind. Das Prinzip stärkt lokale Eigenverantwortung und Entscheidungsautonomie.
SUM ist eine Aggregatfunktion in SQL, die die Summe aller Werte einer Spalte berechnet. Sie wird typischerweise zusammen mit GROUP BY eingesetzt, um Teilsummen für Gruppen zu berechnen. Beispiel: `SELECT kategorie, SUM(preis) FROM produkte GROUP BY kategorie` berechnet den Gesamtumsatz je Kategorie. SUM ignoriert NULL-Werte bei der Berechnung und zählt nur numerische Werte.
ML-Verfahren, bei dem ein Modell anhand beschrifteter Trainingsdaten (Eingabe-Ausgabe-Paare) trainiert wird, um Vorhersagen zu treffen.
SCADA – industrielles System zur zentralen Überwachung und Fernsteuerung verteilter Anlagen wie Stromnetze, Wasserversorgung oder Produktionslinien.
IT-Support bezeichnet die Unterstützung von Anwendern bei technischen Problemen und die Sicherstellung des reibungslosen Betriebs von IT-Systemen. Er wird in Level (1st, 2nd, 3rd Level Support) eingeteilt, wobei komplexere Probleme an höhere Ebenen eskaliert werden. Support umfasst Fehleranalyse, Fehlerbehebung, Benutzerberatung und Systemwartung. Ein strukturiertes Ticketsystem (Helpdesk) und definierte Service Level Agreements (SLAs) sind wichtige Instrumente im professionellen IT-Support.
Hierarchisch gestaffelte Supportstufen (1st, 2nd, 3rd Level), die Anfragen nach Komplexität und Fachkompetenz annehmen, bearbeiten und eskalieren.
Unterstützender Geschäftsprozess, der Kernprozesse absichert, z. B. IT-Helpdesk, Personalwesen oder Systemwartung.
Austauschservice, bei dem defekte Hardware sofort durch ein Ersatzgerät getauscht wird, um Ausfallzeiten zu minimieren; typisches Merkmal von SLA-Verträgen.
Swift ist eine von Apple entwickelte Programmiersprache für die Entwicklung von Apps auf iOS, macOS, watchOS und tvOS. Sie wurde 2014 vorgestellt und soll die ältere Sprache Objective-C ablösen, ist aber schneller, sicherer und leichter zu erlernen. Swift ist typsicher, unterstützt moderne Konzepte wie optionale Werte und Closures und wird aktiv als Open-Source-Projekt weiterentwickelt. Für die Entwicklung nativer Apple-Apps ist Swift heute die bevorzugte Programmiersprache.
Ein Switch (Netzwerkswitch) ist ein aktives Netzwerkgerät, das Datenpakete in einem lokalen Netzwerk (LAN) gezielt zwischen den angeschlossenen Geräten vermittelt. Im Gegensatz zum Hub sendet ein Switch Daten nur an den jeweiligen Ziel-Port und nicht an alle Ports gleichzeitig, was die Netzwerklast reduziert und die Übertragungsgeschwindigkeit erhöht. Switches arbeiten auf Schicht 2 (Data Link Layer) des OSI-Modells und lernen die MAC-Adressen der angeschlossenen Geräte automatisch. Moderne Managed Switches bieten zusätzlich Funktionen wie VLANs, Port-Mirroring und Quality of Service (QoS).
Switches unterscheiden sich nach ihrer Weiterleitungsmethode: Beim Store-and-Forward-Verfahren wird der gesamte Frame gespeichert und auf Fehler geprüft, bevor er weitergeleitet wird. Cut-Through-Switches leiten Frames bereits weiter, sobald die Zieladresse gelesen wurde, was die Latenz reduziert, aber fehlerhafte Frames durchlässt. Das Fragment-Free-Verfahren ist ein Kompromiss und prüft nur die ersten 64 Byte eines Frames. Die Wahl des Switchtyps hängt von den Anforderungen an Geschwindigkeit und Zuverlässigkeit im Netzwerk ab.
Kommunikationsmuster, bei dem der Sender blockiert und auf eine Antwort wartet, bevor er seine Ausführung fortsetzt.
Abstimmung paralleler Prozesse oder verteilter Daten, damit gemeinsam genutzte Ressourcen konsistent bleiben und Race Conditions verhindert werden.
Fehler beim TCP-Verbindungsaufbau (SYN-Handshake), z. B. durch verlorene Pakete, abgelehnte Verbindungen oder einen SYN-Flood-Angriff (DoS).
Die Syntax einer Programmiersprache definiert die formalen Regeln, nach denen gültige Programme aufgebaut werden müssen — also welche Zeichenkombinationen erlaubt sind. Syntaxfehler treten auf, wenn diese Regeln verletzt werden (z. B. fehlende Klammern, falsche Schlüsselwörter) und werden vom Compiler oder Interpreter vor der Ausführung erkannt. Die Syntax beschreibt das "Wie" des Programmcodes, während die Semantik die Bedeutung (das "Was") festlegt. Jede Programmiersprache hat ihre eigene Syntax, die in einer formalen Grammatik beschrieben wird.
Die Systemdokumentation beschreibt den technischen Aufbau, die Architektur und die Funktionsweise eines IT-Systems für Entwickler, Administratoren und technisches Personal. Sie umfasst Informationen zu Systemarchitektur, Schnittstellen, Datenbanken, Konfigurationen und Betriebsvoraussetzungen. Eine vollständige Systemdokumentation ist unverzichtbar für Wartung, Weiterentwicklung und Fehlerbehebung. Sie unterscheidet sich von der Benutzerdokumentation, die sich an Endanwender richtet.
Systemlieferung bezeichnet die vollständige Übergabe eines IT-Systems (Hardware, Software, Konfiguration, Dokumentation) an den Auftraggeber oder Kunden. Sie markiert den Abschluss eines IT-Projekts oder Auftrags und umfasst häufig eine Abnahmeprüfung, bei der der Kunde prüft, ob alle vereinbarten Leistungen erfüllt wurden. Eine formale Abnahme durch den Kunden schließt die Systemlieferung ab und begründet in der Regel die Fälligkeit der Schlussrechnung. Zur Systemlieferung gehört auch die Einweisung der Nutzer.
Systemsoftware umfasst alle Programme, die den Betrieb eines Computers ermöglichen und die Hardware verwalten, ohne dabei eine spezifische Benutzeraufgabe zu erfüllen. Das wichtigste Beispiel ist das Betriebssystem (Windows, Linux, macOS), das Hardware abstrahiert und Anwendungsprogrammen eine einheitliche Schnittstelle bietet. Weitere Systemsoftware sind Gerätetreiber, Bootloader, BIOS/UEFI und Dienstprogramme. Systemsoftware bildet die Grundlage, auf der Anwendungssoftware ausgeführt werden kann.
Dokument, das alle funktionalen und nicht-funktionalen Anforderungen an ein IT-System präzise und verbindlich beschreibt.
Der Systemtest ist eine Teststufe, bei der das vollständig integrierte System als Ganzes gegen die definierten Anforderungen geprüft wird. Er findet nach dem Integrationstest statt und wird in der Regel in einer Testumgebung durchgeführt, die der Produktionsumgebung möglichst ähnlich ist. Im Systemtest werden funktionale Anforderungen (Was macht das System?) und nichtfunktionale Anforderungen (Performance, Sicherheit, Usability) überprüft. Der Systemtest erfolgt aus Anwendersicht und ist Voraussetzung für den abschließenden Abnahmetest.
Systemüberwachung (Monitoring) bezeichnet die kontinuierliche Beobachtung und Analyse von IT-Systemen hinsichtlich Verfügbarkeit, Performance und Fehlerfreiheit. Monitoring-Tools erfassen Metriken wie CPU-Auslastung, Arbeitsspeicher, Netzwerkdurchsatz und Festplattenkapazität und lösen bei Grenzwertüberschreitungen Alarme aus. Bekannte Monitoring-Lösungen sind Nagios, Zabbix, Prometheus und Grafana. Eine proaktive Systemüberwachung ermöglicht es, Probleme zu erkennen und zu beheben, bevor sie zu Ausfällen führen.