Abkürzungsverzeichnis KI, Software, IT, EDV und Programmierung - all-electronics

2021-11-26 03:34:46 By : Ms. janny hou

Was ist eine Blockchain und bedeutet IP, DNN oder ERP? Wir erklären Begriffe aus den Bereichen KI, Software, IT, EDV und Programmierung – von AES und ECC über KI, PQC und TLS bis hin zu VM und XML.

Die folgende Zusammenstellung enthält kurze Erläuterungen und Definitionen für wichtige Abkürzungen (zB KI, DNN, ERP oder IP) und Begriffe wie Blockchain – aus den Bereichen KI, Software, IT, EDV und Programmierung. Links zu themenbezogenen Fachartikeln sowie zu weiteren Websites bieten viele weitere Details und informieren über den Stand der Technik.

Der vom National Institute of Standards and Technology (NIST) weiterentwickelte Verschlüsselungsstandard AES aus dem Jahr 2000 ist eine Blockchiffre und Nachfolger von DES (Data Encryption Standard). AES wird nach seinen Entwicklern auch Rijndael-Algorithmus genannt. Bei diesem symmetrischen Verschlüsselungsverfahren sind die Verschlüsselungs- und Entschlüsselungsschlüssel identisch. Der Algorithmus ist frei verfügbar und darf ohne Lizenzgebühren verwendet und in Soft- und Hardware implementiert werden. AES-192 und AES-256 sind in den USA für Regierungsdokumente mit höchster Vertraulichkeit zugelassen. Auch beim Produkt- und Know-how-Schutz in der intelligenten Produktion spielen kryptografische Verfahren eine wichtige Rolle. Andere Kryptographiestandards umfassen DES und FAME.

Künstliche Intelligenz in Maschinen, siehe KI

Die Amplitudenumtastung (ASK) ist eines der digitalen Modulationsverfahren in der Nachrichtentechnik. Die Amplitude eines Trägers wird schlagartig geändert, um unterschiedliche Werte zu übertragen. Die einfachste Form des Amplituden-Keyings ist das On-Off-Keying (OOK), bei dem der Träger ein- und ausgeschaltet wird, um eine 1 oder 0 zu übertragen. Durch unterschiedliche Amplitudensprünge können mehrere Bits pro Symbolschritt kodiert werden (vier verschiedene Amplituden repräsentieren zwei Bits: 00, 01, 10 und 11). Höhere Datenraten verwenden mehrere Träger parallel.

Ein Bare-Metal-Server ist ein eigenständiger Computerserver für einen einzelnen Kunden. Der Begriff unterscheidet sich von Formen der Virtualisierung und des Cloud-Hostings; Bare-Metal-Server haben einen einzigen Kunden und werden nicht von mehreren Kunden geteilt. Jeder zur Miete angebotene Bare-Metal-Server bildet einen eigenständig funktionierenden logischen Server auf separater physischer Hardware, im Gegensatz zu einem virtuellen Server, der auf mehrfach genutzter Hardware läuft. Beachten Sie auch den Begriff Bare-Metal-Virtualisierung im Zusammenhang mit der Virtualisierungsarchitektur.

Bare-Metal-Virtualisierung ist eine Virtualisierungsarchitektur mit direktem Hardwarezugriff. Neben der Hostvirtualisierung ist die Bare-Metal-Variante die zweithäufigste Virtualisierungsarchitektur. Dabei kommuniziert die VMM-Software (Virtual Machine Monitor, Hypervisor) ohne zwischengeschaltetes Host-Betriebssystem direkt mit der Hardware. Auf diese Weise kann der Hypervisor direkt mit I/O-Geräten kommunizieren. Im Gegensatz zur Host-Lösung ist der Installationsaufwand beim Bare-Metal-Ansatz deutlich höher, da der Hypervisor grundsätzlich über die Treiber für die Geräte und die notwendigen Treiber für die verschiedenen Hardware-Plattformen verfügen muss. Bare Metal unterstützt insbesondere Echtzeit-Betriebssysteme, die parallel zu einem universellen Betriebssystem ausgeführt werden können. Ein Fachartikel zur Virtualisierung eingebetteter Industriesysteme diskutiert verschiedene Hardware-Virtualisierungsmethoden für die Prozessautomatisierung. Beachten Sie in diesem Zusammenhang auch den Begriff Bare-Metal-Server.

Deutsche Begriffe für Bit Error Rate (BER) sind Bit Error Rate (BFR) oder Bit Error Frequency (BFH). In der Nachrichtentechnik ist es ein Maß für die Qualität der digitalen Signalübertragung. Einflussfaktoren sind Rauschen, Interferenzen, Signalverzerrungen oder Bitsynchronisationsfehler. Einheit ist "Anzahl der Fehler pro Zeiteinheit".

Im Prinzip ist eine Blockchain eine Block-für-Block-Kette von Transaktionsdaten. Eine Blockchain ist eine kontinuierlich erweiterbare Liste von Datensätzen, sogenannten Blöcken, die durch kryptografische Verfahren miteinander verknüpft sind. Jeder Block enthält typischerweise einen kryptographisch sicheren Hash (Scatter-Wert) des vorherigen Blocks, einen Zeitstempel und Transaktionsdaten. Als dezentrale Datenbank ermöglicht dieses Konzept eine schnelle Abwicklung von Transaktionen und eine besonders manipulationssichere Speicherung. Die in Blöcken abgelegten Daten sind chronologisch verknüpft und bauen inhaltlich aufeinander auf. Bei nachträglicher Manipulation einzelner Daten kann dies mit einfachen Mitteln anhand der folgenden Blöcke festgestellt werden. Die Blockchain kann an vielen Stellen gleichzeitig dezentral gespeichert werden, was sie vor Manipulation schützt, da mehrere der anderen Teilnehmer (Blockchain-Knoten) neu hinzugefügte Blöcke überprüfen können.

Beginn der (Produkt-)Lebensdauer. Ein Begriff aus der Batterietechnik.

Modulationsverfahren in der Nachrichtentechnik -> siehe PSK.

Das BSI wurde am 1. Januar 1991 gegründet und gehört zur Abteilung des Bundesministeriums des Innern. Die Behörde mit Sitz in Bonn ist eine unabhängige und neutrale Stelle für Fragen der IT-Sicherheit in der Informationsgesellschaft. Derzeit sind dort mehr als 800 Informatiker, Physiker, Mathematiker und andere Mitarbeiter beschäftigt.

BSIMM ist eine Initiative für Softwaresicherheit in der realen Welt.

Obwohl es sich um eine deutsche Abkürzung handelt, ist BV im Deutschen durchaus gebräuchlich, da die Abkürzung des englischen Pendants, der Bildverarbeitung, bereits mehrfach verwendet wurde (IP: Internet Protocol, Intellectual Property)

In der Informationssicherheit stellt diese Organisation digitale Zertifikate aus. Dieser dient dazu, einer Person oder Organisation einen bestimmten öffentlichen Schlüssel zuzuordnen, den die Zertifizierungsstelle authentifiziert, indem sie den Schlüssel mit einer eigenen digitalen Signatur versehen. Wie das im vernetzten Auto funktioniert, beschreibt dieser Fachartikel.

Zugangsbeschränkung (für Pay-TV und ähnliche Inhalte)

Condition Based Monitoring (CbM) durch die Auswertung des Betriebszustands der jeweiligen Maschine sorgt dafür, dass die Wartungskosten gegenüber einem geplanten Wartungssystem, das auf einem festen und oft recht konservativen Zeitplan basiert, reduziert werden. Weitere Details zur praktischen Umsetzung von CbM finden Sie hier

Die hier verlinkte Wikipedia-Seite definiert CC wunderbar kompakt: Die CC sind allgemeine Kriterien zur Beurteilung der Sicherheit von Informationstechnologien; CC sind ein internationaler Standard zum Testen und Bewerten der Sicherheitseigenschaften von IT-Produkten.

Der Softwarecodierungsstandard für die Programmiersprache C wurde vom CERT-Koordinationszentrum am Software Engineering Institute (SEI) entwickelt, um die Zuverlässigkeit und Sicherheit von Softwaresystemen zu verbessern. Die Secure Coding Guidelines sind mit mehreren anderen Standards verknüpft, darunter Common Weakness Enumeration (CWE) Records und MISRA. CERT oder CSIRT (Computer Security Incident Response Team) ist eine Gruppe von IT-Sicherheitsexperten, die als Koordinator bzw oder Cyberangriffe) befasst sich mit der Computersicherheit im Allgemeinen, warnt vor Sicherheitslücken und bietet Lösungsmöglichkeiten. Auch im Bereich medizinischer Software gelten Richtlinien bezüglich Zuverlässigkeit und Sicherheit, wie dieser Artikel zeigt.

Softwarelösung zur Strömungssimulation

Kontrollflussüberwachung (im Bereich der modellbasierten Entwicklung)

Carrier Grade ist eine informelle Spezifikation für die Zuverlässigkeit eines Systems. Es wird insbesondere im Bereich der Netzwerkkomponenten für Computer- und Telekommunikationsnetze eingesetzt und führt dazu, dass das Gerät im Durchschnitt weniger als 5 Minuten im Jahr ausfällt. Dies entspricht einer Verfügbarkeit von 99,999 % der Gesamtzeit, die oft als Five Nine bezeichnet wird.

Das CISPA ist aus dem seit 2011 bestehenden BMBF-Kompetenzzentrum für IT-Sicherheit, Datenschutz und Rechenschaftspflicht hervorgegangen und fungiert nun als Helmholtz-Zentrum für Informationssicherheit (kurz CISPA) als große deutsche Bundesforschungseinrichtung innerhalb der Helmholtz-Gemeinschaft

eine systematische Sammlung von Referenzmodellen

Eine Form der Implementierung des neuronalen Netzes, die in der künstlichen Intelligenz für maschinelles Lernen verwendet wird. Hintergrundinformationen zur Nutzung von CNN im Auto liefern die Nvidia Keynote Speaker in Ludwigsburg 2017 und Wikipedia.

Das als CRC (Cyclic Redundancy Check) bekannte Testverfahren fügt jedem Datenpaket vor der Speicherung oder Übertragung zusätzliche Redundanz in Form eines CRC-Wertes hinzu, um Übertragungsfehler erkennen zu können. Um die Daten zu überprüfen, wendet ein Empfänger dieselbe Berechnungsmethode auf den Datenblock an, einschließlich des angehängten CRC-Werts. Ist das Ergebnis Null, gilt der Datenblock als unverfälscht. Im Idealfall kann das Verfahren sogar die empfangenen Daten selbstständig korrigieren, um eine erneute Übertragung zu vermeiden.

Weitere Informationen finden Sie HIER.

Das CWE richtet sich an (Software-)Entwickler und Sicherheitsfachleute und ist eine formelle Sammlung für Arten von Softwareschwächen. Es dient als gemeinsame Sprache zur Beschreibung von Software-Sicherheitslücken in Bezug auf Architektur, Design oder Code; ist ein Benchmark für Software-Sicherheitstools und bietet gemeinsame Basisstandards zum Identifizieren, Mindern und Verhindern von Schwachstellen.

Ein kryptografischer Standard. Siehe auch AES und FAME

DevOps zielt darauf ab, das Zusammenspiel zwischen Softwareentwicklung und IT-Infrastruktur zu verbessern.

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) ist eine öffentlich-private Partnerschaft mit Großunternehmen, Mittelstand, den Ländern Rheinland-Pfalz, Bremen und dem Saarland als Gesellschafter und dem Bundesministerium für Bildung und Forschung als Projektträger

Als Deep-Learning-System versteht DGN den Kontext, in dem sich ein autonomes Fahrzeug bewegt. Der Deep-Grid-Net-Algorithmus sagt diesen Kontext vorher, indem er lokale Occupancy Grids (OG) analysiert, die aus zusammengeführten sensorischen Rohdaten erstellt werden. Elektrobit hat den Begriff DGN . geprägt

In der technischen Welt werden komplexe neuronale Netze in Maschinen und Steuerungsprozessen mit künstlicher Intelligenz (KI, KI) eingesetzt oder um immense Datenfluten in der Datenverarbeitung zu bewältigen. Nach einer Lern- oder Trainingsphase können Inferenzmaschinen Datenkontexte verstehen und Prognosen ableiten. Die leistungsstarke Hardware für DNN verwendet GPU- und GSP-Architekturen.

eine Modellierungsmethode im Rahmen der modellbasierten Anwendung

Diese Kryptoanalyse kann verwendet werden, um die Verschlüsselung von Smartcards oder anderen Verschlüsselungskomponenten zu bestimmen. Das DPA-Verfahren erfasst den Spannungspegel an verschiedenen Pins, um diese einer statistischen Analyse zu unterziehen. Aus dem Rechenaufwand über die Zeit lassen sich somit das Verschlüsselungsverfahren und der geheime Schlüssel ableiten. Der DPA ist ein Seitenkanalangriff.

Im Gegensatz zur Angabe von Fehlern pro Einheit (Fehler / ppm) beinhaltet DPMO die Anzahl aller möglichen Fehler pro Einheit, um die Vergleichbarkeit verschiedener komplexer Einheiten zu erleichtern.

Ein auf TLS basierendes Verschlüsselungsprotokoll. Details zu DTLS finden Sie hier.

EAL definiert sieben Vertrauensstufen von EAL 1 bis EAL 7 im Rahmen der Common Criteria (CC)

Das Datenverschlüsselungsverfahren (Elliptic Curve Cryptography) ist ein asymmetrisches Verschlüsselungsverfahren. Grundlage für den 1985 entwickelten Verschlüsselungsalgorithmus sind elliptische Kurven. Das Verfahren ist nur dann sicher, wenn diskrete Logarithmen in der Punktgruppe der elliptischen Kurve nicht effizient berechnet werden können.

Das Datenverschlüsselungsverfahren ECDH verwendet den Verschlüsselungsalgorithmus des Diffie-Hellman-Verfahrens (DH), der auf der Potenzierung der zu verschlüsselnden Daten mit großen Exponenten beruht. Das auf ECC basierende Verfahren bietet eine hohe Sicherheit bei relativ kurzen Schlüssellängen. Beispielsweise verwendet eine besonders sicherheitskritische Bluetooth-Kommunikation dieses Verschlüsselungsverfahren.

Eine Variante des DSA-Verfahrens im Kontext der Kryptographie ist das ECSDA-Verfahren.

In der Betriebsmittelplanung werden ERP-Systeme als betriebswirtschaftliche Softwarelösungen zur Steuerung von Geschäftsprozessen eingesetzt. Sie dienen dazu, betriebliche Ressourcen wie Kapital, Personal oder Produktionsmittel bestmöglich zu steuern und zu steuern, was einen effizienten betrieblichen Wertschöpfungsprozess und eine kontinuierlich optimierte Steuerung der betrieblichen Abläufe gewährleisten soll. Die Kernfunktion von ERP in produzierenden Unternehmen ist die Materialbedarfsplanung, damit alle für die Produktherstellung benötigten Materialien zur richtigen Zeit, am richtigen Ort und in der richtigen Menge zur Verfügung stehen

XML-Interchange ist ein vom World Wide Web Consortium (W3C) vorgeschlagenes Format für die binäre Darstellung von XML-Informationsmengen (die Strukturierung eines XML-Dokuments). Im Vergleich zu textbasierten XML-Dokumenten können Dokumente im EXI-Format schneller verarbeitet werden und benötigen weniger Bandbreite bei der Übertragung über ein Netzwerk. Neben EXI gibt es noch andere Ansätze, eine binäre Darstellung für XML zu erstellen, zB Binary XML.

Ein kryptografischer Standard, der direkt mit AES und DES konkurriert.

In der Softwaretechnik ist ein Framework kein eigenständiges Programm, sondern ein Framework, das den Programmierer bei der Programmierung seiner Anwendungen unterstützt. Das Framework wird hauptsächlich in der objektorientierten Programmierung verwendet und umfasst Bibliotheken, Schnittstellen, Laufzeitumgebungen und verschiedene Tools. Es beeinflusst die Entwicklung der Softwarearchitektur und liefert die grundlegende Entwurfsstruktur für Basismodule in Form von abstrakten und konkreten Klassen.

Die Fehlerbaumanalyse, auch Fehlerbaumanalyse genannt, ist eine Methode zur Zuverlässigkeitsanalyse von technischen Anlagen und Systemen.

GAN ist ein spezieller Algorithmus für unüberwachtes Lernen.

ein von Conti . initiierter Begriff

Offener Debugger, der verschiedene Programmiersprachen wie C, C, Fortran oder Java unterstützt.

GNU ist ein offenes, Linux-ähnliches Betriebssystem. Als freie Software können Benutzer das Programm frei verwenden, verteilen, modifizieren und untersuchen. Siehe auch GPL, GNU General Public License.

Form der Lizenzierung für frei zugängliche Software. Details zur GNU General Public License finden Sie hier.

Grafische Schnittstelle zum Benutzer / Benutzer

HDCP ist ein von Intel im Jahr 2003 entwickeltes kryptografisches Verschlüsselungssystem, das für die DVI-, HDMI- und DisplayPort-Schnittstellen zur geschützten Übertragung von Audio- und Videodaten vorgesehen ist. HDCP soll der Standard für HDTV in Europa werden und wird sowohl für Blu-ray Disc als auch für HD-DVD verwendet. Das Verschlüsselungsverfahren soll verhindern, dass das Video- und Audiomaterial innerhalb der Verbindung zwischen Sender und Empfänger abgehört wird. In jedem HDCP-konformen Gerät sind laut Spezifikation 40 Schlüssel mit einer Länge von jeweils 56 Bit gespeichert.

Methode aus der multivariaten Statistik zur Berechnung unabhängiger Komponenten in einer Mischung statistisch unabhängiger Zufallsvariablen

Renesas nennt den Krypto-Coprozessor in den MCUs die intelligente Kryptographie-Einheit.

Sicherheitssystem zur Erkennung und Verhinderung von Einbrüchen in ein System.

Das Angriffserkennungssystem erkennt Eindringlinge in Computersystemen oder Computernetzwerken. IDS kann eine Firewall ergänzen oder direkt auf dem zu überwachenden Rechner laufen und so die Sicherheit von Netzwerken und Systemen erhöhen.

Der Begriff geistiges Eigentum taucht in der digitalen und elektronischen Welt häufig im Zusammenhang mit der Software- und Hardwareentwicklung auf.

Die Grundlage des Internets bildet das in Computernetzwerken weit verbreitete Netzwerkprotokoll. Es ist die Implementierung der Internetschicht des TCP/IP-Modells und entspricht der Netzwerkschicht des OSI-Modells. IP ist ein verbindungsloses Protokoll, dh es wird kein Status für die Kommunikationspartner hergestellt. Anhand der IP-Adresse und Subnetzmaske für IPv4 oder der Präfixlänge für IPv6 können Computer innerhalb eines Netzwerks in logische Einheiten, die Subnetze, gruppiert werden.

Typische Bereiche für Industrie-PCs sind Prozessvisualisierung, Robotik, Industrieautomation, Prüfstände für Industrie- oder Sicherheitstechnik und Qualitätssicherung. Im Vergleich zum Office-PC ist ein IPC robuster gegenüber Umwelteinflüssen sowie elektromagnetischen Störungen und insgesamt weitgehend ausfallsicher ausgelegt. Herkömmliche PCs weisen aufgrund der Massenproduktion einen hohen Standardisierungsgrad auf – sowohl in Bezug auf Hard- als auch Software. Durch seine hohe Flexibilität kann ein PC zum Bedienen, Programmieren, Visualisieren, Langzeitarchivieren und Simulieren von Prozessen eingesetzt und auch mit herkömmlichen Industriesteuerungen oder SPS kombiniert werden.

Die integrierte Umgebung für Testdesign und Testausführung ist ein Produkt von Vector Informatik.

wird in der Produktion (Lieferung nur zu dem Zeitpunkt, zu dem ein Teil benötigt wird) sowie in der Softwareentwicklung verwendet (JIT-Compiler übersetzen nur Code, wenn ein Programm läuft)

JSON ist ein Datenformat in Textform zum Datenaustausch

Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich mit der Automatisierung von intelligentem Verhalten und maschinellem Lernen beschäftigt. Der Begriff lässt sich nicht eindeutig definieren, da bereits eine genaue Definition von Intelligenz fehlt. Dennoch wird es in Forschung und Entwicklung eingesetzt. Mit Blick auf die bereits bestehenden und sich abzeichnenden Anwendungsgebiete ist Künstliche Intelligenz einer der wegweisenden Treiber der digitalen Revolution. Ein Fachartikel zum Thema Graph Streaming Processing bricht mit den traditionellen Methoden der Entwicklung von Künstlicher Intelligenz (KI) und Machine Learning (ML) und stellt den Ansatz einer hocheffizienten, parallelen, datenfluss- und diagrammbasierten Aufgabenarchitektur vor.

Das Bit, das die kleinste Zweierpotenz darstellt, dh in der Praxis unserer Notation die ganz rechte (letzte) Ziffer einer Dualzahl.

Test im Rahmen der modellbasierten Softwareentwicklung (Überbegriff: XiL)

Der Oberbegriff steht für die künstliche Generierung von Erfahrungswissen: Ein künstliches System lernt aus Beispielen und kann diese nach Abschluss der Lernphase verallgemeinern. Es lernt die Beispiele nicht auswendig, sondern erkennt Muster sowie Regelmäßigkeiten in den Lerndaten und kann unbekannte Daten bewerten (Lerntransfer) oder unbekannte Daten nicht lernen (Overfitting). Aus dem breiten Spektrum möglicher Anwendungen seien hier genannt: automatisierte Diagnoseverfahren, Erkennung von Kreditkartenbetrug, Börsenanalysen, Klassifizierung von Nukleotidsequenzen, Sprach- und Texterkennung sowie autonome Systeme. Ein Fachartikel zum Thema Graph Streaming Processing bricht mit den traditionellen Methoden der Entwicklung von Künstlicher Intelligenz (KI) und Machine Learning (ML) und stellt den Ansatz einer hocheffizienten, parallelen, datenfluss- und diagrammbasierten Aufgabenarchitektur vor. Für die Softwareentwicklung im Bereich KI/ML stehen verschiedene Frameworks zur Verfügung: TensorFlow, CAFFE, PyTorch oder TORCH, Apache Spark, Apache Singa, Microsoft CNTK, Amazon Machine Learning, Apache Mahout, Scikit-Learn, Accord.NET.

Durchschnittliche Lebensdauer / Betriebszeit zwischen Ausfällen von Komponenten, Systemen und anderen Komponenten.

Maschinelle Sprachverarbeitung im Kontext der Computerlinguistik. NLP-Systeme dienen dazu, normale Sätze zu verstehen und beispielsweise eine Aktion auszuführen: "System, schalte das Licht im Wohnzimmer ein!"

Natürliches Sprachverständnis ist für NLP wichtig, auch wenn die Aussprache nicht perfekt ist.

Neuronales Netz (als Teil der KI)

OOP ist eine Methode zur Modularisierung von Programmen, die sich stark von der klassischen prozeduralen Programmierung unterscheidet. Ziel ist es, OOP-Software einfacher zu warten und zu erweitern als prozedurale Software. Die strikte Modularisierung von Unit-Tests vereinfacht die Wiederverwendung von Softwareteilen und folgt dem Programmierparadigma der imperativen Programmierung ref = "https://www.itwissen.info/Objektorientierte-Programmierung-object-orientiert-programming-OOP.html" target = "_ blank"> Objektorientierte Programmierung

teilt Programme in Einheiten ein, die als Objekte bezeichnet werden. Jedes Objekt hat einen Zustand, der durch seine Eigenschaften (Objektattribute) beschrieben wird. Nur die im Objekt selbst verfügbaren Funktionen (sogenannte Methoden) können seine Daten manipulieren und somit den Zustand ändern. Objekte können Nachrichten an andere Objekte senden (durch Aufrufen ihrer Methoden), um sie aufzufordern, ihren Zustand zu ändern. Letztlich ist es jedoch Sache des Objekts, zu entscheiden, ob es der Aufforderung nachkommt. Somit befindet sich das Objekt immer in einem wohldefinierten, selbstkontrollierten Zustand.

Die Spezifikation wurde 2008 von der Khronos Group erstellt und erleichtert die Programmierung von Prozessoren (CPU), Grafikprozessoren (GPU) und Prozess-/Datenbeschleunigern, die in hohem Maße parallel arbeiten. OpenCL hilft, große Mengen unabhängiger Daten mit hoher Rechenleistung effizient zu verarbeiten. In diesem Zusammenhang mit GPGPU (General Purpose Computation on Graphics Processing Unit) können Hochleistungs-GPUs mit unzähligen Prozessorkernen neue Hochleistungsberechnungen über die einfache Aufgabe der Bidsynthese (Rendering) hinaus bewältigen, beispielsweise in neuronalen Netzen für KI (Künstliche Intelligenz) ) und ML (maschinelles Lernen).

Open Service for Lifecycle Collaboration ist eine technische Initiative, die die Integration von Werkzeugen für die Softwareentwicklung spezifiziert. Ziel ist es, durch Standardisierung die Arbeit von Toolanbietern und Anwendern zu vereinfachen. Die OSLC-Initiative ist seit Juni 2013 Mitglied von OASIS, einer Organisation zur Weiterentwicklung von E-Business- und Webservice-Standards. Weitere Themen von OSLC sind Application Lifecycle Management (ALM), Product Lifecycle Management (PLM), Betrieb von IT-Systeme und andere.

Software, deren Quellcode öffentlich und von Dritten eingesehen, geändert und verwendet werden kann. Open Source Software kann meist kostenlos genutzt werden. Software kann sowohl von Einzelpersonen aus altruistischen Motiven als auch von Organisationen oder Unternehmen zu Open Source-Software gemacht werden, um Entwicklungskosten zu teilen oder Marktanteile zu gewinnen.

OT ist ein Paket aus Hard- und Software, das einerseits Änderungen erkennt und andererseits Änderungen anstößt. Dies geschieht durch direkte Überwachung und/oder Steuerung von Prozessen, physikalischen Einheiten und Ereignissen im Gesamtsystem

Verfahren aus der multivariaten Statistik zur Strukturierung, Vereinfachung und Visualisierung umfangreicher Datensätze.

System zur Ausstellung kryptografischer Zertifikate

Im Kontext der funktionalen Sicherheit empfiehlt die Norm ISO26262 Methoden zur Bestimmung der Wahrscheinlichkeitsmetrik für zufällige Hardwareausfälle (PMHF), dh einer Restfehlerrate. Dies beinhaltet die Berechnung der Systemausfallraten; eine FTA (Failure Tree Analysis), die Bewertung des ASIL für funktionale Sicherheit und Fallstudien.

Verschlüsselungsalgorithmen, denen sogar Quantencomputer standhalten sollen.

Nicht physikalisch klonbare Funktionen sind Hardwarestrukturen in einem Halbleiter, die dazu dienen, den Halbleiter eindeutig zu identifizieren oder Schlüssel für kryptographische Verfahren zu sichern. Chiphersteller wie Microchip (ehemals Microsemi), Intel und Maxim setzen auf dieses Verfahren.

Zum Beispiel nach DIN EN ISO 9000

Rapid Control Prototyping bezeichnet eine computergestützte Entwurfsmethode zur schnellen Regelungs- und Regelungsentwicklung. Typische Designschritte in RCP sind die Spezifikation und Modellierung des Zielgeräts, das Regelungsdesign im Modell und die Implementierung auf dem Steuergerät sowie das Testen durch Simulation und am realen System.

REST ist ein Programmierparadigma für verteilte Systeme.

Das nach seinen Entwicklern Rivest, Shamir und Adleman (RSA) benannte asymmetrische kryptografische Verschlüsselungsverfahren gilt bei sehr großen Schlüssellängen noch immer als sicher. Siehe auch AES. Das asymmetrische kryptographische Verfahren wird sowohl zur Verschlüsselung als auch zum digitalen Signieren verwendet. Es verwendet ein Schlüsselpaar bestehend aus einem privaten Schlüssel, der zum Entschlüsseln oder Signieren von Daten verwendet wird, und einem öffentlichen Schlüssel, der zum Verschlüsseln oder Verifizieren von Signaturen verwendet wird. Der private Schlüssel wird geheim gehalten und kann nicht aus dem öffentlichen Schlüssel berechnet werden. Auch beim Produkt- und Know-how-Schutz in der intelligenten Produktion spielen kryptografische Verfahren eine wichtige Rolle.

Die Echtzeituhr ist ein unabhängiger, batteriegepufferter digitaler Uhrenchip, der einem Gerät oder Computersystem eine systemunabhängige Zeit zur Verfügung stellt. Im Wesentlichen handelt es sich dabei um einen digitalen, quarzgetakteten Zähler, der bei Bedarf Register ausliest.

Eine Laufzeitumgebung oder Ausführungsumgebung stellt eine Plattform dar, auf der für Ihr System codierte Benutzerprogramme ausgeführt werden können. Für RTE-Architekturspezifikationen für die Automobilumgebung bietet Autosar.

Remote-Cyber-Angriff auf ein elektronisches System über die Luft.

Reifegradmodell zur Sicherung der Softwarequalität

Software as a Service im Kontext von Cloud Computing

System zur Überwachung und Steuerung von Prozessen in verschiedenen technischen Umgebungen

Ein SDK unterstützt den Softwareentwickler mit Frameworks, Konfigurationsspezifikationen, Anwendungshinweisen, Codebeispielen und verschiedenen Programmierwerkzeugen. Einige Elektronikhersteller bieten kleine Evaluierungsboards, einfache Programmieradapter, Debugger, SIM-Karten-Kontingente für Mobilfunknetze, Cloud-Kontingente für IoT-KITs und liefern auch weiteres Hardware-Zubehör.

Serviceorientierte Architekturen (SOA) werden in der IT-Branche seit Jahren zur Beschreibung und Strukturierung verteilter Systeme eingesetzt, aber auch in der Automobilindustrie gewinnt das Thema zunehmend an Bedeutung.

Bezeichnet einen Typ eines künstlichen neuronalen Netzes; ihr Funktionsprinzip basiert auf der biologischen Erkenntnis, dass viele Strukturen im Gehirn eine lineare oder planare Topologie aufweisen.

Unter einem Single Point of Failure wird eine Komponente eines technischen Systems verstanden, deren Ausfall zum Ausfall des Gesamtsystems führt. Bei hochverfügbaren Systemen muss sichergestellt sein, dass alle Komponenten eines Systems redundant ausgelegt sind. Dabei sollten Vielfalt und die geografisch verteilte Platzierung eine Rolle spielen. Werden Systeme mit unterschiedlichen Strukturen (zB unterschiedlichen Herstellern) für die gleiche Aufgabe eingesetzt, ist ein gleichzeitiger Ausfall aus einem einzigen Grund weniger wahrscheinlich. On-Premise-Cloud-Lösungen in der Medizin zielen unter anderem darauf ab, große Datenmengen zB zu speichern.

Total Cost of Ownership (TCO) ist eine Abrechnungsmethode, die Verbrauchern und Unternehmen helfen soll, alle anfallenden Kosten für Investitionsgüter (wie Soft- und Hardware in der IT) abzuschätzen.

Ein Verschlüsselungsprotokoll zur sicheren Übertragung von Daten, beispielsweise über das Internet.

TRA ist eine Angriffs- und Risikoanalyse und das Sicherheitsäquivalent von HARA

Die Zeit von der Produktentwicklung bis zur Markteinführung des Produkts. In dieser Zeit verursacht das Produkt Kosten – generiert aber keine Umsätze. Mehr zur Time-to-Market erfahren Sie hier.

Eine Person interagiert mit einer Maschine über die Bedienoberfläche (siehe HMI). Am PC sind dies beispielsweise alle Ein- und Ausgabegeräte (Tastatur, Bildschirm etc.). Die grafische Benutzeroberfläche (GUI) ist eine Weiterentwicklung.

Dies kann beispielsweise ein Betriebssystem sein, das als gekapselter Prozess innerhalb eines anderen Systems oder auf einem Teilbereich eines Servers abläuft.

WORM-Elemente sind manipulationssichere Nur-Lese-Datenspeicher, die nur einmal beschrieben, aber beliebig oft ausgelesen werden können. Ähnlich wie beim PROM (Programmable Read Only Memory) schließt eine Sicherheitsvorkehrung das Löschen, Überschreiben und Verändern von Daten auf einem Speichermedium (Halbleiter, CD) dauerhaft aus. WORM kann auf unterschiedliche Weise realisiert werden: Bei Hardware-WORM (True WORM) ist die Write-Once-Eigenschaft physikalisch gegeben, die systemische Variante erreicht dies durch Adressierung oder Verwaltung durch den internen Controller. Soft WORM kann als reine Softwarefunktionalität in einem Netzwerkspeichersystem implementiert werden.

XML ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten im Format einer Textdatei, die sowohl von Menschen als auch von Maschinen gelesen werden kann.

Ein solcher Angriff auf vernetzte IT-Systeme erfolgt über eine Software-Schwachstelle unmittelbar (am selben Tag) nach deren Entdeckung. In diesem Fall wird die Schwachstelle ausgenutzt, bevor der Softwarehersteller sie beheben kann. Besonders riskant sind ZETAs im Bereich vernetzter und autonomer Fahrzeuge.