DNS:Tronix High-Tech Solutions
Safety-SPS und KI/KI-Agenten – Zukunft der funktionalen Sicherheit?
Die industrielle Automatisierung befindet sich im Wandel. Während Safety-SPS (Sicherheitssteuerungen) seit Jahrzehnten als Goldstandard für funktionale Sicherheit gelten, drängen Künstliche Intelligenz (KI) und zunehmend auch KI-Agenten in industrielle Anwendungen.
Doch wie passen deterministische, zertifizierte Sicherheitsarchitekturen und adaptive, lernfähige Systeme zusammen? Ergänzen sie sich – oder stehen sie im Widerspruch?

1. Was ist eine Safety-SPS?
Eine Safety-SPS (z. B. nach IEC 61508, IEC 62061 oder ISO 13849 zertifiziert) ist eine speziell ausgelegte Steuerung, die sicherheitsgerichtete Funktionen überwacht und ausführt, beispielsweise:
Safety-SPS-Systeme sind bewusst nicht lernfähig. Ihr Verhalten ist klar definiert, geprüft und dokumentiert.
2. Was bringen KI und KI-Agenten in die Industrie?
KI-Systeme analysieren große Datenmengen, erkennen Muster und treffen adaptive Entscheidungen.
KI-Agenten gehen noch weiter: Sie handeln autonom, verfolgen Ziele und interagieren dynamisch mit ihrer Umgebung.
Typische industrielle Anwendungsfelder:
Safety-SPS und KI-Agenten
Zwischen SIL, Blackbox und autonomer Entscheidung...
Die Maschine läuft mit 1,8 m/s.
Ein Bediener betritt den Arbeitsbereich.
In weniger als 20 Millisekunden entscheidet das System, ob weiter produziert wird – oder ob Energie sicher abgeschaltet werden muss.
Im Schaltschrank arbeitet eine zertifizierte Safety-SPS mit SIL 3.
Im Hintergrund analysiert eine KI Bewegungsmuster, erkennt Anomalien und bewertet Kontext.
Zwei Welten,eine Verantwortung.
Warum funktionale Sicherheit deterministisch sein muss
Funktionale Sicherheit ist kein Feature – sie ist eine mathematisch belegbare Eigenschaft.

Normative Basis:
Ein SIL-3-System bedeutet nicht „ziemlich sicher“. Es bedeutet z. B.:
Wahrscheinlichkeit eines gefährlichen Ausfalls:10⁻⁷ bis 10⁻⁸ pro Stunde.
Diese Sicherheit wird erreicht durch:
Und genau das fordert die Norm.
Und dann kommt die KI
Jetzt stellen wir uns dieselbe Anlage vor – nur erweitert:

Eine KI analysiert:
Doch jetzt kommt die normative Frage:Wie zertifiziert man ein neuronales Netz?
Normative Kollision?
Aktuelle Normen verlangen:
Ein neuronales Netz kann eine Person mit 99,97 % Sicherheit erkennen.
Aber:
Für SIL 3 reicht 99,97 % nicht.
Die Norm fragt nicht:„Wie gut ist es meistens?“Sie fragt:
„Wie wahrscheinlich ist ein gefährlicher Fehler unter allen Umständen?“
Copyright Markus Buchsbaum
