Veröffentlicht:30. März 2026
Die Warnungen werden deutlicher, die Zeiträume kürzer: Kritische Infrastruktur könnte schon bald nicht mehr durch fehlerhaft konfigurierte KI-Systeme ausfallen. Gartner prognostiziert, dass spätestens 2028 ein G20Land einen massiven Ausfall erleben wird – ausgelöst nicht durch Hacker oder Naturkatastrophen, sondern durch menschliche Fehlkonfigurationen in KI-gestützten cyberphysischen Systemen. Andere Analysten halten diesen Zeitraum sogar für zu optimistisch.
Moderne KI-Modelle sind so komplex, dass selbst Entwickler kaum vorhersagen können, wie sich kleine Änderungen auf das Verhalten der Systeme auswirken. „Der nächste große InfrastrukturAusfall wird wahrscheinlich durch ein fehlerhaftes UpdateSkript oder eine falsch gesetzte Dezimalstelle ausgelöst“, warnt GartnerAnalyst Wam Voster. Ein sicherer Kill Switch, der nur autorisierten Betreibern zugänglich ist, sei daher unverzichtbar.
Mit dem Aufkommen autonomer KI-Agenten haben sich die Risiken weiter verschärft. Die Systeme treffen Entscheidungen, passen Parameter an und reagieren auf Umgebungsdaten – oft ohne vollständige Nachvollziehbarkeit. Das Problem sei weniger die Halluzination von KI, erklärt Matt Morris von Ghostline Strategies. Gefährlich werde es, wenn KI subtile Veränderungen in industriellen Kontrollsystemen nicht erkennt. Ein menschlicher Experte würde bemerken, wenn Normwerte langsam driften. Eine KI könnte diese Veränderungen jedoch als Rauschen interpretieren.
Trotz dieser Risiken führen viele Unternehmen KI-Systeme zu schnell ein, kritisiert Morris. Auch Flavio Villanustre, CISO bei LexisNexis Risk Solutions, warnt vor einer gefährlichen Dynamik: Vorstände fokussierten sich auf Produktivitätsgewinne, unterschätzten aber die Risiken. Besonders kritisch sei der Einsatz autonomer KI in Umweltsystemen oder Stromgeneratoren. Die Kombination aus Komplexität und nichtdeterministischem Verhalten könne zu schwerwiegenden Störungen führen.
Wie fragil die Lage ist, beschreibt Brian Levine vom Beratungsunternehmen FormerGov mit einem drastischen Bild: Kritische Infrastrukturen seien über Jahrzehnte gewachsene, empfindliche Automatisierungslandschaften. Wer darauf autonome KI-Agenten setze, errichte „einen JengaTurm im Auge eines tropischen Wirbelsturms“. Auch Bob Wilson von der InfoTech Research Group hält großangelegte Ausfälle für unvermeidlich, weil KI schneller in Unternehmensstrategien integriert werde, als GovernanceFrameworks mithalten könnten.
Sanchit Vir Gogia von Greyhound Research sieht das Grundproblem in einer veralteten Sichtweise: Viele Unternehmen betrachteten KI immer noch als AnalyseEbene. Doch sobald KI physische Prozesse beeinflusst, wird sie Teil des Steuerungssystems – und trägt Verantwortung für sicheres Engineering. Fehlkonfigurationen in cyberphysischen Umgebungen könnten Kettenreaktionen auslösen. Gogia fordert deshalb klare WorstCaseSzenarien für jede KI-fähige Komponente: Was passiert bei falsch interpretierten Signalen? Wie reagiert das System bei driftenden Telemetriedaten? Welche Schutzmechanismen verhindern Kontrollverlust? Wer diese Fragen nicht beantworten könne, habe ein GovernanceProblem – und ein erhebliches Risiko.
Den Originaltext lesen sie hier: KI killt kritische Infrastruktur – spätestens 2028 | CIO DE
KI-Risiken: Droht kritischer Infrastruktur der Kollaps?
Veröffentlicht:30. März 2026
Die Warnungen werden deutlicher, die Zeiträume kürzer: Kritische Infrastruktur könnte schon bald nicht mehr durch fehlerhaft konfigurierte KI-Systeme ausfallen. Gartner prognostiziert, dass spätestens 2028 ein G20Land einen massiven Ausfall erleben wird – ausgelöst nicht durch Hacker oder Naturkatastrophen, sondern durch menschliche Fehlkonfigurationen in KI-gestützten cyberphysischen Systemen. Andere Analysten halten diesen Zeitraum sogar für zu optimistisch.
Moderne KI-Modelle sind so komplex, dass selbst Entwickler kaum vorhersagen können, wie sich kleine Änderungen auf das Verhalten der Systeme auswirken. „Der nächste große InfrastrukturAusfall wird wahrscheinlich durch ein fehlerhaftes UpdateSkript oder eine falsch gesetzte Dezimalstelle ausgelöst“, warnt GartnerAnalyst Wam Voster. Ein sicherer Kill Switch, der nur autorisierten Betreibern zugänglich ist, sei daher unverzichtbar.
Mit dem Aufkommen autonomer KI-Agenten haben sich die Risiken weiter verschärft. Die Systeme treffen Entscheidungen, passen Parameter an und reagieren auf Umgebungsdaten – oft ohne vollständige Nachvollziehbarkeit. Das Problem sei weniger die Halluzination von KI, erklärt Matt Morris von Ghostline Strategies. Gefährlich werde es, wenn KI subtile Veränderungen in industriellen Kontrollsystemen nicht erkennt. Ein menschlicher Experte würde bemerken, wenn Normwerte langsam driften. Eine KI könnte diese Veränderungen jedoch als Rauschen interpretieren.
Trotz dieser Risiken führen viele Unternehmen KI-Systeme zu schnell ein, kritisiert Morris. Auch Flavio Villanustre, CISO bei LexisNexis Risk Solutions, warnt vor einer gefährlichen Dynamik: Vorstände fokussierten sich auf Produktivitätsgewinne, unterschätzten aber die Risiken. Besonders kritisch sei der Einsatz autonomer KI in Umweltsystemen oder Stromgeneratoren. Die Kombination aus Komplexität und nichtdeterministischem Verhalten könne zu schwerwiegenden Störungen führen.
Wie fragil die Lage ist, beschreibt Brian Levine vom Beratungsunternehmen FormerGov mit einem drastischen Bild: Kritische Infrastrukturen seien über Jahrzehnte gewachsene, empfindliche Automatisierungslandschaften. Wer darauf autonome KI-Agenten setze, errichte „einen JengaTurm im Auge eines tropischen Wirbelsturms“. Auch Bob Wilson von der InfoTech Research Group hält großangelegte Ausfälle für unvermeidlich, weil KI schneller in Unternehmensstrategien integriert werde, als GovernanceFrameworks mithalten könnten.
Sanchit Vir Gogia von Greyhound Research sieht das Grundproblem in einer veralteten Sichtweise: Viele Unternehmen betrachteten KI immer noch als AnalyseEbene. Doch sobald KI physische Prozesse beeinflusst, wird sie Teil des Steuerungssystems – und trägt Verantwortung für sicheres Engineering. Fehlkonfigurationen in cyberphysischen Umgebungen könnten Kettenreaktionen auslösen. Gogia fordert deshalb klare WorstCaseSzenarien für jede KI-fähige Komponente: Was passiert bei falsch interpretierten Signalen? Wie reagiert das System bei driftenden Telemetriedaten? Welche Schutzmechanismen verhindern Kontrollverlust? Wer diese Fragen nicht beantworten könne, habe ein GovernanceProblem – und ein erhebliches Risiko.
Den Originaltext lesen sie hier: KI killt kritische Infrastruktur – spätestens 2028 | CIO DE








