Wissen

Immer Up-To-Date

TeleTalk 01/26

Lesen Sie in der aktuellen Ausgabe:

• CX Trend Radar 2026
• Agentic AI
• KI & Ethik
• Zukunft der Arbeit

 

Kostenlos zum Durchklicken:
TeleTalk 02/26 als ePaper (hier klicken)

Und hier können Sie TeleTalk bestellen oder abonnieren!

TeleTalk Special

Special: Collaborative Intelligence

We unite Human and Artifical Power.

 

In Kooperation mit:
Avaya, Bucher+Suter, Calabrio, Five 9, Parloa, Sogedes, USU, Vier, Zoom

 

Kostenlos zum Durchklicken:
TeleTalk Special als PDF (hier klicken)

Und hier können Sie TeleTalk bestellen oder abonnieren!

TeleTalk Archiv

Ältere Ausgaben als ePaper

Opens internal link in current windowHier lesen Sie weitere Ausgaben der TeleTalk.

Vertrauenswürdige KI: Systeme brauchen einen regelmäßigen TÜV

Von: Redaktion Teletalk am 09.03.2022

Unbedenklichkeit verbindet technische Eigenschaften mit menschlichem Nutzungsverhalten

Die EU-Kommission will gesetzlich regulieren, was Künstliche Intelligenz darf und was nicht. In ihrem Entwurf für ein KI-Gesetz, den sie im vergangenen Jahres vorgelegt hat, hat die Kommission einen Kriterienkatalog festgelegt, anhand dessen künftig die Risiken, die sogenannte Kritikalität, eines KI-Systems beurteilt werden sollen. Je nach Höhe der Risiken kann ein KI-System verboten werden, muss vor seiner Markteinführung bestimmte Anforderungen erfüllen oder unterliegt keinerlei Vorgaben.

Warum die Beurteilung von Risiken bei Künstlicher Intelligenz besonders schwierig ist und was über den EU-Vorschlag hinaus für ein vertrauenswürdiges KI-System notwendig ist, erläutert Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) im Folgenden:

1. Ist ein KI-Systeme mit niedriger Kritikalität unbedenklich?

Die Kritikalität eines KI-Systems hängt davon ab, wie, wo, wann und von wem es eingesetzt wird. Innerhalb dieses Anwendungskontextes lassen sich mögliche Risiken in der Theorie nachvollziehbar beurteilen. Dies ist hilfreich, um eventuelle Vorsichtsmaßnahmen für den Einsatz der KI-gestützten Produkte und Dienstleistungen in der Praxis zu treffen, sozusagen „für den Fall der Fälle“. Allerdings kann die theoretische Beurteilung nicht die mögliche Dynamik der späteren realen Nutzung vorwegnehmen. Diese ist oft unvorhersehbar, schon allein deshalb, weil Marktgeschehen und Akzeptanz bei den Menschen immer wieder überraschend verlaufen. Außerdem übersteigt die menschliche Kreativität häufig die angenommenen Anwendungsszenarien – im positiven Sinne, wenn neue erwünschte Anwendungen und Innovationen entdeckt werden, aber auch im negativen Sinne, wenn KI-Systeme für unethische Aktionen missbraucht oder zweckentfremdet werden. Daher ist eine niedrige Kritikalität nur ein Hinweis auf ein zunächst anzunehmendes geringes Schadenspotential, aber keine Garantie, dass dies auch so bleibt. Keinesfalls ist sie gleichbedeutend mit Unbedenklichkeit, denn letztere zeigt sich erst im Laufe der Anwendungen in der Praxis. Unbedenklichkeit ist nicht einfach ein technischer Parameter, sondern verbindet technische Eigenschaften mit menschlichem Nutzungsverhalten. Und letzteres ist immer für Überraschungen gut – in sehr unterschiedliche Richtungen.

2. Warum ist es so schwierig die Risiken eines KI-Systems verlässlich zu beurteilen?

Über die Gefahren und Risiken (also mögliche Gefahren) von konventioneller IT verfügen wir zumindest in Teilen über belastbares Wissen. So wissen wir, mit welcher Wahrscheinlichkeit Fehler eintreten oder wie sich mögliche Gefahren ausprägen können. KI hingegen ist häufig in visionäre Erzählungen und Anwendungsszenarien eingebettet, in denen dieses Wissen nicht vorhanden ist. Stattdessen müssen Annahmen über zukünftige Anwendungen getroffen werden, deren Eintreten mehr oder weniger erwartbar oder auch spekulativ ist. Die Offenheit der Zukunft – oft abwertend als Unsicherheit bezeichnet – verhindert eine auf empirischen Daten beruhende Risikobeurteilung, denn Daten aus der Zukunft gibt es nicht. Zu dieser grundsätzlichen Begrenzung kommt hinzu, dass KI-Systeme sich durch maschinelles Lernen in unvorhersehbarer Weise verändern können, während konventionelle IT ihre Eigenschaften nicht selbst verändern kann. Jegliche Risikobeurteilung für KI-Systeme muss daher auch mögliche Veränderungen in den Blick nehmen und sogar die Risiken eines nicht-intendierten Lernens betrachten – also: Lernen unerwünschter Effekte. Eventuell sind auch Leitplanken des Lernens in das KI-System einzuprogrammieren, um solch unerwünschte Effekte zu vermeiden.

Die Regulierung anhand von Kritikalitätsstufen reicht also nicht aus. Was ist notwendig, um ein KI-System vertrauenswürdig zu machen?

Die Antwort fällt leichter, wenn wir die Frage mit anderen Techniken vergleichen. Wann sehen wir ein Auto als vertrauenswürdig an? Wenn wir nicht darauf vertrauen würden, dass Bremsen, Lenkung und andere Funktionselemente wie gewünscht arbeiten, würden wir kein Auto fahren. Die Vertrauenswürdigkeit der Funktionsweise hat zwei Komponenten: Vertrauen in die Technik selbst, also das sie das tut, was sie tun soll. Und Vertrauen in Menschen und Institutionen, die dafür geradestehen und dies überprüfen. Das reicht von der Herstellerfirma über die Werkstatt bis zum TÜV. Vertrauen entsteht, wenn technische Leistungsparameter, entsprechende Erfahrung und deren menschliche bzw. institutionelle Überwachung zusammenkommen. Analog ist dies bei KI-Systemen: sie müssen zugelassen werden, sie müssen verlässlich und nachweisbar ihren Dienst tun und sie muss regelmäßig von einer Art TÜV überprüft werden. Auch dank des genannten Symbols des TÜV vertrauen wir in die Sicherheit von traditionellen Autos. In ein selbstfahrendes Auto würden heute hingegen nicht alle Menschen steigen. Der Unterschied liegt darin, dass wir mit der KI als Teil des Bordcomputers keine Erfahrungen haben und ihr ein vertrauenswürdiges Siegel fehlt.

Als Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik hat Armin Grunwald das Whitepaper Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten mitverfasst. Quelle: Plattform Lernende Systeme

 

 


TeleTalk-Marktführer 1/2026

Der TeleTalk-Marktführer Contact Center & CRM bietet mit zahlreichen Marktübersichten und einem Business-Guide einen aktuellen Überblick über Technologien, Lösungen, Produkte und Dienstleistungen für Customer Care & Servicemanagement.

 

Die jeweils aktuelle Ausgabe können Sie hier bestellen.

Werfen Sie hier einen Blick in die aktuellen Marktübersichten.

 

Zum Kennenlernen geht´s hier zum ePaper.

TeleTalk-Marktübersichten

12 Tabellen, hunderte Anbieter

Alle Produkte, Lösungen, Dienste und Dienstanbieter für professionellen Kundenservice im schnellen Überblick.

 

Opens internal link in current windowHier gehts zu den Marktübersichten

© telepublic Verlag 2011 | Alle Rechte vorbehalten.