Die EU-Kommission will gesetzlich regulieren, was Künstliche Intelligenz darf und was nicht. In ihrem Entwurf für ein KI-Gesetz, den sie im vergangenen Jahres vorgelegt hat, hat die Kommission einen Kriterienkatalog festgelegt, anhand dessen künftig die Risiken, die sogenannte Kritikalität, eines KI-Systems beurteilt werden sollen. Je nach Höhe der Risiken kann ein KI-System verboten werden, muss vor seiner Markteinführung bestimmte Anforderungen erfüllen oder unterliegt keinerlei Vorgaben.
Warum die Beurteilung von Risiken bei Künstlicher Intelligenz besonders schwierig ist und was über den EU-Vorschlag hinaus für ein vertrauenswürdiges KI-System notwendig ist, erläutert Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) im Folgenden:
1. Ist ein KI-Systeme mit niedriger Kritikalität unbedenklich?
Die Kritikalität eines KI-Systems hängt davon ab, wie, wo, wann und von wem es eingesetzt wird. Innerhalb dieses Anwendungskontextes lassen sich mögliche Risiken in der Theorie nachvollziehbar beurteilen. Dies ist hilfreich, um eventuelle Vorsichtsmaßnahmen für den Einsatz der KI-gestützten Produkte und Dienstleistungen in der Praxis zu treffen, sozusagen „für den Fall der Fälle“. Allerdings kann die theoretische Beurteilung nicht die mögliche Dynamik der späteren realen Nutzung vorwegnehmen. Diese ist oft unvorhersehbar, schon allein deshalb, weil Marktgeschehen und Akzeptanz bei den Menschen immer wieder überraschend verlaufen. Außerdem übersteigt die menschliche Kreativität häufig die angenommenen Anwendungsszenarien – im positiven Sinne, wenn neue erwünschte Anwendungen und Innovationen entdeckt werden, aber auch im negativen Sinne, wenn KI-Systeme für unethische Aktionen missbraucht oder zweckentfremdet werden. Daher ist eine niedrige Kritikalität nur ein Hinweis auf ein zunächst anzunehmendes geringes Schadenspotential, aber keine Garantie, dass dies auch so bleibt. Keinesfalls ist sie gleichbedeutend mit Unbedenklichkeit, denn letztere zeigt sich erst im Laufe der Anwendungen in der Praxis. Unbedenklichkeit ist nicht einfach ein technischer Parameter, sondern verbindet technische Eigenschaften mit menschlichem Nutzungsverhalten. Und letzteres ist immer für Überraschungen gut – in sehr unterschiedliche Richtungen.
2. Warum ist es so schwierig die Risiken eines KI-Systems verlässlich zu beurteilen?
Über die Gefahren und Risiken (also mögliche Gefahren) von konventioneller IT verfügen wir zumindest in Teilen über belastbares Wissen. So wissen wir, mit welcher Wahrscheinlichkeit Fehler eintreten oder wie sich mögliche Gefahren ausprägen können. KI hingegen ist häufig in visionäre Erzählungen und Anwendungsszenarien eingebettet, in denen dieses Wissen nicht vorhanden ist. Stattdessen müssen Annahmen über zukünftige Anwendungen getroffen werden, deren Eintreten mehr oder weniger erwartbar oder auch spekulativ ist. Die Offenheit der Zukunft – oft abwertend als Unsicherheit bezeichnet – verhindert eine auf empirischen Daten beruhende Risikobeurteilung, denn Daten aus der Zukunft gibt es nicht. Zu dieser grundsätzlichen Begrenzung kommt hinzu, dass KI-Systeme sich durch maschinelles Lernen in unvorhersehbarer Weise verändern können, während konventionelle IT ihre Eigenschaften nicht selbst verändern kann. Jegliche Risikobeurteilung für KI-Systeme muss daher auch mögliche Veränderungen in den Blick nehmen und sogar die Risiken eines nicht-intendierten Lernens betrachten – also: Lernen unerwünschter Effekte. Eventuell sind auch Leitplanken des Lernens in das KI-System einzuprogrammieren, um solch unerwünschte Effekte zu vermeiden.
Die Regulierung anhand von Kritikalitätsstufen reicht also nicht aus. Was ist notwendig, um ein KI-System vertrauenswürdig zu machen?
Die Antwort fällt leichter, wenn wir die Frage mit anderen Techniken vergleichen. Wann sehen wir ein Auto als vertrauenswürdig an? Wenn wir nicht darauf vertrauen würden, dass Bremsen, Lenkung und andere Funktionselemente wie gewünscht arbeiten, würden wir kein Auto fahren. Die Vertrauenswürdigkeit der Funktionsweise hat zwei Komponenten: Vertrauen in die Technik selbst, also das sie das tut, was sie tun soll. Und Vertrauen in Menschen und Institutionen, die dafür geradestehen und dies überprüfen. Das reicht von der Herstellerfirma über die Werkstatt bis zum TÜV. Vertrauen entsteht, wenn technische Leistungsparameter, entsprechende Erfahrung und deren menschliche bzw. institutionelle Überwachung zusammenkommen. Analog ist dies bei KI-Systemen: sie müssen zugelassen werden, sie müssen verlässlich und nachweisbar ihren Dienst tun und sie muss regelmäßig von einer Art TÜV überprüft werden. Auch dank des genannten Symbols des TÜV vertrauen wir in die Sicherheit von traditionellen Autos. In ein selbstfahrendes Auto würden heute hingegen nicht alle Menschen steigen. Der Unterschied liegt darin, dass wir mit der KI als Teil des Bordcomputers keine Erfahrungen haben und ihr ein vertrauenswürdiges Siegel fehlt.
Als Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik hat Armin Grunwald das Whitepaper Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten mitverfasst. Quelle: Plattform Lernende Systeme
TP infinity: Real Time Voice Translation
TDM & Regenbogen: Outsourcing Erfolgsstory
Caseris: Auf dem Weg zur Service-Exzellenz
TAS: Effizienz trifft auf Qualität
Caseris: Auf dem Weg zur Service-Exzellenz
Zoom: Kundenservice neu denken
Konecta: Investieren Sie in Service-Exzellenz
sonocom: Der Ton macht die Musik
QNova: Kontaktanalyse ohne Training
USU: Chatbots und ihre Zukunft im Kundenservice
Five9: Intelligente Virtual Agents (IVAs) markieren Umbruch im Kundenservice
byon:IT- Sicherheit: Ein Must-Have für KMU
Sogedes: Experience meets Efficency
VIER: Emotion Analytics sagt Aktienmarkt-Reaktion voraus
Bucher+Suter: Rundum Service mit dem Webex Contact Center
Lesen Sie
hier weitere Fachbeiträge in TeleTalk /Wissen
TDM: KI und die Trendwende im Kundenservice
ja-dialog: Home oder nicht Home?
TAS AG: Auszeichnung als herausragender Arbeitgeber
TDM: Evolution statt Revolution im Kundenservice
TDM: Dialogmanufaktur mit Zukunftsvision
TDM: Wie spricht man Erfolg?!
New Work – regiocom: Zentraler Wissenszugriff für effziente Kundenservice
Weitere Themen-Specials und Beiträge lesen Sie
hier
Der TeleTalk-Marktführer Contact Center & CRM bietet mit zahlreichen Marktübersichten und einem Business-Guide einen aktuellen Überblick über Technologien, Lösungen, Produkte und Dienstleistungen für Customer Care & Servicemanagement.
Die jeweils aktuelle Ausgabe können Sie hier bestellen.
Werfen Sie hier einen Blick in die aktuellen Marktübersichten.
Zum Kennenlernen geht´s hier zum ePaper.
Status und Trends: Kundenservice in Deutschland
Highlights: Service Excellence Cockpit Report 2024
Chancen und Risiken einer KI Steuer
CX-Trendradar 2024
Diese 5 KI-Trends werden 2024 bestimmen.
Trendstudie 2023/2024: Aktuelle Zahlen zum Kundenservice
CX-Studie: Vor welchen Herausforderungen stehen deutsche Unternehmen?
CCW: Branche im Wandel
Alle Produkte, Lösungen, Dienste und Dienstanbieter für professionellen Kundenservice im schnellen Überblick.
© telepublic Verlag 2011 | Alle Rechte vorbehalten.