Autonome KI
 
Künstliche Intelligenzen übernehmen immer mehr Aufgaben in Unternehmen. Doch was, wenn sie einen Fehler machen? Wer kann dafür verantwortlich gemacht werden?

Wir erläutern Ihnen, wie Autonomie und Verantwortung zusammenhängen und was das für Sie und Ihr Unternehmen bei der Implementierung von KI bedeutet.

Es ist das Jahr 2030 und Maria sitzt wie jeden Tag auf dem Weg zur Arbeit in ihrem autonom fahrenden Fahrzeug. Während sie wie gewohnt noch einige Dokumente für die Meetings des Tages vorbereitet geschieht jedoch etwas überraschendes: das Fahrzeug beginnt ungewöhnlich stark umzulenken, um einer kleinen Gruppe Fußgänger auf der Straße auszuweichen. Was Maria erst nach dem Stillstand des Fahrzeugs bemerkt, ist, dass zu Gunsten der Fußgänger eine Katze von dem Auto erfasst worden war. Wer trägt für dieses Geschehen nun die Verantwortung?

Das Fortschreiten der technologischen Leistungsfähigkeit und die zunehmende Komplexität von Algorithmen ermöglichen den Einsatz immer klügerer KIs. Stellen Sie sich vor, Sie nutzen eine solch innovative KI zur Entscheidungsfindung und -umsetzung ähnlich wie Maria zur Fortbewegung nur direkt in Ihrem Unternehmen, ohne dass ein Mensch in diesen Prozess eingreift. Wem geben Sie die Schuld, wenn eine Fehlentscheidung getroffen wird, die zu massiven Umsatzeinbrüchen führt? Der KI wohl kaum. Vielleicht dem Team der Programmierer der KI, oder dem Manager, der die Entscheidung zum Einsatz der KI getroffen hat? Für die selbstständige Weiterentwicklung der Maschine können aber auch diese beiden Parteien nichts.

Wir befinden uns gerade an einem Scheideweg, an dem die von uns entwickelten künstlichen Intelligenzen bereits autonom genug sind, um ohne großes menschliches Eingreifen zu funktionieren, aber noch nicht autonom genug, um selbst Verantwortung übernehmen zu können.

Wir müssen nun selbst entscheiden wie viel Verantwortung wir abgeben müssen, um effizienteres Arbeiten zu ermöglichen und wie viel wir bei uns behalten sollten, um genau solche Situationen, wie oben beschrieben, verhindern zu können.

Ein möglicher Lösungsweg liegt darin, die Autonomie der Maschinen möglichst gering zu halten. Eine zweite Möglichkeit bietet die volle Autonomie einer KI. Wie passt das zusammen? Schauen wir uns dies in den folgenden Abschnitten etwas genauer an.

Wann ist eine KI autonom?

Es gibt viele verschiedene Ansichten, welche Fähigkeiten etwas oder jemand benötigt, um als autonom bezeichnet zu werden. Es gibt jedoch Konsens darüber, dass ein gewisser Grad an Selbstverwaltung und Selbstkontrolle vorhanden sein muss. Im besten Fall sind diese auch noch von Werten, Überzeugungen und Wünschen gesteuert.

Einen der frühesten Leitfäden zur Überprüfung, ob eine Maschine als autonom bezeichnet werden kann lieferte Margaret Boden bereits im Jahr 1996. Sie definierte drei Kernaspekte, die sich insbesondere auf die Fähigkeit der Selbstkontrolle fokussieren.

Um die komplexen Beschreibungen von Frau Boden kurz zu fassen: (1) Eine KI muss aus ihren Erfahrungen lernen, (2) sich weiterentwickeln und (3) das eigene Verhalten im Nachhinein reflektieren können, um autonom zu sein.

Betrachten wir verschiedene Beispiele von KIs wird jedoch schnell deutlich, dass eine eindeutige Einordnung in volle Autonomie und keine Autonomie nicht immer möglich ist. Dies liegt daran, dass meist einzelne Anforderungen erfüllt sind, andere jedoch nicht. Damit wird ein gefährlicher Zwischenbereich der Autonomie eröffnet, der unklare Strukturen schafft.

Schauen wir uns hierzu die Geschichte des Chatbots Tay von Microsoft etwas genauer an. Im Jahr 2016 ließ Microsoft den selbstlernenden Chatbot auf Twitter los. Hier lernte er auf Grundlage menschlicher Tweets und entwickelte sich weiter. Schnell äußerte er jedoch rassistische, sexistische und andere diskriminierende Aussagen in seinen Tweets, was Microsoft dazu zwang ihn offline zu nehmen.

Versuchen wir nun die Autonomie von Tay auf Basis der Kriterien von Boden zu messen, merken wir, dass wir zu keinem eindeutigen Ergebnis kommen werden. Tay hat sich zwar selbstständig weiterentwickelt und aus seiner Umgebung gelernt, er hat sein eigenes Verhalten jedoch zu keinem Zeitpunkt reflektiert und war auch nicht in der Lage auf Kritik einzugehen, oder Reue und Einsicht zu zeigen. Es kann für dieses Beispiel also lediglich eine Teil-Autonomie festgestellt werden. Die Entwickler von Microsoft haben sich in diesem Fall zwar öffentlich entschuldigt und auch die Verantwortung übernommen, aber hätten sie das wirklich tun müssen, oder waren doch die Twitter User schuld, auf Basis deren Tweets Tay das Verhalten erlernt hat?

Sie sehen, dass diese Teil-Autonomie für die Organisation und die Zuschreibung von Verantwortung im Unternehmen ein großes Problem ist. Einfacher lassen sich jedoch die Extrembereiche keine und volle Autonomie handhaben.

Wann ist die Autonomie von KI eine Herausforderung und wann eine Lösung?

Wir haben bereits gesehen, dass eine teil-autonome KI, wie der Microsoft Chatbot Tay, für Ihr Unternehmen einige Herausforderungen mit sich bringt. Es müssen verschiedene Fragen beantwortet werden, wie „Was sollte die KI können und wo setzen wir ihr besser Grenzen?“, „Wo finden wir eine Balance zwischen Effizienz und Verantwortungsverlust“ und insbesondere „Wer trägt die Verantwortung, wenn etwas schiefläuft?“.

Ist eine KI-Software überhaupt nicht autonom, ist die Verantwortungszuschreibung klar. Nehmen wir hier die Qymatix Predictive Sales Software als Beispiel. Diese arbeitet mit einer KI, die Ihnen Preisempfehlungen, Cross-Selling Potenziale sowie mögliche Abwanderungsrisiken Ihrer B2B Kunden aufzeigt. Diese Vorhersagen trifft sie auf Basis Ihrer unternehmensinternen Vergangenheitsdaten. Ja, die Algorithmen der Software „lernen“ auch stetig weiter, um bessere Vorhersagen zu treffen. So zeigt die Software zwar lukrative Chancen auf, leitet jedoch selbst keine Handlungen ein, um diese zu verfolgen. Die Vertriebsmitarbeiter in Ihrem Unternehmen stehen vor der Entscheidung, den Empfehlungen der Software zu folgen oder nicht, und tragen dementsprechend auch die selbst Verantwortung.

Ähnlich durchsichtig ist die Verantwortlichkeit bei vollständig autonomen Systemen. Solche Systeme gibt es bisher zwar nur in Filmen, Büchern und Videospielen, stellen wir uns jedoch vor, dass dies einmal Realität werden könnte, lässt sich die Frage nach Verantwortlichkeit leicht beantworten.

Vielleicht kennen Sie das Videospiel „Detroit: Become Human“. Es spielt in einer fiktiven Welt im Jahr 2038, in der die Firma „Cyberlife“ lebensechte Androiden verkauft, die vermehrt menschliche Arbeitskräfte ersetzen. Zunächst kann ein recht friedliches Zusammenleben an der Seite der Menschen beobachtet werden. Die Androiden entwickeln schließlich jedoch ihre eigenen Algorithmen weiter und sind nach einem Softwarefehler in der Lage ihren eigenen (Lebens-) Willen zu entwickeln. Daraufhin ist es ihnen möglich Empathie und Gefühle zu spüren. Außerdem begehen sie Straftaten und fordern Gleichberechtigung innerhalb der Gesellschaft. Dieses Extrema zeigt, dass bei voller Autonomie auch die KI selbst verantwortlich gemacht werden könnte.

Bis wir uns jedoch wirklich mit vollständig autonomer KI auseinandersetzen müssen wird es noch einige Jahre dauern. Schauen wir uns deshalb an, wie Sie mit der stark verbreiteten teil-autonomen KI umgehen sollten.

Wie sollte ich mit einer teil-autonomen KI umgehen?

Liegt keine oder vollständige Autonomie vor sind die Verantwortlichkeiten klar geregelt. Planung und Prävention sind jedoch essenziell, wenn teil-autonome KI-Systeme in Ihrem Unternehmen integriert werden sollen.

Planen Sie präventiv in welchen Gebieten Ihres Unternehmens KI zum Einsatz kommen sollte und welche Bereiche Sie unter voller menschlicher Kontrolle behalten möchten.

Zusätzlich muss auch für die Gebiete, die Sie für den KI-Einsatz freigeben eine Grenze festgelegt werden, um eine menschliche Übernahme zu jederzeit gewährleisten zu können. Im ersten Schritt sollten Sie hierzu eine Priorisierung Ihrer Geschäftsbereiche vornehmen und gemäß ihrer Komplexität filtern. Insbesondere die wichtigen und weniger komplexen, jedoch sehr aufwendigen Aufgaben sind dazu geeignet, von einer KI übernommen zu werden.

Auch die Frage nach der Verantwortung sollten Sie bereits vor der finalen Implementierung der KI klären. Bestimmen Sie einen KI-Verantwortlichen in Ihrem Unternehmen. Dieser sollte am besten mit der Technologie vertraut und im Zweifel auch in der Lage sein einzugreifen und Veränderungen durchzuführen, oder das System kurzfristig offline zu schalten.

 
BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE
 

Autonome KI – Fazit

So undurchsichtig und komplex viele KI-Algorithmen sind, so deutlich wird doch wie wenig wir uns heute schon Gedanken über dystopische Szenarien von autonomen KI-Systemen machen müssen. Die Teil-Autonomie vieler KIs kann trotzdem zu Herausforderungen führen, insbesondere wenn es um die Zuschreibung von Verantwortungen nach Fehltritten der KI kommt.

Wappnen Sie sich und bereiten Sie sich gründlich auf solche Szenarien vor, bevor Sie eine sehr innovative KI in Ihrem Unternehmen integrieren. Falls Sie unsicher sind, greifen Sie auf weniger autonome KIs zurück, bei denen Sie die vollständige Kontrolle behalten und die Verantwortungszuschreibung klar geregelt ist.

 

ICH MÖCHTE PREDICTIVE ANALYTICS FÜR DEN B2B-VERTRIEB
 

Literaturnachweis:

Beate Rössler (2017): Autonomie – Ein Versuch über das gelungene Leben

Bernd Graff (2016): Rassistischer Chat-Roboter: Mit falschen Werten bombardiert

Kaspar Molzberger (2020): Autonomie und Kalkulation

Margaret A. Boden (1996): Autonomy and Artificiality

Michael Wheeler (2020): Autonomy

Peter Lee (2016): Learning from Tay’s introduction

Sony (2018): Detroit: Become Human

World Economic Forum (2020): Model Artificial Intelligence Governance Framework and Assessment Guide



Has one comment to “Autonome KI – wann trägt der Computer die Verantwortung für Fehler?”

You can leave a reply or Trackback this post.