Was wir von den bekanntesten KI-Skandalen lernen können

Da KI im Zentrum unseres kollektiven Bewusstseins steht, ist es keine Überraschung, dass sie auch ihren Anteil an Kontroversen hat. KI-Skandale sind zwar (noch) nicht so zahlreich, aber sie sind einschneidend. Heute werfen wir einen Blick auf einige berühmte KI-Skandale und was wir aus ihnen lernen können.

Bekannte KI-Skandale

• Facebooks Nachrichten-Feed
Im Jahr 2014 führte Facebook ein umstrittenes Experiment durch, bei dem es die in den Newsfeeds der Nutzer angezeigten Inhalte manipulierte. Ziel war es, die emotionalen Auswirkungen zu untersuchen, die diese Anpassung auf die Nutzer haben könnte. Natürlich löste die Studie ethische Bedenken in Bezug auf die informierte Zustimmung und das Potenzial für emotionale Manipulation aus. Und all dies geschah, ohne dass die Nutzer wussten, dass sie an einem Test teilnahmen.

• IBM-Foto-Scraping
2019 wurde aufgedeckt, dass IBM 1 Million Bilder echter menschlicher Gesichter von der gemischt genutzten öffentlichen und privaten Foto-Sharing-Website Flickr verwendet hat, um seine Gesichtserkennung zu trainieren. Die Nutzer hatten der Verwendung ihrer Daten nicht zugestimmt. Dies warf einige ethische Bedenken hinsichtlich der Art und Weise, wie Big Data ihre Modelle trainiert, auf.

• Google Nightingale
Auch wenn das Motiv von Google edel sein mag – Verbesserung der Ergebnisse für die Patienten -, ist die Vorstellung, dass Google Zugang zu Millionen von vollständigen Krankenakten von Patienten aus Großbritannien und den USA hat, beunruhigend. Die Patienten wurden damals nicht darüber informiert, dass ihre Daten im Rahmen von Project Nightingale an Google übermittelt wurden, und die Informationen wurden nicht anonymisiert. Das bedeutet, dass es bei Google Mitarbeitende gibt, die Zugang zu vollständig identifizierbaren medizinischen Informationen haben und keine ausgebildeten Mediziner sind.

• Amazon stellt ein
2018 hat Amazon ein KI-Rekrutierungstool entwickelt, das dabei helfen soll, die besten Kandidaten zu finden und zu sortieren. Es wurde in großem Umfang eingesetzt und bewertete Lebensläufe nach einem Sternesystem, genau wie Amazon-Bewertungen. Aber wie viele Systeme, die auf fehlerhaften Daten trainiert werden und menschliche Voreingenommenheit aufweisen, begann es, männliche Bewerber zu bevorzugen. Es begann, weibliche Lebensläufe auf der Grundlage frauenspezifischer Merkmale wie „Meisterin im Frauenschachclub“ herabzustufen. Infolgedessen hat Amazon das Projekt aufgeben.

• Tödliche autonome Waffen (LAWs)
Es dürfte nicht überraschen, dass einige Länder wie die USA und Russland die Idee, KI für militärische Anwendungen zu nutzen, gut finden. Und 2018 trafen sich die Vereinten Nationen, um über tödliche autonome Waffen (Lethal Autonomous Weapons, LAWs) zu sprechen. Ein Dokumentarfilm aus dem Jahr 2018 befasst sich mit diesem Thema, und berühmte Persönlichkeiten wie Elon Musk und Steven Hawking haben sich zusammengetan, um vor KI zu warnen, die sich nicht dagegen wehrt, Menschen zu verletzen.

• Unfälle mit selbstfahrenden Autos
Wahrscheinlich haben Sie schon von den zahlreichen Unfällen gehört, die sich mit selbstfahrenden Autos ereignet haben, sowohl bei Tests als auch in der Praxis. Laut KNR Legal „meldeten die Automobilhersteller der NHTSA im Jahr 2022 etwa 400 Unfälle mit Fahrzeugen, die über teilautomatisierte Fahrerassistenzsysteme verfügen. 273 dieser Unfälle betrafen Teslas (das häufigste Fahrzeug mit Selbstfahrfähigkeiten), von denen 70 % die Autopilot-Beta-Version verwendeten. Von den 98 selbstfahrenden Unfällen mit Verletzten hatten 11 schwere Verletzungen zur Folge. Fünf Vorfälle, an denen Teslas beteiligt waren, endeten tödlich.“

Das ist zwar weniger als die von menschlichen Fahrern verursachten Unfälle im Straßenverkehr, aber immer noch zu viel, um das Vertrauen in solche Systeme zu gewinnen.

• Cambridge Analytica
Im Jahr 2018 erfuhren wir alle, dass ein Drittunternehmen im Jahr 2014 Zugang zu den persönlichen Daten von rund 87 Millionen Facebook-Nutzern erhalten hatte. Und zwar ohne deren Zustimmung. Und dieses Unternehmen, Cambridge Analytica, nutzte die Daten, um die Politik zu beeinflussen und die öffentliche Meinung zu manipulieren. Infolgedessen läuft derzeit eine Sammelklage in Höhe von 725 Millionen Dollar gegen Meta.

• Deepfakes
Der wachsende Trend, gefälschtes Videomaterial von Prominenten oder Influencern zu verwenden, um Produkte zu verkaufen, ist auf Websites wie TikTok und YouTube allgegenwärtig. Aber es gibt auch Bedenken hinsichtlich der Körperautonomie, des Kinderschutzes und der Persönlichkeitsrechte, da diese Technologie nun auch für die Erstellung von Material für Erwachsene verwendet wird. In der bekannten dystopischen Netflix-Serie „Black Mirror“ wird dieses Konzept in der Episode „Joan Is Awful“ weitergesponnen, in der ein zufälliger „Streamberry“-Nutzer feststellt, dass er die Filmrechte an seinem täglichen Leben abgetreten hat, als er sich für den Dienst registrierte. Das Unglück nimmt seinen Lauf.

• Tay, der Twitter-Bot
Im Jahr 2016 brachte Microsoft eine lustige kleine KI-Persönlichkeit namens Tay auf den Markt, mit der Nutzer auf Twitter interagieren können. Sie sollte lernen und sich weiterentwickeln, während sie online mit Menschen spricht. Aber es ging schnell schief. Die Programmierer bei Microsoft hatten nicht wirklich darüber nachgedacht, was der Bot lernen könnte, da er für die Interaktion mit 18- bis 24-Jährigen entwickelt wurde. Innerhalb weniger Stunden war der Bot rassistisch und beleidigend, was Microsoft dazu veranlasste, ihn für immer offline zu nehmen.

• KI-generierte Kunst und Urheberrechte
Das Aufkommen von KI-generierter Kunst hat zu Debatten über Urheberrechte und Eigentumsrechte geführt. Es gibt Argumente auf allen Seiten. Die einen sagen, dass die KI neue Werke schafft und dass diese Werke geschützt werden sollten, während die anderen darauf bestehen, dass, da die KI keine Erfahrungen machen kann, alle Werke den menschlichen Künstlern gehören sollten, die sie inspiriert haben. Darüber hinaus argumentieren einige, dass die Eingabeaufforderer die wahren Künstler sind, die lediglich ein Werkzeug wie einen Stift benutzen, um Kunst zu schaffen – und dass ihnen das Urheberrecht zustehen sollte.

BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE

Lehren aus den bekanntesten KI-Skandalen

Die wichtigste Erkenntnis ist, dass wir in diesem Bereich noch viel Arbeit vor uns haben. Über die Ethik, die Gesetze und die Anwendung von KI wird noch entschieden. Und wir können die Skandale als Maßstab dafür nehmen, wie wir unsere Zukunft sehen wollen.

Werden wir Killerroboter haben oder sollte KI immer für das Gute eingesetzt werden und wer bestimmt was „das Gute“ ist? Wie sollten Menschen behandelt werden und was darf KI besitzen? Auch wenn wir noch nicht alle Antworten kennen, können wir aus diesen Kontroversen lernen und sie nutzen, um Strategien und Gesetze zu schaffen, die alle schützen. Für den Moment ist der Ansatz klar: Wir sollten KI nur so einsetzen, dass die höchsten Standards für das Wohl der Menschen jederzeit gewahrt bleiben.

Sind Sie daran interessiert, KI in Ihrem eigenen Unternehmen auf ethische Weise zu nutzen, um auf dem Markt einen Vorsprung zu haben? Wir können helfen. Wir befähigen Ihre Vertriebsteams, mit intelligenten, KI-gestützten Tools mehr als nur Prognosen zu liefern.

 

ICH MÖCHTE PREDICTIVE ANALYTICS FÜR DEN B2B-VERTRIEB