banner
Nachrichtenzentrum
Unsere Waren werden sowohl im Inland als auch im Ausland geschätzt.

Juliette Powell und Art Kleiner, Autoren des KI-Dilemmas

Apr 10, 2024

Veröffentlicht

An

Von

Das KI-Dilemma wurde von Juliette Powell und Art Kleiner geschrieben.

Juliette Powell ist Autorin, Fernsehmacherin mit 9.000 Live-Shows sowie Technologin und Soziologin. Sie ist außerdem Kommentatorin bei Bloomberg TV/Business News Networks und Rednerin auf Konferenzen, die vom Economist und der International Finance Corporation organisiert werden. Ihr TED-Vortrag hat 130.000 Aufrufe auf YouTube. Juliette identifiziert die Muster und Praktiken erfolgreicher Unternehmensleiter, die auf ethische KI und Daten setzen, um zu gewinnen. Sie ist Dozentin am ITP der NYU, wo sie vier Kurse unterrichtet, darunter „Design Skills for Responsible Media“, einen Kurs, der auf ihrem Buch basiert.

Art Kleiner ist Autor, Herausgeber und Zukunftsforscher. Zu seinen Büchern gehören „The Age of Heretics“, „Who Really Matters“, „Privilege and Success“ und „The Wise“. Er war Herausgeber von strategy+business, dem preisgekrönten Magazin von PwC. Art ist außerdem langjähriges Fakultätsmitglied am NYU-ITP und am IMA, wo er unter anderem Co-Teaching für „Responsible Technology“ und „The Future of Media“ anbietet.

„The AI ​​Dilemma“ ist ein Buch, das sich auf die Gefahren der KI-Technologie in den falschen Händen konzentriert und gleichzeitig die Vorteile anerkennt, die KI für die Gesellschaft bietet.

Probleme entstehen, weil die zugrunde liegende Technologie so komplex ist, dass es für den Endbenutzer unmöglich wird, das Innenleben eines geschlossenen Systems wirklich zu verstehen.

Eines der wichtigsten hervorgehobenen Probleme ist, wie sich die Definition von verantwortungsvoller KI ständig verändert, da gesellschaftliche Werte im Laufe der Zeit oft nicht konsistent bleiben.

Ich habe es sehr genossen, „The AI ​​Dilemma“ zu lesen. Es ist ein Buch, das die Gefahren der KI nicht sensationell darstellt und sich nicht eingehend mit den potenziellen Fallstricken der Künstlichen Allgemeinen Intelligenz (AGI) befasst. Stattdessen erfahren die Leser etwas über die überraschende Art und Weise, wie unsere persönlichen Daten ohne unser Wissen verwendet werden, sowie über einige der aktuellen Einschränkungen der KI und Gründe zur Besorgnis.

Im Folgenden finden Sie einige Fragen, die unseren Lesern zeigen sollen, was sie von diesem bahnbrechenden Buch erwarten können.

Was hat Sie ursprünglich dazu inspiriert, „The AI ​​Dilemma“ zu schreiben?

Juliette ging unter anderem nach Columbia, um die Grenzen und Möglichkeiten der Regulierung von KI zu untersuchen. Sie hatte von Freunden, die an KI-Projekten arbeiteten, aus erster Hand von der Spannung gehört, die diesen Projekten innewohnt. Sie kam zu dem Schluss, dass es sich um ein KI-Dilemma handelte, ein viel größeres Problem als die Selbstregulierung. Sie entwickelte das Apex-Benchmark-Modell – ein Modell dafür, wie Entscheidungen über KI aufgrund der Interaktionen zwischen Unternehmen und Gruppen innerhalb von Unternehmen tendenziell zu einer geringen Verantwortung führen. Daraus entstand ihre Dissertation.

Art hatte mit Juliette an einer Reihe von Schreibprojekten zusammengearbeitet. Er las ihre Dissertation und sagte: „Sie haben hier ein Buch.“ Juliette lud ihn ein, als Co-Autor mitzuwirken. Als sie gemeinsam daran arbeiteten, stellten sie fest, dass sie sehr unterschiedliche Perspektiven hatten, aber der festen Überzeugung waren, dass dieses komplexe, hochriskante KI-Phänomen besser verstanden werden muss, damit die Menschen, die es nutzen, verantwortungsvoller und effektiver handeln können.

Eines der grundlegenden Probleme, das in „The AI ​​Dilemma“ hervorgehoben wird, besteht darin, dass es derzeit unmöglich ist, allein durch das Studium seines Quellcodes zu verstehen, ob ein KI-System dafür verantwortlich ist oder ob es soziale Ungleichheit aufrechterhält. Wie groß ist das Problem?

Das Problem liegt nicht primär beim Quellcode. Wie Cathy O'Neil betont, kommt es bei einem Closed-Box-System nicht nur auf den Code an. Es ist das soziotechnische System – die menschlichen und technologischen Kräfte, die sich gegenseitig formen – das erforscht werden muss. Die Logik, mit der das KI-System aufgebaut und freigegeben wurde, umfasste die Identifizierung eines Zwecks, die Identifizierung von Daten, die Festlegung von Prioritäten, die Erstellung von Modellen, die Einrichtung von Richtlinien und Leitplanken für maschinelles Lernen sowie die Entscheidung, wann und wie ein Mensch eingreifen sollte. Das ist der Teil, der transparent gemacht werden muss – zumindest für Beobachter und Prüfer. Das Risiko sozialer Ungleichheit und anderer Risiken ist viel größer, wenn diese Teile des Prozesses verborgen bleiben. Sie können die Designlogik nicht wirklich aus dem Quellcode umgestalten.

Kann die Konzentration auf erklärbare KI (XAI) dieses Problem jemals lösen?

Für Ingenieure wird erklärbare KI derzeit als eine Gruppe technologischer Einschränkungen und Praktiken betrachtet, die darauf abzielen, die Modelle für die Menschen, die an ihnen arbeiten, transparenter zu machen. Für jemanden, der fälschlicherweise beschuldigt wird, hat die Erklärbarkeit eine ganz andere Bedeutung und Dringlichkeit. Sie brauchen Erklärbarkeit, um zu ihrer eigenen Verteidigung zurückschlagen zu können. Wir alle brauchen Erklärbarkeit im Sinne einer Verdeutlichung der Geschäfts- oder Regierungsentscheidungen, die den Modellen zugrunde liegen. Zumindest in den Vereinigten Staaten wird es immer eine Spannung zwischen Erklärbarkeit – dem Recht der Menschheit auf Wissen – und dem Recht einer Organisation auf Wettbewerb und Innovation geben. Prüfer und Aufsichtsbehörden benötigen ein anderes Maß an Erklärbarkeit. Darauf gehen wir in „Das KI-Dilemma“ genauer ein.

Können Sie uns kurz Ihre Meinung darüber mitteilen, wie wichtig es ist, Stakeholder (KI-Unternehmen) für den Code, den sie der Welt zugänglich machen, zur Verantwortung zu ziehen?

Bisher wurde beispielsweise bei der Kollision eines selbstfahrenden Autos in Tempe, AZ, bei der ein Fußgänger getötet wurde, der Fahrer zur Verantwortung gezogen. Eine Person kam ins Gefängnis. Letztendlich handelte es sich jedoch um einen organisatorischen Misserfolg.

Wenn eine Brücke einstürzt, wird der Maschinenbauingenieur zur Verantwortung gezogen. Das liegt daran, dass Maschinenbauingenieure ausgebildet, kontinuierlich weitergebildet und ihrem Beruf gegenüber zur Rechenschaft gezogen werden. Computeringenieure sind es nicht.

Sollten Stakeholder, einschließlich KI-Unternehmen, geschult und umgeschult werden, um bessere Entscheidungen zu treffen und mehr Verantwortung zu übernehmen?

Das KI-Dilemma konzentrierte sich hauptsächlich darauf, wie Unternehmen wie Google und Meta unsere persönlichen Daten sammeln und monetarisieren können. Können Sie ein Beispiel für einen erheblichen Missbrauch unserer Daten nennen, der jeder im Auge behalten sollte?

Aus „Das KI-Dilemma“, Seite 67ff:

Immer wieder tauchen neue Fälle von systematischem Missbrauch personenbezogener Daten auf, bei denen es sich häufig um den verdeckten Einsatz von Gesichtserkennung handelt. Im Dezember 2022 veröffentlichte MIT Technology Review Berichte über eine langjährige iRobot-Praxis. Roomba-Haushaltsroboter zeichnen Bilder und Videos auf, die in den Häusern freiwilliger Betatester aufgenommen wurden, was zwangsläufig das Sammeln intimer persönlicher und familienbezogener Bilder bedeutet. Diese werden ohne Wissen der Tester an Gruppen außerhalb des Landes weitergegeben. In mindestens einem Fall wurde auf Facebook ein Bild einer Person auf einer Toilette gepostet. Inzwischen haben die Behörden im Iran damit begonnen, Daten von Gesichtserkennungssystemen zu nutzen, um Frauen aufzuspüren und zu verhaften, die keinen Hijab tragen.16

Es besteht keine Notwendigkeit, diese Geschichten weiter auszuführen. Es gibt so viele davon. Es ist jedoch wichtig, den kumulativen Effekt einer solchen Lebensweise zu erkennen. Wir verlieren das Gefühl, die Kontrolle über unser Leben zu haben, wenn wir das Gefühl haben, dass unsere privaten Daten jederzeit und ohne Vorwarnung gegen uns verwendet werden könnten.

Ein gefährliches Konzept, das angesprochen wurde, ist, dass unsere gesamte Welt auf Reibungslosigkeit ausgelegt ist. Die Definition von Reibung ist „jeder Punkt in der Reise des Kunden mit einem Unternehmen, an dem er auf ein Hindernis stößt, das ihn ausbremst oder Unzufriedenheit hervorruft“. Wie führt unsere Erwartung eines reibungslosen Erlebnisses möglicherweise zu gefährlicher KI?

In Neuseeland schlug ein Pak'n'Save-Experte für Mahlzeiten ein Rezept vor, bei dessen Verwendung Chlorgas entstehen würde. Dies wurde beworben, um den Kunden die Möglichkeit zu geben, Reste zu verwerten und Geld zu sparen.

Reibungslosigkeit erzeugt eine Illusion von Kontrolle. Es ist schneller und einfacher, die App anzuhören, als Omas Rezept nachzuschlagen. Die Menschen folgen dem Weg des geringsten Widerstands und wissen nicht, wohin er sie führt.

Reibung hingegen ist kreativ. Sie engagieren sich. Dies führt zu einer tatsächlichen Kontrolle. Die tatsächliche Kontrolle erfordert Aufmerksamkeit und Arbeit und – im Fall von KI – eine ausführliche Kosten-Nutzen-Analyse.

Mit der Illusion der Kontrolle fühlt es sich an, als würden wir in einer Welt leben, in der KI-Systeme den Menschen steuern, anstatt dass der Mensch die volle Kontrolle behält. Welche Beispiele können Sie dafür nennen, dass Menschen kollektiv glauben, sie hätten die Kontrolle, obwohl sie in Wirklichkeit keine haben?

San Francisco im Moment, mit Robotaxis. Die Idee selbstfahrender Taxis weckt in der Regel zwei widersprüchliche Emotionen: Aufregung („Taxis zu einem viel geringeren Preis!“) und Angst („Werden sie mich anfahren?“). Daher schlagen viele Aufsichtsbehörden vor, die Autos mit Menschen zu testen in ihnen, wer die Kontrollen verwalten kann. Leider ist es möglicherweise kein guter Test für die öffentliche Sicherheit, Menschen in Alarmbereitschaft zu haben, die bereit sind, Systeme in Echtzeit außer Kraft zu setzen. Selbstüberschätzung ist eine häufige Dynamik bei KI-Systemen. Je autonomer das System ist, desto mehr neigen menschliche Bediener dazu, ihm zu vertrauen und nicht die volle Aufmerksamkeit zu schenken. Es wird uns langweilig, diese Technologien zu beobachten. Wenn tatsächlich ein Unfall passiert, rechnen wir nicht damit und reagieren oft nicht rechtzeitig.

In dieses Buch wurde viel recherchiert. Gab es etwas, das Sie überrascht hat?

Eine Sache, die uns wirklich überraschte, war, dass Menschen auf der ganzen Welt sich nicht darauf einigen konnten, wer in der Simulation eines selbstfahrenden Autounfalls durch The Moral Machine leben und wer sterben sollte. Wenn wir uns darauf nicht einigen können, ist es schwer vorstellbar, dass wir eine einheitliche globale Governance oder universelle Standards für KI-Systeme haben könnten.

Sie bezeichnen sich beide als Unternehmer. Wie wird sich das, was Sie gelernt und berichtet haben, auf Ihre zukünftigen Bemühungen auswirken?

Unsere KI-Beratungspraxis ist darauf ausgerichtet, Unternehmen dabei zu helfen, verantwortungsvoll mit der Technologie zu wachsen. Anwälte, Ingenieure, Sozialwissenschaftler und Wirtschaftsdenker sind alle an der Zukunft der KI beteiligt. In unserer Arbeit bringen wir all diese Perspektiven zusammen und üben kreative Reibung, um bessere Lösungen zu finden. Wir haben Rahmenwerke wie die Berechnung des absichtlichen Risikos entwickelt, um bei der Bewältigung dieser Probleme zu helfen.

Vielen Dank für die tollen Antworten. Leser, die mehr erfahren möchten, sollten The AI ​​Dilemma besuchen.

Sean Mullaney, Chief Technology Officer bei Algolia – Interviewreihe

Als Gründungspartner von unite.AI und Mitglied des Forbes Technology Council ist Antoine ein Zukunftsforscher, der sich leidenschaftlich für die Zukunft von KI und Robotik einsetzt. Er ist außerdem Gründer von Securities.io, einer Investment-Website, der generativen KI-Plattform images.ai und arbeitet derzeit an der Einführung von genius.ai, einer Plattform, die Benutzern die Möglichkeit bietet, autonome Agenten durch Aufteilen von Eingabeaufforderungen zu konfigurieren und bereitzustellen Unteraufgaben.

Sean Mullaney, Chief Technology Officer bei Algolia – Interviewreihe

William Wu, Gründer und CEO von Artisse – Interviewreihe

Kris Nagel, CEO von Sift – Interviewreihe

Ion-Alexandru Secara, Mitbegründer und CTO von Zen – Interview Series

Amir Hever, Mitbegründer und CEO von UVeye – Interview Series

Gautam Bakshi, Mitbegründer und CEO von 15Rock – Interview Series

Was hat Sie ursprünglich dazu inspiriert, „The AI ​​Dilemma“ zu schreiben? Eines der grundlegenden Probleme, das in „The AI ​​Dilemma“ hervorgehoben wird, besteht darin, dass es derzeit unmöglich ist, allein durch das Studium seines Quellcodes zu verstehen, ob ein KI-System dafür verantwortlich ist oder ob es soziale Ungleichheit aufrechterhält. Wie groß ist das Problem?Kann die Konzentration auf erklärbare KI (XAI) dieses Problem jemals lösen?Können Sie uns kurz Ihre Meinung darüber mitteilen, wie wichtig es ist, Stakeholder (KI-Unternehmen) für den Code, den sie der Welt zugänglich machen, zur Verantwortung zu ziehen? Das KI-Dilemma konzentrierte sich hauptsächlich darauf, wie Unternehmen wie Google und Meta unsere persönlichen Daten sammeln und monetarisieren können. Können Sie ein Beispiel für einen erheblichen Missbrauch unserer Daten nennen, der jeder im Auge behalten sollte? Ein gefährliches Konzept, das angesprochen wurde, ist, dass unsere gesamte Welt auf Reibungslosigkeit ausgelegt ist. Die Definition von Reibung ist „jeder Punkt in der Reise des Kunden mit einem Unternehmen, an dem er auf ein Hindernis stößt, das ihn ausbremst oder Unzufriedenheit hervorruft“. Wie führt unsere Erwartung eines reibungslosen Erlebnisses möglicherweise zu gefährlicher KI? Mit der Illusion der Kontrolle fühlt es sich an, als würden wir in einer Welt leben, in der KI-Systeme den Menschen steuern, anstatt dass der Mensch die volle Kontrolle behält. Welche Beispiele können Sie dafür nennen, dass Menschen kollektiv glauben, sie hätten die Kontrolle, obwohl sie in Wirklichkeit keine haben?In dieses Buch wurde viel recherchiert. Gab es etwas, das Sie überrascht hat?Sie bezeichnen sich beide als Unternehmer. Wie wird sich das, was Sie gelernt und berichtet haben, auf Ihre zukünftigen Bemühungen auswirken?