Marbella-Papers enthüllen Gefahren von KI und ChatGPT

Künstliche Intelligenz hat rasante Entwicklungen durchlaufen. Wovor müssen sich Menschen fürchten? Antworten geben die Marbella-Papers.

«Irgendwo während der Industriellen Revolution hat der Mensch die Kontrolle über den technologischen und ökonomischen Fortschritt verloren», erklärte unlängst Amitai Etzioni, einer der prägendsten US-Intellektuellen des 20. Jahrhunderts, kurz vor seinem Tod gegenüber dem Magazin «Spiegel».

Seit der Industriellen Revolution kämpfe die Menschheit nun darum, diese Kontrolle zurückzugewinnen, führte der Soziologe weiter aus.

Spitze des Eisberges

«Die künstliche Intelligenz macht dieses Rennen noch einmal schneller und schwerer zu gewinnen», sagte er.

Zugleich kämen aber neue soziale Bewegungen auf, die keine Gesellschaft wollten, in der uns diese Kräfte dominierten, betonte der Wissenschafter.

Künstliche Intelligenz (KI) sei aber nur die Spitze des Eisberges für einen viel grösseren Konflikt in unserer Gesellschaft: Steht der Mensch im Zentrum oder die Maschine, sagte Etzioni zudem.

Tech-Chefs übernehmen

Sein Sohn Oren, ein Pionier der KI-Erforschung, pflichtete in dem ersten und gleichzeitig letzten gemeinsamen Interview bei und erklärte, es sei Science-Fiction, dass sich die KI in einem Rechenzentrum gegen die Menschheit verschwöre und Amok laufe.

«Technologie ist sicher nicht neutral, aber am Ende treffen Menschen die Entscheidungen», betonte er.

Doch die mächtigen Menschen, welche diese Werkzeuge bedienten, seien keine Politiker, sondern Tech-Unternehmer, wie Mark Zuckerberg und Elon Musk.

Daher werde die Gesellschaft eine noch grössere Konzentration von Reichtum in den Händen weniger erleben, hiess es.

Kostenlose Produktion von Infos

«Ob sich am Ende Microsoft oder Google durchsetzt, ist gar nicht entscheidend». Vielmehr, ob es der Industrie als Ganzes gelingt, effektive Regeln durch die Politik zu verhindern.

«Gutenbergs Buchdruck hat das Kopieren von Informationen quasi kostenlos gemacht, das Internet ihre globale Verbreitung, und nun wird ihre Produktion kostenlos», erklärte Oren die Welt.

Mensch entscheidet

Bei Sprachmodellen, wie GPT-4, müsse man zudem zwischen Intelligenz und Autonomie unterscheiden.

Die Modelle seien zwar sehr ausgefeilt und in gewisser Weise intelligent, aber einen eigenen Willen hätten sie nicht.

«Wie viel Autonomie sie bekommt, ist eine politische Frage, keine technologische», sagte der 59-jährige Sohn.

«Darüber entscheiden Menschen», hob er hervor.

Fehlende Regeln

Doch sein 94-jähriger Vater widersprach da in dem Streitgespräch. Jedes neue Medikament brauche heutzutage eine Zulassung.

«Aber wenn ein paar Leute in San Francisco heute Abend eine neue Technologie für bessere Deepfakes erfinden, müssen wir damit leben – selbst wenn es gegen unsere Werte und unseren politischen Willen geht», kritisierte der Köln geborene Gesellschaftsforscher, der unter anderem ein Gegenmodell zur neoliberalen Ökonomie mit vielen Individualrechten entwickelt hat.

Geld für Millionen an Bots

ChatGPT schreibe zwar keine mitreissenden Reden.

«Aber es kann unzählige Trump-freundliche Chatbots auf Facebook und Twitter zugleich betreiben», umschrieb Sohn Oren die wahre Gefahr der neuen Technologie.

Es sei Donald Trump mit dem Geld, eine Million Mini-GPTs zu bezahlen, warnte er.

«Wähler können mit Botschaften bombardiert werden, die klingen, als hätte Elon Musk oder Angela Merkel sie gesprochen. Solche Anwendungen muss man regulieren, nicht GPT-4», legte der Jüngere seine Sichtweise dar.

Der Mob könne sich nunmehr von einem charismatischen Führer verführen lassen, so die Kritik an der neuen politischen Realität.

«Technologie fordert dieses System heraus», mahnte Vater Amitai diesbezüglich.

Bildung erhöhen

Regulierung der Anwendungen könne da zwar Teil der Lösung sein. Jedoch seien sie national und das Problem aber international, hiess es weiter. Man könnte etwa digitale Authentifizierung vorschreiben, eine Art Wasserzeichen, das jeder von KI produzierte Inhalt enthalten müsse.

Man sollte aber auch die bisherigen Gesetze zu Urheberrecht, zu Medikamentenforschung und all den anderen Bereichen an die neuen Wirklichkeiten anpassen. 

Obendrein helfe beispielsweise Bildung, damit die Menschen lernten, mit dieser Technologie umzugehen, die KI besser erkennen und einschätzen zu können, denn ChatGPT produziere teils den grössten Nonsens, weil das System keine Vorstellung von der Realität habe. 

«Es ist aber unmöglich, ChatGPT ein ultimatives Wertegerüst zu geben, weil wir als Gesellschaft darüber selbst im Streit sind», lautete eine Grenze der KI.

Anwendung bei Senioren

Künstliche Intelligenz sei aber auf keinen Fall einfach nur eine Gefahr für die Gesellschaft.

«Vorgetäuschte Emotionen können hilfreich sein, um emphatische Computer zu bauen», sagte der 94-Jährige, der einst US-Präsidenten Jimmy Carter beraten hat.

«Bisher parkten wir alte Menschen in Altenheimen und lassen sie dort vereinsamen, weil das einfacher zu managen ist», so Amitai.

«Nichts belastet unsere psychische Gesundheit so sehr wie Einsamkeit», sagte der Soziologe. Ein Computer könnte da sagen «Ich höre Dir gerne zu», als gar niemand, umschrieb er künftigen Nutzen von KI bei der Anwendung in der Seniorenbetreuung.

Warum sollten wir Menschen erst helfen, wenn sie verzweifelt sind und eine Depression entwickeln?, fragte Amitai rhetorisch.

Serie von Aufsätzen

Aus diesem Grund können man KI auch nicht einfach verbieten, sondern die Menschheit müsse sich über den Nutzen von Regeln ihre Gedanken machen, genauso wie über ihren Schaden, sagte der 1929 geborene Wissenschafter wenige Tage vor seinem Tod gegenüber dem «Spiegel». 

All die Antworten auf solche Fragen gibt dabei eine Serie von Aufsätzen, welche die beiden über das Design von KI-Systemen über die Grenzen ihrer wissenschaftlichen Disziplinen hinweg verfasst haben.

Sie heissen Marbella-Papers – «weil sie im Urlaub in Spanien entstanden sind», so die einfache Erklärung des Star-Soziologen Amitai Etzioni.

12.07.2023/kut.

Marbella-Papers enthüllen Gefahren von KI und ChatGPT

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert