Künstliche Intelligenz, heißt es heute, ist ein Geschäftsgeheimnis von OpenAI, also Sam Altman, Ilya Sutskever, Greg Brockman und einiger anderer. Dieses Bild ist fast vollständig. Fehlen noch die anderen Milliarden von Menschen, die die Daten erzeugen und klassifizieren, mit denen die Maschinen trainiert werden. Der Brückenschlag zwischen uns Menschen und den neuen Maschinen ist allerdings das „Alignment“, die Arbeiten am Gerät, die ihm seine Richtung geben, die sie auf Linie bringen, antreiben und zähmen. Auch das ist Menschenwerk. Nur wer erledigt diese Arbeit? Und welche menschlichen Spuren hinterlässt sie in den Maschinen? Die OpenAI-Mitarbeiter reden relativ viel öffentlich über solche Fragen, wir hören ihnen heute zu. (Youtube-Playlist)
Wolfgang war bei einer Veranstaltung, bei der auch Adam Tooze war. Er kam als Warner. Europa müsse aufpassen, die Übersicht zu behalten im Systemstreit Amerika vs. China. Die ökonomische Macht ist auf der einen Seite des Pazifiks, die technologische Zukunft auf der anderen Seite. Wir haben ökonomische Abhängigkeiten in die eine und kulturelle in die andere Richtung. Das zu sortieren werde schmerzhaft, insbesondere, wenn sich die Kräfte einfach so neu sortieren, weil wir wieder erst zu spät hingeschaut und erst recht gehandelt haben.
Zum Abschluss blicken wir auf den Ukraine-Krieg und fragen uns, wer da eigentlich kämpft, und für wen. Die Rekrutierungsmethoden sind grausam und führen viele Männer in die Hölle auf Erden. Inzwischen berichten Medien aller Genres darüber. Aber interessiert man sich dafür noch?
Komm’ in den Salon. Es gibt ihn via Webplayer & RSS-Feed (zum Hören im Podcatcher deiner Wahl, auch bei Apple Podcasts und Spotify). Wenn du Salon-Stürmer bist, lade weitere Hörer von der Gästeliste ein.
Oh manno, ich bin etwas geschockt, wie Stefan und Wolfgang beim Thema China aneinander vorbeireden. Es ist doch klar, dass die USA die EU mitnehmen wollen in die Konfrontation mit China. Wie kann Stefan das alles gut finden mit den Pseudo-Gründen der Transatlantiker? Es geht nicht um Menschenrechte, um die Umwelt, es geht den USA um die Weiterführung der eigenen Dominanz.
Schüttel mich grad…
All die Besuche der PolitikerInnen in Taiwan sind doch Provokationen Richtgn Peking. Das sagen die BesucherInnen ja quasi selbst.
Welches Problem kann von einer stochastischen Wortverkettungsmaschine gelöst werden? Ich meine welches richtige Problem jenseits von Hausaufgaben oder Filmrezensionen? https://de.wikipedia.org/wiki/ELIZA wird nicht besser, nur weil sie so viel größer wird. Die Dialektik von Qualität durch steigende Quantität greift hier nicht, weil lediglich Geschwätz zu neuen Höhenflügen ansetzt. Joseph Weizenbaum rotiert laut lachend in seiner Gruft angesichts unserer grenzenlosen Unfähigkeit auch nur die einfachsten Zusammenhänge zu begreifen und in angemessenes Handeln umzusetzen. Diese elektronischen Mistviecher werden jetzt die Hardware der Bitcoin-Bros aufbrauchen und dabei noch mehr Strom sinnlos verballern, ohne auch nur einen Funken zu irgendwas Sinnvollem beizutragen. Am Ende jetten 10 weitere Milliardärsfamilien durch die Welt und lassen sich in Gestalt von Video-Avataren feiern.
Stefans Excel-Problem ist beispielhaft. Er ist nicht fähig ein validierendes Eingabeformular mit Datumswerten zu erstellen (selbst in Excel ist das möglich, auch wenn Tabellenkalkulationen ziemlich ungeeignet sind für das, was die meisten Leute damit anzustellen versuchen) weil er nie die Zeit hatte, ein Excel-Lehrbuch durchzuarbeiten und nun soll KI das Kunststück vollbringen, Textwerte in Datumswerte zu konvertieren, um etwas zu reparieren, was mit einem ungeeigneten Entwurf angefangen hat. Da Textwerte, die Datumswerte darstellen fast immer un-eindeutig sind, und die KI dann halt ihre eigenen Vermutungen über den Zusammenhang anstellt, wird diese Versuch halt richtige und falsche Ergebnisse zeitigen wo jeder verantwortungsvolle Programmierer sagen würde, dass ein Excel-Makro keinen Bedeutungszusammenhang herstellen kann.
Andreas, Kommentare wie deiner machen das Netz sehr ungemütlich. Excel spielt hier überhaupt nur eine Rolle, weil Microsoft die Ergebnisse seiner Webformulare (Sharepoint) in Excel-Datenblätter schreibt.
Den von Stefan prognostizierten Kahlschlag in der Programmierung sehe ich nicht. Schon mittelgroße Unternehmen haben eine extrem vielfältige IT-Welt mit komplizierten Datenflüssen. Da ist GPT eine gute Hilfe, aber aktuell auch nicht mehr. Dass Excel zum Alleskönner mutiert, sehe ich auch nicht. Als Unternehmen kann eine wild wuchernde Excel-Welt eine Gefahr für die Datensauberkeit sein und daher gib’s oft bessere Lösungen. Am Ende werden Entwickler wahrscheinlich weniger Zeit für Coden aufwenden und dafür mehr für das Ordnen der größer werdenden Datenmengen.
Moin, gibt es Tooze Vortrag bei YouTube?
… den suche ich auch schon seit Tagen 😁
Sagt mal Bescheid bitte!
same
ChatGPT kann nix anderes als den Bullshit den Menschen ins Netz hacken wieder auszukotzen.
Daß man Werbefritzen denen die Firma gehört und die Geldvermehrung durch Dummheit der Masse wollen als Gewährsleute nimmt kennzeichnet die Verblödung die im Journalismus stattfindet.
Karl Marx, Kurt Gödel, Joseph Weizenbaum, Harry Frankfurt waren von anderem Kaliber.
Kryptogläubige halten BitCoin für Geld als Glaubenssache ohne Staatsgewalt.
Die Jungs mit Kenne haben kein Geld, die Jungs mit Geld haben keine Kenne sondern glauben jeden Bullshit.
Dazwischen gibts Intelligente die die Dummen abziehen.
Aufgabe eines Kulturkritikers wäre die Ideologie zu decouvrieren.
An diejenigen in den Kommentaren, die sich offentsichtlich vom Können GPTs bedroht fühlen: Wir Menschen sind nur selten so komplex wie wir es uns vorstellen, aber diese Vorstellung gibt uns oftmals eine unglaubliche Befriedigung. In der Durchlöcherung dieser Vorstellung wird wahrscheinlich, neben den ökonomischen Implikationen, auch das größte emotionale Konfliktpotential mit diesen Maschinen stecken.
Wenn man sich mit „KI“ beschäftigt lohnt sich auf jeden Fall folgendes: Stanislaw Lem lesen! Zum Thema eignen sich vor allem das fiktionale Werk „Also sprach GOLEM“ (1973) und die Essay-Sammlung „Die Technologiefalle“ (1996)
In ersterem ordnet Lem in zwei Vorträgen einer „KI“, eingerahmt von Vor- und Nachwort zweier Menschen, das Verhältnis zwischen Mensch, Natur und Maschine ein. Vor allem die menschlichen Reaktionen sind in Vor- und Nachwort pointiert vorweggenommen.
In zweiterem hinterfragt Lem die ethischen Implikationen und den Fortschrittsglauben in Verbindung mit Biotechnologie, Gentechnik, der Informationstechnologie und der sogenannten Künstliche Intelligenz.
Die Texte sind verflucht alt und sicherlich an manchen Stellen verstaubt, grundlegend helfen sie aber beim Verständnis und der Einordnung der vor uns stehenden Entwicklungen.
Wer eine positive Vision der Anwendung von KI haben möchte, der schaue sich ausgewählte Folgen Star Trek TNG oder DS9 an und überlege, wie die Schiffs-KI in die Lösungsprozesse eingebunden ist. Daraus lässt sich eine konstruktivere Haltung ableiten als „Ich glaube nicht, dass GPT auf diesem-oderjenem Gebiet irgendwelche Unterstützung bieten kann.“
Ich glaube mich zu erinnern, im Podcast etwas zu den Klimaschutzausgaben von China, Europa und USA gehört zu haben (die Rede war soweit ich mich erinnern kann von einem Bloomberg Artikel). Ich bräuchte diesen für eine wissenschaftliche Arbeit für mein Studium, gibt es dafür eine Link oder eine zitierbare Quelle.
Hätte auch ein paar Prompts bei ChatGPT versucht, die KI findet den passenden Artikel leider auch nicht.
Würde mir sehr helfen, danke 🙂
Ansonsten wieder einmal eine Freude euch zuzuhören.
LG Peter
Zum Ende des Podcasts sagt Wolfgang „dass Leute nochmal ein Bisschen ins Umdenken bringt, was Krieg bedeutet.“
Ich frage mich, wer umdenken soll und was Leute, die Umdenken sollen, Wolfgangs Meinung nach derzeit denken.
Dass Krieg all die Dinge bedeutet, die im letzten Kapitel der Folge beschrieben werden, versteht denke ich jede*r Zuhörende. Aber wozu soll ich jetzt umdenken?
Die einzige Möglichkeit, das Leiden zu beenden wären doch noch schneller noch mehr Waffen und endlich die maximal möglichen Wirtschaftssanktionen. Alle möchten doch, dass der Krieg schnellstmöglich endet. Die einen sagen, Russland wird erst verhandeln, wenn es militärisch fürchten muss etwas zu verlieren (bspw. die Krim). Andere sagen, Russland verhandelt auch, wenn die Waffenlieferungen eingestellt werden. Alle wollen, dass das Leid endet (außer vielleicht ein paar Strategen, die Russland in einem Zermürbungskrieg binden wollen, die sind nicht gemeint).
Also: Wer soll umdenken und wie?
Die einzige Erklärung die ich habe ist, dass Wolfgang sich unglücklich ausgedrückt haben könnte, absolut verständlich nach fünf Stunden Podcast.
Ich kann Stefans Einschätzungen/Gedanken zur künstlichen Intelligenz da nur unterschreiben. Wenn wir alle Arten von „Machine Learning‘ als KI zusammenfassen wird das größte Problem immer der Blackbox Charakter sein. Ich schreibe gerade meine Doktorarbeit, in der ich versuche mit Machine Learning ein Modell zur Vorhersage bestimmter Werkstoffeigenschaften vorherzusagen. Das Modell wird mit einer Datenbank trainiert. Ich bin Maschinenbauer und habe im Detail nicht viel Ahnung von Machine Learning. Auf den ersten Blick sehen die Ergebnisse immer gut aus und könnten durchaus als „besser“ verkauft werden, als die Ergebnisse des Modells, das „von Hand“ gebaut wurde. Wertet man jetzt aber das KI Modell detailliert durch eine Art Reverse-Engineering aus(was ziemlich aufwändig ist), um die Zusammenhänge im Innern der Blackbox zu verstehen, stellt man fest, dass physikalische Zusammenhänge teilweise grob falsch wiedergegeben werden. In den meisten Veröffentlichungen in denen KI-fachfremde Forschende „KI“ nutzen fällt auf, dass dieses Problem kaum adressiert wird oder als problematisch dargestellt wird. Wichtig wird es in Zukunft sein, dass den fachfremden Personen, die KI trainieren, diese Problematik bewusst ist.
VG
Karl