Algorithmen und Künstliche Intelligenz

Was müssen wir wissen, was müssen wir können, wer wollen wir sein?

Autor:in

Axel Dürkop

Veröffentlichungsdatum

Mittwoch, 11. September 2024

Einleitung

Digitale Souveränität in Zeiten von KI, so lautet der Titel dieser zweitägigen Veranstaltung. Gemeinsam wollen wir in Workshops und Gesprächen untersuchen, wie wir als Lehrende in verschiedenen Bildungskontexten junge Menschen (und uns selbst) ermächtigen können, digitale Lebenswirklichkeiten zu gestalten. Nicht, dass dieser Anspruch neu wäre, auch in der Vergangenheit war es uns wichtig, Menschen zu befähigen, mit den Veränderungen, die die Digitalisierung anstößt, kritisch-konstruktiv umzugehen.

Neu ist, dass mit dem aktuellen Entwicklungssprung der KI-Technologie, den wir allgemein als “generative KI” kennzeichnen, eine neue Facette die Digitalisierung erweitert: Bilder, Töne und Texte kommen aus dem Browser, als hätten wir den Dschinni aus der Wunderlampe gerufen, der uns jeden erdenklichen Wunsch erfüllt und sei er noch so abseitig.

Magie ist nicht im Spiel, wenn wir mit dem Prompt an der KI reiben. Stattdessen haben wir es mit statistischen Verfahren und Algorithmen zu tun, deren Kenntnis der erste Schritt zu digitaler Souveränität sein kann.

Zentrale Fragen

Vor diesem Hintergrund möchte ich die zentralen Fragen meines Vortrags ausformulieren und den Blick auf aktuelle Herausforderungen richten, die für eine medienethische Diskussion interessant und relevant sind.

  • Was müssen wir über Künstliche Intelligenz (KI)
    und Algorithmen wissen, um souverän in einer
    zunehmend digitalen Welt agieren zu können?
  • Was müssen wir dafür können?
  • Wer wollen wir sein in dieser sich verändernden Welt?

Auf dieser Konferenz geht es u.a. um drei Dinge: Künstliche Intelligenz, Algorithmen und digitale Souveränität. Daher ist es am Anfang sinnvoll, einmal vorzuschlagen, was wir darunter verstehen können:

Künstliche Intelligenz

Künstliche Intelligenz ist ein Begriff, der schon in den 1950er Jahren für Aufmerksamkeit gesorgt hat. Über die Jahrzehnte hat er durch Erfolge in Forschung und Entwicklung verschiedene Veränderungen und Erweiterungen erfahren, sodass eine eindeutige Definition anzugeben schwerfällt. Er ist, wie ich später noch zeigen werde, bei jeder Verwendung gründlich zu prüfen, um ungerechtfertigte Versprechungen zu identifizieren und die eigentliche, oft recht einfache Balkenkonstruktion hinter der Fassade zu erkennen.

Daher halte ich mich an eine Begriffsbestimmung, die für ethische Fragestellungen und das Verhältnis von Mensch und Maschine fruchtbar gemacht werden kann und daher für diesen Vortrag nützlich ist.

Künstliche Intelligenz - Eine Definition

Enge KI
  • Simulation menschlicher Fähigkeiten in einer Domäne durch maschinelles Lernen
  • spezifische Aufgaben oder Probleme
Breite KI
  • Simulation menschlicher Fähigkeiten, nicht domänenspezifisch
  • beschränkt auf sprachliche Ein- und Ausgabe
Starke KI
  • (möglicherweise) perfekte Simulation menschlicher Kognition, mentaler Zustände, Einsichtsfähigkeit und Emotionen

Quelle: vgl. Deutscher Ethikrat (2023, S. 88)

Auf allen drei Ebenen wird Künstliche Intelligenz ausgehend vom Menschen bestimmt. Als Simulation, deren Qualität wir Menschen auch wieder selbst beurteilen. Sie ist deshalb künstlich, weil sie nicht “echt”, nicht menschlich ist. Um die Qualität der Simulation messen zu können, hat der Mathematiker Alan Turing den Turingtest erdacht, der mittlerweile zahlreiche Varianten kennt. Turing spricht von Imitation, vom imitation game, das menschliche “Richter*innen” gegen eine Maschine spielen. ChatGPT soll ihn unlängst bestanden haben, mehr als die Hälfte der Proband*innen hielt den ChatBot für ein menschliches Gegenüber (Jones & Bergen, 2024; Krempl, 2024a).

KI-generierte Bilder und Texte, denen wir im Netz begegnen, sind von der sie generierenden Instanz unabhängige Boten dieser Simulationen. Sie schwärmen aus, werden mehr oder weniger oft kopiert und vergegenständlichen sowohl die Maschine, die sie erzeugt hat, als auch die Inhalte, die sie darstellen.

Dabei wird zunehmend deutlich, welche Macht sie haben, unsere Wirklichkeit zu prägen. “Ein Bild sagt mehr als 1000 Worte”, lautet ein Sprichwort, und sofern wir diese Aussage bejahen, gilt sie auch, wenn auf dem Bild Nichtfaktisches zu sehen ist.

Wir treffen solche nicht-faktischen Abbildungen, auch fakes oder deepfakes genannt, immer häufiger an und lernen gerade, dass uns prinzipiell alle digitalen Artefakte des Netzes – Bilder, Töne, Texte – zu einem Turingtest auffordern, nachdem deren Erzeugung prinzipiell jeder Person und jedem Bot in hoher Geschwindigkeit möglich ist, und wir es vor allem in sozialen Medien mit einer Schwemme von KI-generierten Artefakten zu tun haben (s. Abbildung 1).


Abbildung 1: Mehrere Websites sammeln Fakes von Dingen, die mit KI erzeugt wurden. Quelle: Screenshot der Seite This X Does Not Exist

Neu dabei ist die Geschwindigkeit der Generierung und Verbreitung, die durch Algorithmen passgenau das verstärken kann, was uns Menschen interessiert.

Errodierendes Vertrauen

Forschende bei Google halten es daher für möglich, dass sich unsere Konzepte von Wahrheit und Vertrauen verändern werden (Maiberg, 2024; Marchal et al., 2024):

“The widespread availability, accessibility and hyperrealism of GenAI outputs across modalities has also enabled new, lower-level forms of misuse that blur the lines between authentic presentation and deception. While these uses of GenAI […] are often neither overtly malicious nor explicitly violate these tools’ content policies or terms of services, their potential for harm is significant. […] If unaddressed, this contamination of publicly accessible data with AI-generated content could potentially impede information retrieval and distort collective understanding of socio-political reality or scientific consensus.” – Marchal et al. (2024, S. 16, Herv. i. O.)

Die weit verbreitete Verfügbarkeit, Zugänglichkeit und der Hyperrealismus von GenAI-Outputs über alle Medien hinweg hat auch neue, weniger ausgeprägte Formen des Missbrauchs ermöglicht, bei denen die Grenzen zwischen authentischer Darstellung und Täuschung verschwimmen. Obwohl diese Verwendungen von GenAI […] oft weder offen böswillig sind noch explizit gegen die Inhaltsrichtlinien oder Nutzungsbedingungen dieser Tools verstoßen, ist ihr Schadenspotenzial erheblich. […] Wenn nichts dagegen unternommen wird, könnte diese Verunreinigung öffentlich zugänglicher Daten mit KI-generierten Inhalten das Auffinden von Informationen behindern und das kollektive Verständnis der soziopolitischen Realität oder des wissenschaftlichen Konsens verzerren. (übersetzt von A.D. mit DeepL, nachbearb.]

Es muss also nicht unbedingt das politisch brisante Fake-News-Bild sein, das unsere Wahrnehmung verändert.

Grundhaltung Misstrauen

Der Filmemacher und Schauspieler Werner Herzog sieht in seinem Buch “Die Zukunft der Wahrheit” nur eine Chance, wie wir uns gegen diese Täuschungen wappnen können:

“[…] Wie es bei der Strafjustiz seit der römischen Antike ehern verankert ist, muss in einem Prozess die Unschuldsvermutung für den Angeklagten gelten. Das ist ein hohes Gut unserer Zivilisation. Was aber die und das Internet betrifft, sollte unangestrengt automatisch das Gegenteil angenommen werden: die Schuldvermutung, ein Misstrauen also, die Annahme von Manipulation, Propaganda und Lüge. Dies scheint mir die einzige Haltung, mit Fake News umzugehen. Das mag pessimistisch klingen, aber ich sehe keine andere Alternative, sich vor Fake News zu schützen.” – Herzog (2024, S. 106)

Wir sollen grundsätzlich misstrauisch sein gegenüber der digitalen Welt, weil sie uns mit einer neuen Wucht täuschen kann, die algorithmischen Ursprungs ist. Herzogs Vorschlag ist wohl Teil der Lösung, aber kein Ansatz, um dem Problem an der Wurzel beizukommen. Behalten wir das für ein Konzept von digitaler Souveränität im Hinterkopf.

Algorithmen

“Künstliche Intelligenz” ist in vielen Sprachhandlungen oft unscharf und gegenwärtig ein Marketingbegriff, der vor allem Forschritt transportieren soll. Dahinter stecken jedoch einfache mathematische und informatische Verfahren, die ich kurz nennen und einordnen möchte:

Algorithmen - Definitionen

“Ein Algorithmus […] ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen.” – Wikipedia-Beitragende (2024a)

“Algorithmen sind Anleitungen für Computer. Anleitungen für Computer werden von Menschen programmiert. Algorithmen sagen Computern, was sie in welcher Reihenfolge machen müssen. Mit einem Algorithmus kann ein Computer Schritt für Schritt eine Aufgabe lösen. […]” – Meyer, Schüller-Ruhl & Vock (2022)

Algorithmen - Beispiele

Algorithmen sind die Kochrezepte der Informatik und Mathematik. Werfen wir einen Blick auf die Klassiker dieser besonderen Küche in den Bereichen “Künstliche Intelligenz” und “Soziale Medien”, die häufig zusammen mit Algorithmen genannt werden:

Künstliche Intelligenz (Auswahl)

  • lineare Regression
  • logistische Regression
  • k-Nearest Neighbors (k-NN)
  • Transformer-Modelle
  • Diffusionsmodelle

Soziale Medien (Auswahl)

  • Newsfeed-Algorithmen
  • Empfehlungsalgorithmen (kollaboratives Filtern)
  • Trending-Algorithmen
  • Sentiment-Analyse
  • Spam-Erkennung
  • Fake-News-Erkennung

Einige dieser Verfahren sind im Grunde einfache Methoden, um Daten miteinander zu verrechnen und Voraussagen zu treffen. Auch bei ChatGPT werden Wörter vorausgesagt und so aneinandergereiht, dass ein zusammenhängender Text generiert wird.

Dass häufig sehr einfache Verfahren angewendet werden, mindert jedoch nicht die Auswirkungen der Algorithmen auf unser menschliches Leben. Denn “Code is law”, wie Lawrence Lessig sagt, der US-amerikanische Verfassungsrechtler und Erfinder von Creative Commons (Lessig, 2006). Algorithmen, in Code festgehalten, sind Regeln, die unser Leben lenken. Sie sind vergleichbar mit Gesetzen. Aber während Gesetze in Demokratien verschiedene Abstimmungsprozesse durchlaufen, sind die Gesetze, die Algorithmen vorgeben, nicht – noch nicht – demokratisch legitimiert.

Das Unternehmen Anthropic, das den Chatbot Claude herausgibt, hat diesbezüglich einen interessanten Ansatz vorzuweisen, den es Constitutional AI nennt. Hierbei wurde in einem partizipativen Abstimmungsverfahren mit ca. 1000 Menschen ermittelt, welche Werte der Chatbot implementieren soll (Anthropic, 2023a, 2023b; Bai et al., 2022). Das Ziel war u.a., den gesundheitsschädlichen Arbeitsprozessen Einhalt zu gebieten, von denen das Time Magazine Anfang 2023 berichtete: Unterbezahlte Arbeiter*innen in Kenia filterten für OpenAI den Schmutz des Internets aus den KI-Modellen, damit dieser nicht in den Ausgaben von ChatGPT auftaucht (Perrigo, 2023).

Statt nun also Menschen mit dem Trainieren großer Sprachmodelle zu betrauen, ist bei Anthropic ein weiteres KI-System in der Trainingsschleife, das bspw. mit den Werten aus der Allgemeinen Erklärung der Menschenrechte Antworten des Chatbots bewertet und filtert. Die Erwartung ist, dass die Ausgaben von Claude möglichst universellen und geteilten Wertvorstellungen entsprechen. Ein vielversprechender Ansatz.

Zwischenfazit: Halten wir fest: Algorithmen sind nicht gleichzusetzen mit dem Begriff “Künstliche Intelligenz”. Algorithmen sind eine wesentliche Zutat, um KI-Systeme zu entwickeln und zu betreiben. Algorithmen kommen aber auch in Social-Media-Plattformen und Geschäftssoftware zur Anwendung. Sie sind Handlungsvorschriften für Computer, damit diese reproduzierbare Ergebnisse zu einer Aufgabenstellung liefern. Sie implementieren bewusst oder unbewusst die Wertvorstellungen derjenigen, die sie entwickeln.

Vier Erzählungen

Künstliche Intelligenz generiert momentan nicht nur viele Bilder, Töne und Texte, sondern auch zahlreiche teils konkurrierende Erzählungen, wie die Zukunft des Planeten mit KI aussehen wird. Vier davon will ich im Folgenden ein wenig genauer betrachten, bevor ich Vorschläge mache, was daraus für die Praxis folgen könnte.

“KI ist das neue Plastik”


“Data was the new oil, and now AI is the new plastic. Get ready for the rush of cheap mass manufactured plastic content.” – yabones (2023)

Erinnern wir uns an den Weg, den Plastik bis heute genommen hat. Seit den 1950ern erstmals in großen Mengen aus Erdöl hergestellt, kommt es bis heute vor in Krankenhäusern, Kinderspielzeug, Computern, den Weltmeeren, Kosmetik, Meerestieren, Vögeln, Möbeln, Kleidung, Baustoffen, Zahnpasta und Büromaterial. Plastik ist Fluch und Segen zugleich, in ungleichem Verhältnis.

“Zwischen 1950 und 2015 wurden weltweit rund 8,3 Mrd. Tonnen Kunststoff hergestellt - das ergibt etwa eine Tonne pro Kopf der Weltbevölkerung. Die Hälfte der Produktion stammt aus den letzten 13 Jahren.”

heißt es in der Wikipedia mit Bezug auf eine Studie von 2017 (Geyer, Jambeck & Law, 2017)

Die Gleichsetzung von Daten und KI mit Erdöl und Plastik regt die Fantasie an.

Digitale Daten als das Öl unserer Zeit zu begreifen, ist nicht so neu. Während, um im Bild zu bleiben, bis vor Kurzem aber lediglich Verbrennungsmotoren mit dem vielseitigen Treibstoff fuhren, indem sie ihn verbrannten, ist es jetzt möglich, neue Produkte aus dem Öl zu generieren.

Das Öl für aktuelle KI-Systeme wird rund um die Uhr aus den Tiefen unseres aktuellen und zurückliegenden Verhaltens im Netz gefördert, in den Raffinerien der Datenwissenschaft aufbereitet, annotiert und als Grundstoff für die Entwicklung zahlreicher Plastikarten verwendet, die uns als Gemälde, Diagramme, Fotografien, Gedichte, Romane, Songs und Kurzfilme vor die Sinne gelangen. Rasend schnell hergestellt in Fabriken mit Namen wie DALL-E, Midjourney, ChatGPT, Sora usw.

Wie beim wirklichen Öl aus dem Erdboden kommt es immer wieder zu Lecks auf dem Weg der Daten um den Globus oder an den Orten, wo sie gespeichert werden. Das ist mehr oder weniger kritisch, je nachdem, ob es sich um Gesundheitsdaten eines ganzen Landes handelt oder um Daten aus der Landwirtschaft.

Neben diesen Lecks, die häufig durch gezielte Angriffe auf die begehrenswerten Daten entstehen, gibt es andere Formen, wie Daten ihren Weg in die Umwelt finden. Orte wie kaggle oder Hugging Face, der Plattform für die offene Forschung und Entwicklung von KI-Modellen und Anwendungen, haben die Sammlung und Bereitstellung von Daten sowie die Entwicklung von KI-Systemen nachvollziehbarer und einfacher gemacht.

Der Meta-Konzern stellt seine Llama-Modelle kostenlos und unter permissiven Lizenzen zur Verfügung. Das fördert den Wettbewerb und bringt im besten Fall neue Startups hervor, die mit dem Modell innovative Anwendungen entwickeln, die Meta bei entsprechendem Reifegrad kaufen kann. Jede Person kann Plastik leicht selber machen.

Wenn plötzlich alle unreguliert Plastik produzieren können und dürfen, hat das Effekte im Gesamtsystem (s. Abbildung 2).


Abbildung 2: Verschmutzung des Meeres mit Plastik. Foto von Naja Bertolt Jensen auf Unsplash

Da wir die Folgen der unregulierten Plastikproduktion für die Erde kennen, können wir die aktuelle Entwicklung mit dem Bild des Users yabones in die Zukunft spinnen: Generative KI beeinträchtigt nicht nur das Gleichgewicht in unseren persönlichen Lebenswirklichkeiten, sondern kontaminiert auch das Netz als Raum des Wissens und der Informationen. Der Mediensoziologe Volker Grassmuck (2004, S. 405) plädierte schon vor zwanzig Jahren für einen “Wissensumweltschutz”, wobei Künstliche Intelligenz da noch keine Rolle spielte.

Auch die US-amerikanische Linguistin Emily Bender (2023) rückt die massenhafte Produktion von KI-generierten Inhalten in den metaphorischen Rahmen der Umweltverschmutzung:


“When OpenAI set up the easy interface to ChatGPT, when Meta briefly provided an interface to Galactica (misleadingly billed as way to access scientific knowledge), when Microsoft and Google incorporated chatbots into their search interfaces, they created the equivalent of an oil spill into our information ecosystem.” – Bender (2023)

Jack Clark, Mitgründer der KI-Firma Anthropic, geht gar soweit, von einem Klimawandel im Netz zu sprechen. Nicht wegen der Veröffentlichung unzähliger KI-generierter Artefakte, sondern durch die Veröffentlichung frei zugänglicher Modelle:


“Whenever anyone deploys an AI system, they’re contributing to some large-scale process of ‘internet climate change’” – Clark (2023)

Jenseits der metaphorischen Fassung generativer KI als Internetverschmutzer stellt die Entwicklung von KI-Systemen insgesamt eine reale Belastung für das System Erde dar, wie u.a. Crawford (2022) in ihrem Atlas of AI herausarbeitet.1 Die Internetforscherin Valdivia (2024) ergänzt diese ganzheitliche Sicht und wirft Licht auf die unzähligen Beteiligten weltweit, die an der Produktion von KI-Systemen beteiligt sind (s. Abbildung 3).


Abbildung 3: Die Herstellung von Grafikkarten (GPUs) als Hardwaregrundlage von KI. Nicht abgebildet ist bspw. Agbogbloshie bei Accra, Ghana, wo ein Großteil des Elektroschrotts der westl. Welt (illegal) ausgeschlachtet wird. Quelle: Valdivia (2024).

Bedeutet digitale Souveränität insofern vielleicht auch zu wissen, was gut und schlecht ist für das Digitop Internet? Wie sähe ein aktiver Schutz dieses Raumes aus? Müssten wir lernen, nicht nur die leere Mäckes-Tüte nicht aus dem Auto zu werfen, sondern auch keine belanglosen Bilder und Texte ins Netz zu posten, weil diese einen digitalen Klimawandel zur Folge haben?

“KI ist eine Bedrohung für die Menschheit”

Ein anderes Narrativ dreht sich um die Frage, wie groß die Wahrscheinlichkeit ist, dass KI die Menschheit auslöscht. Die Funktion \(P(doom)\) ist zum Maß einer zynischen Wette geworden, bei der Künstliche Intelligenz als autonomer Akteur gesehen wird, der irgendwann begreift, dass die Menschheit ein Hindernis für seine eigene Entwicklung darstellt. Emanzipation wird hier begriffen als die Ablösung der Maschine von der menschlichen Bevormundung. Wenn KI merke, dass wir ihre Ressourcen einschränken, werde sie zurückschlagen und uns den Hahn abdrehen.

In anderen Varianten dieses Szenarios wird diskutiert, wie wahrscheinlich es ist, dass hochspezialisierte KI-Systeme zufällig zu mehr oder weniger katastrophalen Folgen führen können. Der folgende Ausdruck gibt die probability of doom, die Wahrscheinlichkeit der Katastrophe an:


\[ P(doom) \]

Zunächst eher ein Insiderwitz, ist der mathematische Ausdruck seit der Veröffentlichung von ChatGPT zu einem Medium in der Diskussion über die Risiken von KI geworden. Die Wikipedia listet mit Quellen die p(doom)-Werte von sechszehn KI-Expert*innen (Wikipedia-Beitragende, 2024b).

Der KI-Pioneer Geoffrey Hinton verließ Google, um deutlich vor den Risiken im Zuge der temporeichen KI-Entwicklung zu warnen. Seinen p(doom)-Wert gibt er mit 10% bis 50% an, innerhalb der nächsten 30 Jahre, wenn KI nicht reguliert werde (Metz, 2023).

Für mich ist das wenig konkret, weil der Ausdruck mathematische Objektivität suggeriert, die Vorannahmen aber unterschiedlich sind und nicht klar kommuniziert werden.

Um das Risikopotenzial von KI diskutieren und einschätzen zu können, ist eine andere Informationsquelle hilfreicher: Forschende am MIT haben im August 2024 eine Datenbank mit über 700 potenziellen Risiken veröffentlicht (Slattery et al., 2024). Ein Blick auf die interaktiven Ober- und Unterkategorien zeigt, worin konkrete Risiken bestehen. Und viele, die ich mir bisher angesehen habe, bedeuten nicht die Auslöschung der Menschheit, sondern offenbaren Risiken, die sich auf die Verfasstheit von Gesellschaft und Individuum auswirken und eher längerfristig virulent sind (s. Abbildung 4).


Abbildung 4: Domain Taxonomy of AI Risks. Interaktive Darstellung des Kategorienbaums mit Beispielen. Quelle: Slattery et al. (2024), S. 9 und https://airisk.mit.edu/

Für ein Konzept digitaler Souveränität ist diese Übersicht insofern von Bedeutung, als sie nationale und übernationale Institutionen in die Pflicht nimmt, sich den genannten Herausforderungen zu stellen und regulierend mitzuwirken. Digitale Souveränität ist damit nicht mehr nur ein Ziel des Individuums, sondern auch von Staat und Gesellschaft.

Wir Lehrenden sollten vor dieser geballten Übersicht nicht erstarren, sondern sie zum Anlass nehmen, kritisch-konstruktiv auf die aktuellen Entwicklungen zu schauen und die Herausforderungen in unseren Bildungseinrichtungen zu thematisieren. Wenn wir diese Prozesse partizipativ und diversitätssensibel angehen, besteht die Chance auf eine aufgeklärtere, kompetentere und souveränere Gesellschaft.

“KI wird uns retten”

Werfen wir nun einen Blick auf einige Potenziale der jüngsten Entwicklungen, um uns von positiven Beispielen inspirieren zu lassen.

Künstliche Intelligenz ist, wie ich vorher gezeigt habe, ein umbrella term für verschiedene Verfahren des maschinellen Lernens. Aus einer konkreten KI-Anwendung zurückzuschließen, welche methodischen Ansätze konkret implementiert wurden, gleicht dem Vermögen, die Gewürze aus einem Gericht herauszuschmecken und zu benennen. Das kann man lernen, wenn man bewusst isst, Gewürze und Zutaten kennt und beim Essen über das Essen spricht. Oft würden wir feststellen, dass Salz und Pfeffer dabei sind, manchmal ein besonderes Curry und da: eine Prise Kreuzkümmel!

Schauen wir beispielsweise auf KI in der Landwirtschaft, finden wir Anwendungen, die ein Mix aus unterschiedlichen Zutaten und Gewürzen sind. Drohnen fliegen über Felder und sammeln Bilddaten, Sensoren in Maschinen und Äckern sammeln Werte über den Zustand des Bodens und der Pflanzen und verschiedene Systeme sagen aus diesen Daten möglichen Schädlingsbefall voraus und regulieren die Bewässerung (vgl. z. B. Kesari, 2024). Ein komplexes Gericht, können wir sagen, denn es sind u.a. Computer Vision (Luftaufnahmen), Bildklassifizierung (Schädlingsbestimmung) sowie lineare und logistische Regression (Wettervorhersage, Bodengesundheit) im Topf.

Hersteller solcher komplexen Anwendungen haben das Ziel, die Lebensmittelproduktion in der Landwirtschaft effizienter und resilienter zu machen. Aber auch diese Medaille hat zwei Seiten: Die Kompetenzanforderungen an Landwirt*innen steigen, Abhängigkeiten von Herstellern sind möglich. Daher ist auch hier ein kritischer Blick hinter die Marketingstragien angezeigt, um zu einer ausgewogenen Technikfolgenabschätzung zu kommen. Entscheidungen mit Daten zu stützen, das sogenannte data-driven decision making, ist sinnvoll, wenn die Daten gut sind und die digitale Souveränität von Individuen und Ländern nicht beeinträchtigt wird, die auf die Technik setzen.

Ähnliche Potenziale von KI-Systemen mit unterschiedlichen Zutaten gibt es in der Medizin, sodass wir auch hier die Hoffnung hegen, dass Künstliche Intelligenz zum Wohle der Menschheit beitragen kann. Ärztinnen und Ärzte können mithilfe von Bildklassifizierungsverfahren schneller und präziser Diagnosen stellen, wenn sie bspw. Aufnahmen von Gewebe analysieren (Koch, 2022). Aber auch für Rettungskräfte sowie im Katastrophenschutz gibt es viele Beispiele für den Einsatz von KI-Systemen zur Prävention und Simulation von Gefahrensituationen mit sogenannten digitalen Zwillingen, zur Identifizierung Ertrinkender oder zur Koordinierung von Freiwilligen (Krempl, 2024b).

Im Bildungsbereich sind ebenfalls unzählige neue Systeme und Apps entstanden, seit generative KI zugänglich ist. Oft handelt es sich um multimodale Systeme, also auch komplexe Gerichte, die aus analytischen und synthetischen Komponenten bestehen. Angesichts der hohen Belastung von Lehrkräften in allen Schularten liegt die Hoffnung auf arbeitserleichternden Anwendungen, die bspw. bei der Korrektur von Arbeiten in schreibintensiven Fächern unterstützen, den Aufwand bei der Binnendifferenzierung von Aufgabenstellungen reduzieren sollen und extreme Effizienzgewinne bei der Produktion von Lehrvideos zeitigen.

Der Hochschulprofessor Jörn Loviscach, ein bekannter, neugieriger und kritischer Ausprobierer von Innovationen im Bildungsbereich, gibt dazu zu bedenken:

Handgemachte Wertschätzung

“Vielleicht ist es psychologisch wirksam, Skripte und Video nicht per KI zu produzieren. Das wird nun zu einem teuren Signal für Wertschätzung, gewissermaßen ein selbst gebackener, etwas missratener Kuchen. Werden Studenten solche Materialien mehr achten und sich mehr damit auseinandersetzen? Die Forschung kennt zumindest den”Teacher Enthusiasm” als wirksam für die Lernmotivation.” - Loviscach (2024, Hervorh. und Link im Orig.)

Blicken wir schließlich noch auf die Seite der Lernenden. Auch hier ist große Bewegung zu verzeichnen, seitdem u. a. ChatGPT veröffentlicht wurde. Lernende verwenden die Anwendung, um sich Sachverhalte erklären zu lassen, Referate und Hausarbeiten zu konzipieren und um diese teilweise oder komplett von der Maschine schreiben zu lassen. Die Grenzen sind fließend, die Potenziale und Risiken für Lernen und Prüfungskultur noch nicht scharf getrennt. Wir sind auf der Suche, wie und wann der Einsatz generativer KI im Unterricht sinnvoll und lernförderlich ist.

Wenn Lernende berichten, dass sie durch ChatGPT das erste Mal das Gefühl haben, teilhaben zu können, weil sie nicht gut schreiben können und durch den Chatbot sehr individuell unterstützt werden, sind pauschale Regeln ggf. nicht zielführend.

Wir müssten uns möglicherweise den Vorwurf des Klassismus und Ableismus gefallen lassen, wenn wir Menschen von der Benutzung von KI im Prozess des lebensbegleitenden Lernens abhalten wollen oder ihnen die Zugänge dazu erschwert werden. Denn die Startchancen in eine Bildungskarriere sind eben nicht für alle gleich und KI-Systeme können ein Weg zu mehr Bildungsgerechtigkeit sein – wenn sie denn auch von denen mitgestaltet werden, die davon profitieren sollen. Viele der Gründe für Bildungsungerechtigkeit lassen sich jedoch oft besser mit strukturellen denn individuellen Ansätzen angehen (Shew, 2020, S. 47ff.)

“Menschsein ist bald ein alter Hut”

Der Einstieg in den Begriff “Künstliche Intelligenz” war für viele Menschen die Veröffentlichung von ChatGPT durch das profitorientierte Unternehmen OpenAI im November 2022. Seitdem ist “Künstliche Intelligenz” relativ barrierearm zugänglich, wenn auch nicht ohne Preis, lediglich ein Internetzugang und eine Handynummer sind notwendig, um an dieser extrem komplexen Technologie teilzuhaben.

Durch die selbsterfahrene oder kolportierte Leistungsfähigkeit von ChatGPT, Gemini, Claude und vielen anderen interaktiven KI-Systemen wird gleichzeitig ständig die Frage aufgeworfen, wie lange es noch dauern wird, bis der Mensch von Maschinen abgelöst werde, wann AGI, also Artificial General Intelligence, zu deutsch: künstliche allgemeine Intelligenz erreicht sei. Eine Form von Künstlicher Intelligenz also, die quasi jede erdenkliche Aufgabe lösen kann und deren Simulationsvermögen dem Denken und Fühlen von Menschen ebenbürtig oder sogar überlegen ist.

Lassen wir uns auf diese mögliche Zukunft ein, die gegenwärtig vor allem von denen propagiert wird, für die es bei KI um viel Geld geht, gibt es frei nach Hegel ein weiteres Ende der Geschichte, nämlich das, an dem der Mensch von Maschinen übertroffen, durch Maschinen abgelöst werde, die im Silicon Valley mystisch verehrte Singularität. Ray Kurzweil ist hier der Prophet früher Tage (Kurzweil, 2000), Sam Altman, der Vordenker bei OpenAI, sein eifrigster gegenwärtiger Apostel.

Ohne Frage handelt es sich hierbei um ein starkes Narrativ, das in vielen Lebens- und Arbeitsbereichen enormen Veränderungsdruck entfaltet. Angesichts der beeindruckenden Simulationen zentraler menschlicher Kulturtechniken durch aktuelle KI-Systeme wie Midjourney, Stable Diffusion und DALLE im Bildbereich, Suno AI und Sora im Audio- und Videobereich sowie den genannten Chatbots im multimodalen und textzentrierten Bereich haben wir angefangen, uns gegen die unterschwellige Ahnung zu wappnen, Menschsein könne bald ein alter Hut sein.

Einige Menschen haben Maschinen gebaut, die vieles von dem, wofür wir eine jahrhundertelange kulturelle Evolution gebraucht haben, schnell und beeindruckend nachahmen, simulieren können. Nun sind viele Menschen auf der Suche danach, was wir den Maschinen eigentlich voraushaben, sie sind uns auf den Fersen und versuchen uns seit zwei Jahren streitig zu machen, was wir bis dahin als genuin menschlich angesehen haben: unsere Kreativität, unsere Kulturtechniken, unsere Werte, immer mehr davon kann in Code und Algorithmen übersetzt werden.

Sinnvoll scheint es, diesen Technologiesprung nicht als Ablöseprozess zu begreifen, bei dem Maschinen an die Stelle von Menschen treten. Viel besser fühlt es sich an, wenn wir Künstliche Intelligenz als Technologie und mit all den entstehenden Anwendungen und Systemen als Werkzeug, als Tool begreifen, das wir beherrschen und benutzen, mit dem wir kollaborieren können. Oder wollen wir mit dieser Deutung nur Zeit gewinnen, weil wir gerade nicht wissen, wie wir mit der Situation umgehen sollen?

Der Wettbewerb zwischen Mensch und Maschine wird vor allem genährt von einem Effizienzgedanken, der an Maßstäbe von Leistung und Produktivität geknüpft ist. Aufgaben schnell erledigen zu können, bedeutet, mehr Zeit für weitere Dinge zu haben. Aus unternehmerischer Perspektive ist das vollkommen verständlich und das Gegenteil zu erwarten, wäre irrational. Aber nicht alles im Leben ist ein Unternehmen. Menschenliches Lernen ist es z. B. nicht, es ist redundant und verschwenderisch und “Profite” lassen sich nicht belastbar messen – auch, wenn das zu erreichen immer noch eine verbreitete Forschungsmotivation ist (vgl. z. B. Crouch, 2017).

Schreiben in der Schule ist z. B. kein Vorgang, der effizient und schnell erledigt werden muss. Das Schreibprodukt richtet sich auch nicht an ein Publikum, es soll damit kein Geld verdient werden und Ruhm und Ansehen werden sehr nüchtern im Bereich der Noten eins bis sechs gemessen. Einen Text, der im Englischunterricht entsteht, liest die Lehrkraft, vielleicht noch die Eltern und ein Lob dafür klingt in der Regel nicht wie: “Krass, wie schnell du solche Texte schreibst.”

Stattdessen schließen wir als Pädagog*innen vom Text auf die Persönlichkeitsentwicklung der Autorin oder des Autors, auf die Kompetenzen, Argumente zu entwickeln, Gedanken zu strukturieren und Meinungen zu begründen. Wir können aus Texten das Weltverständnis unseres Gegenübers herauslesen. Texte, die in Unterrichtszusammenhängen entstehen, liefern qualitative Daten, die pädagogische Entscheidungen motivieren können. Sie liefern Anlässe zur Diskussion über konkretes Handwerk wie Grammatik, Interpunktion und Orthografie, vielmehr aber über das Sein unseres Gegenübers in der Welt.

Ich weiß aus eigener Erfahrung, dass für solche Ideale selten Raum und Zeit vorhanden sind. Dennoch bin ich davon überzeugt, dass unsere professionellen Haltungen als Pädagog*innen eine Rolle dabei spielen, wie wir KI im Unterricht einsetzen.

Ambiguitätstoleranz


Diese vier Erzählungen zeigen: Was KI mit uns macht und was wir mit KI machen sollen, ist in keiner Weise eindeutig. Dass die Lage oft nicht eindeutig ist, die Welt immer komplizierter erscheint, wir in verschiedenen Wirklichkeiten leben und Wahrheit ein Begriff ist, dessen Konzept durch aktuelle KI-Systeme und Algorithmen herausgefordert wird, erfordert neue Haltungen, aber vor allem eine kritische Reflexion. Denn die aktuelle Entwicklung ist in keiner Weise vorherbestimmt und das Ende der Geschichte. Mehrdeutigkeit, Vieldeutigkeit is a feature, not a bug.

Der Kulturwissenschaftler Thomas Bauer macht in seinem Buch “Die Vereindeutigung der Welt” (Bauer, 2023) für das Aushalten parallel existierender Wirklichkeiten den Begriff Ambiguitätstoleranz stark und provoziert mit folgender Aussage:

“[…] Anders als in früheren Epochen spielen Strategien der Vereindeutigung, die von Mächtigen eingerichtet und angewendet werden, heute eine geringere Rolle als jene Vereindeutigungsbestrebungen, die von den Individuen selbst ausgehen. […] Was etwa zwingt Eltern in relativ wohlhabenden Gesellschaften zur mehr als zweifelhaften Strategie, ihre Kinder schon von frühester Kindheit an zu wohlgeschmierten Rädchen im kapitalistischen Verwertungssystem zu formen statt sie frei spielen, malen und musizieren zu lassen?” – Bauer (2023, S. 87f.)

Werfen wir zunächst einen Blick auf den ersten Halbsatz: Die aktuell vorherrschende Strategie einer Vereindeutigung ist die Erzählung, dass sich die Welt durch die aktuelle KI-Entwicklung disruptiv verändern werde. Das stelle ich nicht in Frage, wir beobachten die Effekte schon jetzt an vielen verschiedenen Stellen in Schule, Arbeit, Wirtschaft und Wissenschaft. Dass diese Erzählung nur von den Mächtigen im Silicon Valley genährt wird, greift jedoch zu kurz. Denn wenn wir jenseits wirtschaftlicher Interessen, von denen die großen Player der KI-Wirtschaft angetrieben werden, keine flankierenden oder opponierenden Gegenentwürfe entwickeln, setzen sich diese durch.

Woher kommen aber die Ideen, wie wir eine souveräne und unabhängige Postition im Strom der digitalen Entwicklung einnehmen können? Eine Position, von der aus wir den Lauf der Dinge mitgestalten können?

Bauer deutet es im zweiten Teil des Zitats an: Vieldeutigkeit gibt es in der Kunst und im Spiel, in der Fantasie und in der Pluralität vorstellbarer Welten. Damit steht er in der Tradition von Schiller, Huizinga und Marcuse, die das Spiel als wesentlich für die ästhetische Bildung des Menschen gesehen haben. Und am MIT Media Lab in Boston gibt es bis heute eine Forschungsgruppe, die den Namen Lifelong Kindergarten Group trägt. Auch dort geht es um das Potenzial des Spielens in der Kinder- und Erwachsenenbildung (vgl. z.B. Resnick, 2017).

Die Vieldeutigkeit der Welt auszuhalten, mit den Varianten vorstellbarer Wirklichkeiten zu spielen, ist eine wesentliche Qualität des Menschen. Wir sollten sie mehr pflegen und die Vielfalt menschlicher Ideen feiern, sie diskutieren und in den Konflikt gehen, was das gute Leben letztlich ist. Kunst, Literatur, Theater und Musik sind hier bekannte und erprobte Zugänge, die ihren Status zunehmend verteidigen müssen und oft als erstes hinten runterfallen, wenn die Ressourcen an Schulen verteilt werden.

Lassen Sie uns abschließend schauen, was all das konkret bedeuten kann.

Spielen, scheitern, können

Die sogenannte Digitalisierung ist kein rein technisches Projekt. Es gibt ebenso viel zu wissen über die informatischen Konzepte wie über die gesellschaftlichen Implikationen und Wirkungen. Das gilt noch einmal mehr für Künstliche Intelligenz und Algorithmen, wie ich versucht habe, an einigen Facetten des Diskurses zu zeigen.

Die KI-Forscherin und Wirtschaftsinformatikerin Doris Weßels hat sich schon sehr früh in eine souveräne Position gebracht. In ihrem KI-Kompetenzzentrum an der FH Kiel probiert sie seit zwei Jahren zusammen mit Studierenden aus, worin Vor- und Nachteile von KI in Studium und Lehre liegen können. Sie verfügt durch das konkrete Handeln in sozialen Kontexten über eine große Fachexpertise, die sie in unterschiedlichen Zusammenhängen teilt. Dieser gemeinschaftliche und partizipative Ansatz ist durchaus auch auf allgemeinbildende Schulzusammenhänge übertragbar.

In einem Interview hat sie ihre Arbeit zur nachmachbaren Methode erklärt:

Die “Vier As” nach Doris Weßels

  • Aufklären
  • Ausprobieren
  • Akzeptieren
  • Aktiv werden

Quelle: Wan (2023)

Besonders der letzte Punkt hat großes Potenzial für ein Kollegium: Die Digitalisierung ist ein sozio-technisches Projekt, das nur in Balance kommt, wenn sich alle Fachrichtungen an der Diskussion beteiligen. Nachdem wir gemeinsam gelernt haben, wie KI funktioniert, sollten wir auch gemeinsam darüber diskutieren, was das nun für die Bildung bedeutet und auf welche Chancen und Herausforderungen wir achten müssen.

Mit der Haltung des Spielens, dem Mut zum Scheitern und der Entspanntheit, nicht alles jetzt schon zu wissen, lassen sich auch Schülerinnen und Schüler an der Diskussion beteiligen.

Vielleicht entsteht dabei eine Verfassung, die von vielen Beteiligten ausgehandelt und mitgetragen wird. Tools wie Polis können bei solchen Prozessen unterstützen und fördern häufig Unerwartetes zutage (s. Abbildung 5).

Polis: möglichst Viele beteiligen

Abbildung 5: Das freie Online-Tool Polis wurde schon in verschiedenen Erhebungsprozessen weltweit eingesetzt. Auch Anthropic nutzt es für seinen Ansatz von Constitutional AI. Quelle: Screenshot der Website pol.is

Denn letztlich geht es bei den aktuellen komplexen Herausforderungen, vor denen wir stehen, um die Bewohnbarkeitsbedingungen des Planeten, wie der Philosoph Bruno Latour sagt (Latour & Schultz, 2022). Der Begriff veweist auf die gegenseitige Abhängigkeit der Dinge und Wesen voneinander und damit immer auch darauf, was und was nicht für unsere Lebensgestaltung überhaupt möglich ist. Denn wenn es allen Beteiligten in diesem Geflecht von Abhängigkeiten gut geht, wachsen unsere Gestaltungsmöglichkeiten und die unserer Kinder.

Daher braucht es klare Regeln für Künstliche Intelligenz, Algorithmen und soziale Medien, die Individuen, Länder, Staaten und transnationale Organisationen gleichermaßen entwickeln und durchsetzen müssen, Werte und Normen, die wir miteinander aushandeln, um die Akzeptanz der Regeln zu erhöhen.

In diesem Sinne hoffe ich, einige Gesprächsanlässe für die vor uns liegenden Tage vorgeschlagen zu haben und wünsche Ihnen einen guten Austausch untereinander. Vielen Dank.

Danke für Ihre Aufmerksamkeit

Kontakt

https://axel-duerkop.de

@xldrkp@scholar.social

Bibliografie

Anthropic. (2023a, Mai 9). Claude’s Constitution. Ankündigung der Firma, Anthropic. Zugriff am 27.8.2024. Verfügbar unter: https://www.anthropic.com/news/claudes-constitution
Anthropic. (2023b, Oktober 17). Collective Constitutional AI: Aligning a Language Model with Public Input. Forschungsbericht, Anthropic. Zugriff am 27.8.2024. Verfügbar unter: https://www.anthropic.com/news/collective-constitutional-ai-aligning-a-language-model-with-public-input
Bai, Y., Kadavath, S., Kundu, S., Askell, A., Kernion, J., Jones, A. et al. (2022, Dezember 15). Constitutional AI: Harmlessness from AI Feedback. https://doi.org/10.48550/arXiv.2212.08073
Bauer, T. (2023). Die Vereindeutigung der Welt: über den Verlust an Mehrdeutigkeit und Vielfalt (Reclams Universal-Bibliothek) (18. Auflage.). Ditzingen: Reclam.
Bender, E. M. (2023, Juli 29). Ensuring Safe, Secure, and Trustworthy AI: What Those Seven Companies Avoided Committing To. Medium. Zugriff am 30.7.2023. Verfügbar unter: https://medium.com/@emilymenonbender/ensuring-safe-secure-and-trustworthy-ai-what-those-seven-companies-avoided-committing-to-8c297f9d71a
Clark, J. (2023, Juli 31). Import AI 335: Synth Data Is a Bad AI Drug; Facebook Changes the Internet with LLaMa Release; and Chinese Researchers Use AI to Figure out Chip Design. Substack newsletter, Import AI. Zugriff am 31.7.2023. Verfügbar unter: https://importai.substack.com/p/import-ai-335-synth-data-is-a-bad?utm_medium=email
Crawford, K. (2022). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press.
Crouch, C. (2017). Die bezifferte Welt: Wie die Logik der Finanzmärkte das Wissen bedroht. Berlin: Suhrkamp.
Deutscher Ethikrat. (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. Zugriff am 3.9.2023. Verfügbar unter: https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
Geyer, R., Jambeck, J. R. & Law, K. L. (2017). Production, Use, and Fate of All Plastics Ever Made. Science Advances, 3(7), e1700782. American Association for the Advancement of Science. https://doi.org/10.1126/sciadv.1700782
Grassmuck, V. (2004). Freie Software. Zwischen Privat- und Gemeineigentum (Schriftenreihe) (2. korrigierte Aufl., Band 458). Bonn: Bundeszentrale für politische Bildung.
Herzog, W. (2024). Die Zukunft der Wahrheit (1. Auflage.). München: Carl Hanser.
Jones, C. R. & Bergen, B. K. (2024, Mai 9). People Cannot Distinguish GPT-4 from a Human in a Turing Test. https://doi.org/10.48550/arXiv.2405.08007
Kesari, G. (2024, März 31). The Future Of Farming: AI Innovations That Are Transforming Agriculture. Forbes. Zugriff am 7.9.2024. Verfügbar unter: https://www.forbes.com/sites/ganeskesari/2024/03/31/the-future-of-farming-ai-innovations-that-are-transforming-agriculture/
Koch, M.-C. (2022, November 29). Brustkrebs-Screening mit KI: Google kooperiert mit Medizintechnik-Unternehmen. heise online. Zugriff am 31.7.2023. Verfügbar unter: https://www.heise.de/news/Brustkrebs-Screening-mit-KI-Google-kooperiert-mit-Medizintechnik-Unternehmen-7359782.html
Krempl, S. (2024a, Juni 16). Chatbot-Studie: GPT-4 hat laut Forschern den Turing-Test bestanden. Nachrichtenmeldung, heise online. Zugriff am 16.6.2024. Verfügbar unter: https://www.heise.de/news/Chatbot-Studie-GPT-4-hat-laut-Forschern-den-Turing-Test-bestanden-9765123.html
Krempl, S. (2024b, Juni 30). Missing Link: KI und Rettungskräfte – wie Künstliche Intelligenz Helfern hilft. IT-Nachrichtenportal, heise online. Zugriff am 30.6.2024. Verfügbar unter: https://www.heise.de/hintergrund/Missing-Link-KI-und-Rettungskraefte-wie-Kuenstliche-Intelligenz-Helfern-hilft-9783248.html
Kurzweil, R. (2000). The Age of Spiritual Machines: When Computers Exceed Human Intelligence. New York, NY: Penguin Books.
Latour, B. & Schultz, N. (2022). Zur Entstehung einer ökologischen Klasse. Ein Memorandum (edition suhrkamp Sonderdruck). Berlin: Suhrkamp.
Lessig, L. (2006). Code: Version 2.0 (2. Auflage). New York: Basic Books.
Loviscach, J. (2024, Juli 7). Missing Link: Die GPT-fizierung des Studiums. IT-Nachrichtenportal, heise online. Zugriff am 7.7.2024. Verfügbar unter: https://www.heise.de/meinung/Missing-Link-Die-GPT-fizierung-des-Studiums-9791173.html
Maiberg, E. (2024, Juli 3). Google Says AI Could Break Reality. Zugriff am 3.7.2024. Verfügbar unter: https://www.404media.co/email/dd4acda7-3cf5-48a1-a940-8bdf0aede2b4/
Marchal, N., Xu, R., Elasmar, R., Gabriel, I., Goldberg, B. & Isaac, W. (2024, Juni 21). Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data. Zugriff am 3.7.2024. Verfügbar unter: http://arxiv.org/abs/2406.13843
Metz, C. (2023, Mai 1). The Godfather of A.I.“ Leaves Google and Warns of Danger Ahead. The New York Times: Technology.
Meyer, D., Schüller-Ruhl, T. & Vock, R. (2022). Algorithmus. (Bundeszentrale für politische Bildung/bpb, Hrsg.)einfach POLITIK. Lexikon. Zugriff am 27.8.2024. Verfügbar unter: https://www.bpb.de/kurz-knapp/lexika/lexikon-in-einfacher-sprache/303035/algorithmus/
Perrigo, B. (2023, Januar 18). Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer. Time. Zugriff am 22.1.2023. Verfügbar unter: https://time.com/6247678/openai-chatgpt-kenya-workers/
Resnick, M. (2017). Lifelong Kindergarten: Cultivating Creativity Through Projects, Passion, Peers, and Play. Cambridge, Massachusetts: MIT Press.
Shew, A. (2020). Ableism, Technoableism, and Future AI. IEEE Technology and Society Magazine, 39(1), 40–85. https://doi.org/10.1109/MTS.2020.2967492
Slattery, P., Saeri, A. K., Grundy, E. A. C., Graham, J., Noetel, M., Uuk, R. et al. (2024). The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence. Unpublished. https://doi.org/10.13140/RG.2.2.28850.00968
Valdivia, A. (2024, April 30). The Supply Chain Capitalism of AI: A Call to (Re)Think Algorithmic Harms and Resistance. Vortragsmitschnitt,. Zugriff am 1.9.2024. Verfügbar unter: https://vimeo.com/942335600
Wan, M. (2023, Februar 10). ChatGPT in Hochschulen: Aufklären, ausprobieren, akzeptieren, aktiv werden - Interview mit Prof. Doris Weßels, FH Kiel. Zugriff am 9.9.2024. Verfügbar unter: https://hochschulforumdigitalisierung.de/chatgpt-in-hochschulen-aufklaeren-ausprobieren-akzeptieren-aktiv-werden-interview-mit-prof-dr-doris-wessels/
Wikipedia-Beitragende. (2024b, August 9). P(Doom). Wikipedia. Zugriff am 29.8.2024. Verfügbar unter: https://en.wikipedia.org/w/index.php?title=P(doom)&oldid=1239474877
Wikipedia-Beitragende. (2024a, Juni 21). Algorithmus. Wikipedia. Zugriff am 27.8.2024. Verfügbar unter: https://de.wikipedia.org/w/index.php?title=Algorithmus&oldid=246093257
yabones. (2023, Juli 18). Data Was the New Oil, and Now AI Is the New Plastic Content. Forumeintrag, Hacker News. Zugriff am 25.8.2024. Verfügbar unter: https://news.ycombinator.com/item?id=36774457

Mediennachweis

Nachnutzung

Creative Commons Lizenzvertrag

Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International Lizenz . Diese Lizenz erlaubt unter Voraussetzung der Namensnennung des Urhebers die Bearbeitung, Vervielfältigung und Verbreitung des Materials in jedem Format oder Medium für beliebige Zwecke, auch kommerziell, sofern das neue entstandene Werk unter derselben Lizenz wie das Original verbreitet wird.

Die Bedingungen der Creative-Commons-Lizenz gelten nur für Originalmaterial. Die Wiederverwendung von Material aus anderen Quellen (gekennzeichnet mit Quellenangabe) wie z.B. Schaubilder, Abbildungen, Fotos und Textauszüge erfordert ggf. weitere Nutzungsgenehmigungen durch den jeweiligen Rechteinhaber.

Acknowledgments

Die Keynote, für die die Folien erstellt wurden, fand am 11. September 2024 im Rahmen des Forums Medienethik in Soltau statt. Die Entwicklung des Vortrags wurde finanziert durch das Niedersächsische Landesinstitut für schulische Qualitätsentwicklung (NLQ).

Fußnoten

  1. In meinem Vortrag “Künstliche Intelligenz - Chancen und Herausforderungen eines globalen sozio-technischen Systems” vom 27. Februar 2024 gehe ich auf die realen Herausforderungen der KI-Entwicklung für das Ökosystem Erde und die Nachhaltigkeitsziele der Vereinten Nationen genauer ein. Vortragsfolien unter https://axel-duerkop.de/talk/2024-02-27-landesforum-medienberatung-niedersachsen/↩︎