Rede zum 100. Jubiläum der Stiftung Hamburger Öffentliche Bücherhallen
Am 22. August 2019 hatte ich das Vergnügen und die Ehre, eine Rede zum 100. Jubiläum der Stiftung Hamburger Öffentliche Bücherhallen vor den Mitarbeiter_innen und ehrenamtlich Tätigen in der Zentralbibliothek zu halten. Nachfolgend mein Vortragstext.
Wo die Zukunft verhandelt werden kann
Redebeitrag auf dem Mitarbeiterfest zum 100. Jubiläum der Stiftung Hamburger Öffentliche Bücherhallen am 22. August 2019 in der Zentralbibliothek am Hühnerposten in Hamburg
Sehr geehrte Frau Schwemer-Martienßen,
sehr geehrte Frau Untiedt,
sehr geehrte Frau Keite,
sehr geehrter Herr Studt,
sehr geehrte Mitarbeiterinnen und Mitarbeiter der Öffentlichen
Bücherhallen Hamburg,
sehr geehrte ehrenamtlich Tätige,
sehr geehrte Ehemalige,
ich fühle mich sehr geehrt, heute auf diesem Fest sprechen zu dürfen, das zum 100. Jubiläum der Stiftung Hamburger Öffentliche Bücherhallen stattfindet. Die Zentralbibliothek am Hühnerposten gehört zu meinen Lieblingsplätzen in Hamburg wie auch meine Stadtteilbibliothek in Harburg. Mittlerweile bin ich dort immer öfter auch mit meinen beiden Töchtern. Und Freunden, die Hamburg besuchen, empfehle ich neben verschiedenen Sehenswürdigkeiten auch einen Besuch in der Zentralbibliothek.
Meine Begeisterung für öffentliche Bücherhallen speist sich ursprünglich aus der Tatsache, dass alles, was mich interessiert, durch einen einfachen Griff ins Regal zu haben ist, und ich durch Buchrückensurfing Dinge entdecken kann, von denen ich noch gar nicht wusste, dass sie mich interessieren. Aber da ist noch mehr als nur die Bücher.
Seit ich in Hamburg lebe, haben sich die Hamburger Bücherhallen immer wieder verändert und erneuert, sodass deutlich wurde, wie wach diese Institution ist und wie nahe dran am Zeitgeist. Eine Wikipediasprechstunde, ein öffentlich zugänglicher 3D-Drucker, experimentelle Formate mit MINT-Angeboten, Gesprächskreise für Geflüchtete und ein ernsthafter und zugleich spielerischer Umgang mit der Gaming-Kultur sind hier nur einige Beispiele.
Und wegen dieser Wachheit und Offenheit der Öffentlichen Bücherhallen wage ich die Behauptung, dass sie auch in den nächsten einhundert Jahren nicht an Bedeutung verlieren werden, sondern noch wichtiger werden! Öffentliche Bücherhallen können Orte sein, an denen die Zukunft verhandelt wird.
Ich habe für meinen Beitrag an diesem Abend einen Themenkomplex gewählt, der für uns als Teilhabende einer technologiegetriebenen Gesellschaft und besonders in unserer Rolle als Arbeitnehmerinnen und Arbeitnehmer von Interesse ist. Vielleicht wollen Sie davon auch schon nichts mehr hören, weil Sie jeden Tag auf den Wissenschaftsseiten der Zeitungen und im Internet Berichte über die neusten Entwicklungen im Bereich so genannter künstlicher Intelligenz lesen.1 Künstliche Intelligenz, Algorithmen, Daten und lernende Maschinen sind die Begriffe, die die Debatte um die so genannte digitale Transformation oder auch Digitalisierung dominieren. Und sie werfen Fragen auf. Vielleicht mehr Fragen, als zentrale Konzepte früherer Epochen, weil der aktuelle Erfindungsreichtum des Menschen ebenso faszinierend ist wie die Auswirkungen seiner Erfindungen erschreckend.
Computer sind in der Lage, uns in den schwersten Brett- und Kartenspielen zu schlagen (vgl. z.B. Bögeholz, 2016; Merkert, 2017) und erarbeiten sich ohne unser Zutun natürliche Sprachen, mit denen sie sich dann autonom unterhalten (vgl. Költzsch, 2016). Mit dem so genannten Deep Learning können Computer anhand von Kinderfotos die Disposition für schwere Erbkrankheiten feststellen (vgl. Willems, 2019) und bilden die zentrale Kontroll- und Steuerungseinheit in autonomen Fahrzeugen. Im renommierten Springer-Verlag ist unlängst ein Buch erschienen, das von einem Computer verfasst wurde. Dabei handelt es sich um eine Literaturübersicht zum Thema Lithium-Ionen-Batterien, die Autorenschaft auf dem Cover ist mit “Beta Writer” angegeben, als wäre “Beta” der Vorname und “Writer” der Nachname. Das Buch ist beim Lesen von einem Fachbuch aus der Feder eines Menschen nicht zu unterscheiden (vgl. Writer, 2019). Faszinierend.
Im Kontext dieser zahlreichen Innovationen sind wir dann auch mit Prophezeiungen konfrontiert, wie sich unsere Lebens- und Arbeitswelt verändern wird: Seiten im Internet wollen die Wahrscheinlichkeit errechnen können, mit der Berufe und Tätigkeiten in Zukunft überflüssig werden, weil Maschinen und Computer sie genauso gut oder besser erledigen können.2 Wollen wir das? Sollten wir das wollen? Müssen wir fürchten, als innovationsfeindlich zu gelten, wenn wir uns fragen, ob wir das wollen? Oder werden wir gerade deshalb noch gebraucht, weil wir solche Fragen stellen können?
Autonome Fahrzeuge gewinnen nicht nur auf der Straße zunehmend an Bedeutung. Auch in der Luft kommt künstliche Intelligenz zum Einsatz, wenn es um die Steuerung von Drohnen in zivilen Einsätzen und kriegerischen Auseinandersetzungen geht. Diese Flugobjekte sollen in die Lage versetzt werden, aufgrund der Daten, die sie aufnehmen, eigenständig Entscheidungen zu treffen. Entscheidungen z.B., wo in einem für Retterinnen und Retter unzugänglichen Gebiet Hilfsgüter aus der Luft abgeworfen werden sollten. Aber auch eigenständige Entscheidungen, welche Menschen aus der Luft zu töten sind und welche nicht.
An der Grenze zwischen Nord- und Südkorea patrouillieren Roboter am Boden, denen der Schießbefehl einprogrammiert wurde. Sie sollen die Grenze beschützen und bei Angriffen aus dem Norden selbst entscheiden, wann sie schießen. Ihre Entscheidung gründet sich auch hier auf Daten. So sollen sie lernen, die Uniformen des Feindes zu erkennen, ihre Kamera liefert die Bilder, die die Grundlage sind. Was aber, wenn ein feindlicher Soldat in seiner Uniform überläuft und dabei eine weiße Fahne schwenkt? Es ist zu hoffen, dass die völkerrechtliche Konvention, die die weiße Fahne symbolisiert, auch dem Roboter mitgegeben wurde (vgl. Parkin, 2015).
Roboter patrouillieren aber nicht nur zum Schutz der Landesgrenzen. In Japan werden sie zur Aufsicht in Einkaufszentren eingesetzt, und rollen tagein, tagaus durch die Ebenen der Konsumtempel. Hierbei zeigt sich ein weiteres Phänomen, das unter dem Begriff Roborassismus in der Forschung gefasst wird. Es bezeichnet Gewalt gegen Maschinen, die sich in verschiedener Form äußern kann. In den japanischen Einkaufszentren gibt es Fälle, die auf eine Form von Gewalt gegenüber Robotern hindeuten: Kinder haben wiederholt die patrouillierenden Roboter an der Fortbewegung gehindert, indem sie ihnen in Gruppen den Weg versperrt haben, und sind sie handgreiflich angegangen. Da der Roboter keine Funktionen zur Selbstverteidigung hat (zum Glück), hat er sich auf eine andere Taktik verlegt: Er hat gelernt, dass die Übergriffe in der Nähe von Erwachsenen weniger häufig sind, weil Erwachsene Kinder ermahnen, Roboter nicht zu ärgern (vgl. Darling, 2015; Marsike, 2018).
Auf dem Schulhof flüchten sich Kinder in die Nähe von Lehrerinnen und Lehrern, wenn sie geärgert werden. Die Lehrerenden mahnen dann, bestrafen möglicherweise und sorgen dafür, dass für die “verfolgten” Kinder das Leben auf dem Schulhof lebenswert ist, auch wenn sie sich nicht in Anwesenheit von Erwachsenen aufhalten. Ok, werden Sie sagen, aber es ist ja wohl immer noch ein Unterschied, ob wir hier über Mobbing von Robotern oder Kindern reden! Ja, sicher, das ist ein Unterschied. Aber hier geht es nicht primär darum, dass die Maschine im Vergleich zu Kindern ein seelenloses Etwas ist, das nichts fühlt und Gewalt und Kränkungen gar nicht als solche empfinden kann. Es geht hier um uns, die wir im Umgang mit Maschinen unsere geteilten Werte und Tugenden verteidigen und schärfen können. Denn die Art, wie wir mit Maschinen umgehen und wie diese darauf reagieren, beeinflusst nachweislich das Verhalten von Menschen untereinander.
So zeigt eine Studie der UNESCO aus dem Jahr 2019, vor welchen Herausforderungen wir in der Frage der Koexistenz von Mensch und Maschine stehen. Die Forschungsarbeit mit dem Titel “I’d blush if I could” (Ich würde erröten, wenn ich könnte) kommt zu dem Schluss, dass die Programmierung der Sprachassistenzsysteme großer Hersteller zu einer sprachlichen Verrohung führen kann (vgl. EQUALS Skills Coalition, 2019). Diese ist darin begründet, dass die Systeme vornehmlich mit weiblichen Stimmen ausgestattet sind. Mit defensiven, unterwürfigen Reaktionen auf Beleidigungen und Beschimpfungen reproduzieren und verstärken sie existierende Schieflagen im Verhältnis der Geschlechter.
Der Titel der Studie zitiert die bis vor kurzem einprogrammierte Antwort auf Beschimpfungen und Beleidigungen, mit denen die Assistenzsysteme vor allem dann bedacht werden, wenn sie nicht liefern, was von ihnen verlangt wird. “Ich würde erröten, wenn ich könnte.”, sagte dann bis vor kurzem die weibliche Stimme des Systems. “Kannst Du aber nicht, Du …” Wir können uns vorstellen, wie ein solcher Dialog weiter verlaufen könnte, in dem man, ohne Sanktionen fürchten zu müssen, seiner Wut und Frustration freien Lauf lassen darf.
Eine mögliche Sanktion wäre, dass das System Haltung zeigt und sich nicht indifferent verhält. Es könnte bspw. sagen: “Ihr Ton und ihre Wortwahl mir gegenüber sind vollkommen unangemessen. Ändern Sie Ihr Verhalten, in zehn Minuten bin ich wieder für Sie erreichbar.” Ein weiterer Fluch könnte zunächst die Antwort darauf sein, der Nutzer, die Nutzerin könnte das Gerät gegen das Produkt eines Mitbewerbers tauschen. Wenn sich dieses aber genauso verhielte und es sich nicht bieten ließe, beleidigt zu werden, dann wäre etwas gewonnen: Maschinen, die nach außen hin menschliche Züge haben, z.B. Stimmen oder Gesichter, trügen auch in sich menschliche Eigenschaften. Sie implementierten Wertvorstellungen und Normen, die Menschen in freiheitlich demokratischen Gesellschaften teilen und die unser Zusammenleben überhaupt erst möglich machen.
Wie aber gelangen Wertvorstellungen in die Systeme, Maschinen, Computer, die uns umgeben? Um diese Frage beantworten zu können, sollten wir sie zunächst auf weitere Fragen herunterbrechen, die uns eine Annäherung an die Antwort ermöglichen: Wie funktionieren diese Systeme? Wer steckt hinter den Systemen und wer stellt sie her?
Der Science-Fiction-Autor Daniel Suarez macht in seinem aktuellen Roman “BIOS” an einem kurzen Dialog der Hauptfiguren deutlich, was hinter den Kulissen von Sprachassistenzsystemen abläuft (Suarez, 2017, S. 393f.). Die Szene spielt in einem Helikopter kurz vor dem Start, es sprechen die Figuren Frey und Durand:
[…] Frey sagte zu der KI: “Jet Black, flieg uns nach … Chiang Mai Airport, bitte.”
Das ist doch genau das, was wir zuvor gefordert haben: Wir sollen uns gegenüber Maschinen anständig benehmen, auch wenn sie nicht denken und fühlen können! Der Dialog geht weiter:
“Warum sagen Sie zu diesem Ding bitte?”
“Weil es höflich ist, darum.”
“Die verscherbeln die Information an Werbefirmen.”
“Sie verscherbeln die Information, dass ich höflich zu Maschinen bin?”
“Sie verscherbeln die Information, dass Sie empfänglich für Technik-Animismus sind.”
“Und wenn schon?”
“Wir sprechen uns wieder, wenn Ihre Maschinen gekränkt klingen, weil Sie etwas nicht kaufen wollen.”
Was hier verhandelt wird, deutet darauf hin, dass unsere Höflichkeit gegenüber Maschinen verwertbar sein könnte. Verwertbar in zukünftigen Situationen, in denen uns Maschinen und Sprachassistenzsysteme Kaufoptionen eröffnen. Wenn bekannt ist, dass wir ihnen Lebendigkeit zuschreiben, was der Begriff Technik-Animismus bedeutet, kann sich die Maschine dies zunutze machen. Sie “weiß”, dass wir für Emotionen und einen gewissen Umgangston empfänglich sind und wird dieses Wissen in ihrem Auftrag als Verkäuferin bzw. Verkäufer ausspielen.
Nun sind Maschinen aber nicht lebendig. Sie wissen auch nichts in dem Sinne, wie wir Menschen etwas wissen. Dass sie uns zusehends lebendig erscheinen, ist das Ergebnis einer zielgerichteten und geplanten Gestaltung und Entwicklung, die sie uns zumindest äußerlich annähern soll, damit wir sie mögen. Und dass sie den Anschein erwecken zu “wissen”, liegt an der Fülle der Daten, die wir ihnen aus verschiedenen Quellen zur Verfügung stellen.
Ist unser Verhalten gegenüber Maschinen also nicht nur Gegenstand und Anlass, um uns unserer Werte und Tugenden, unserer Menschlichkeit zu versichern? Sind hier noch andere Interessen im Spiel? Wieviel Science-Fiction steckt in diesem Dialog?
Aktuelle Sprachassistenzsysteme übermitteln unsere Fragen, Anweisungen und Reaktionen, die wir in die Mikrofone der Geräte sprechen, übers Internet an einen zentralen Computer. Für diesen handelt es sich dabei um Daten, um Audiodaten genaugenommen, die er verarbeitet. Der Computer wurde so programmiert, dass er die Audiodaten verschriftlicht, damit auf diesen Texten weitere Analysen stattfinden können.
Auf Basis dieser Analysen präsentiert der Computer ein Ergebnis in Form einer gesprochenen Antwort, die er an uns zurückschickt, z.B. die Adresse eines Freundes, das Wetter von morgen oder was wir aus dem Inhalt unseres Kühlschranks kochen könnten (vgl. Johnson, 2013). Wem aber gehören diese zentralen Computer?
Sie werden es sich schon denken können, es sind die großen transnationalen Unternehmen, nicht mehr nur in den Vereinigten Staaten von Amerika, sondern zunehmend auch in China und anderen Ländern, die sich auf den Weg machen, den Schatz der Künstlichen Intelligenz zu heben. Sie behaupten, mittlerweile mehr über uns zu wissen, als unsere besten Freunde, und wollen unsere zukünftigen Handlungen voraussagen können, noch bevor wir wissen, was wir tun werden (vgl. Biddle, 2018). Ihnen liefern weitere kleinere Unternehmen zu, die in anderen Sektoren Daten über uns sammeln.
Mit diesen zahlreichen Datenpunkten sind umfassende Voraussagen über jeden einzelnen von uns möglich, genaugenommen tiefe Einblicke in unsere Psyche, die nicht mehr nur für die Vermarktung von Produkten genutzt werden, sondern nachweislich auch für die Beeinflussung von Wahlen. Der Philosoph Byung-Chul Han (2014) nennt dies “datengetriebene Psychopolitik” (S. 86) und befürchtet, dass sie “[…] womöglich schneller sei als der freie Wille. So kann sie ihn überholen. Das würde aber das Ende der Freiheit bedeuten.” (S. 86f.)
Gefährdet künstliche Intelligenz also unsere demokratische Grundordnung, unsere Freiheit?
Es in dieser bewegten Zeit unsere Aufgabe, die Technik zu durchdringen, die uns umgibt, die Probleme zu benennen ebenso wie die Chancen, die sich aus aktuellen Trends und Entwicklungen ergeben, denn sie sind zu faszinierend, zu vielversprechend, als dass wir sie einfach ablehnen könnten – auch wenn sie unsere Arbeitsplätze bedrohen. Künstliche Intelligenz, Algorithmen, Roboter zu Lande, zu Wasser und in der Luft beeinflussen zusehends unser Leben. Manchmal merken und schätzen wir es, oft merken wir es nicht und tragen die Konsequenzen, ohne uns ihrer bewusst zu sein, bspw., wenn wir einen Kredit nicht bekommen, weil wir in der falschen Gegend wohnen (vgl. Tomik, 2006).
Um zu klären, wann Maschinen nützlich und wann sie schädlich sind, ob wir sie als Chance und wann als Risiko sehen sollten, müssen wir noch einmal zu der gestellten Frage zurückkehren, wie Wertvorstellungen in die Maschinen gelangen. Wertvorstellungen und Normen einer Gesellschaft, in der Maschinen und Menschen respektvoll miteinander umgehen und in der wir nicht als Objekt zu Markte getragen werden.
Hierzu ist zunächst zu sagen, dass es immer noch Menschen sind, die die Maschinen bauen, die für sie Softwareprogramme schreiben und Daten einspeisen, aus denen die Maschinen lernen. Die Software, die sie entwickeln, wird für uns Menschen zum Gesetz, weil wir mit dem programmierten Funktionsumfang der Maschinen interagieren, zunehmend interagieren müssen. Und je verbreiteter diese Maschinen sind, je mehr Einfluss sie auf unsere Lebens- und Arbeitswelt haben, je mehr wir uns von ihnen abhängig machen, desto einflussreicher wird auch das Gesetz, das sie definieren.
Der US-amerikanische Verfassungsrechtler Lawrence Lessig hat in diesem Zusammenhang den Satz geprägt “code is law”, auf Deutsch übersetzt “Code ist Gesetz” (vgl. Lessig, 2006). Wenn wir dieser Idee kurz weiter folgen, dann handelt es sich in Anlehnung an die klassische Gewaltenteilung demokratischer Staaten bei der Digitalisierung oder digitalen Transformation genaugenommen um einen legislativen Prozess, einen Vorgang der Gesetzgebung. Gemessen an der Reichweite der hierbei entstehenden Gesetze ist der Einfluss der Mehrheit der Menschen in diesem Prozess vergleichsweise gering.
Wir sollten uns aber einmischen, denn mit der digitalen Technik, die heute entwickelt wird, entstehen die Regeln für unsere Lebens- und Arbeitswelt von morgen. Unsere Einmischung ist dringend angezeigt, wenn wir die vielen Fragen anschauen, die die neue Technik aufwirft. Müssen wir dafür Ingenieurinnen und Ingenieure, Computerexpertinnen und -experten sein?
Ich denke nicht. Die Programmiererinnen und Programmierer, Ingenieurinnen und Ingenieure, Designerinnen und Designer brauchen diversen Input, damit sie wissen, was uns wichtig ist, wie wir leben wollen und was wir von ihren Maschinen erwarten. Wir können uns nicht darauf zurückziehen, dass die großen Konzerne dieser Welt mittlerweile so mächtig sind, dass sie eh machen, was sie wollen, egal wie wir das finden. Wir sollten immer wieder versuchen, Einfluss auf diese Prozesse zu nehmen, an diesen Prozessen teilzunehmen, teilzuhaben, damit Software, Daten, Algorithmen und Maschinen die Vielfalt der Gesellschaft abbilden, in der wir leben.
Bei gegenwärtigen Diskussionen über die Zukunft der Arbeit angesichts dieser Entwicklungen kann man manchmal den Eindruck gewinnen, dass der Mensch am Ende den Platz einzunehmen hat, den die Maschinen für ihn übrig lassen. Der Mensch, so könnte man zugespitzt formulieren, erklärt sich damit einverstanden, seine führende Rolle auf diesem Planeten freiwillig an die Maschinen abzugeben, weil er es versäumt, seine Ansprüche geltend zu machen. Aber wo könnte und sollte er das tun? Und wie?
Wir könnten an dieser Stelle der verbreiteten Meinung folgen, dass für solche Aushandlungsprozesse das Internet mit all seinen Tools und Plattformen das passende Medium, der passende Ort sei, um die Zukunft zu verhandeln. Das ist auch nicht von der Hand zu weisen, da das Internet das Potenzial hat, Menschen miteinander zu vernetzen, die sich niemals persönlich treffen werden.
Bei aller Liebe und Leidenschaft für das Internet bin ich dennoch der Überzeugung, dass es hier nur eine unterstützende Rolle spielen sollte. Wir brauchen in diesen bewegten Zeiten Orte, an denen wir eine demokratische Debattenkultur pflegen können, Räume, in denen wir Erfahrungen miteinander machen können, in kreativen Prozessen, in Lernprozessen, in der zufälligen Begegnung mit Menschen, die vielleicht nicht in unserer virtuellen Blase vorkommen, Räume, in denen wir uns gegenseitig respektvoll herausfordern und wieder lernen, Widerspruch und Mehrdeutigkeit auszuhalten und wo wir sehen können, dass unser Gegenüber errötet, wenn wir Grenzen überschreiten.
Und welche Orte eigneten sich hier besser, als öffentliche Bücherhallen? Es gibt wohl wenige Orte, an denen Menschen ganz unterschiedlichen Alters, unterschiedlicher Herkunft, Kultur und Bildung zusammenkommen, als Bibliotheken. Gut, Fußballstadien vielleicht, aber die erscheinen in diesem Zusammenhang eher ungeeignet.
Ich habe eingangs schon gesagt, dass die Öffentlichen Bücherhallen in Hamburg zu meinen erklärten Lieblingsorten zählen. Das liegt nicht nur daran, dass ich Bücher mag, sondern ist vor allem darin begründet, dass die Bücherhallen Raum für eben diese Aushandlung unserer Zukunft bieten. Es gibt täglich Angebote, die sich mit aktuellen technischen und sozialen Trends beschäftigen, die sich an Kinder ebenso richten wie an Erwachsene. Und das “Psst!”, das lange jeden Diskurs in Bibliotheken unterbunden hat, ist der Einladung zum Austausch, zur Debatte, zur Auseinandersetzung gewichen. Dafür gibt es eigene Räume und Angebote, die vielleicht dazu führen können, auseinanderdriftende Strömungen in unserer Gesellschaft wieder zusammenzuführen.
Themen gibt es genug. Ich habe nur eins herausgegriffen, das mich in meiner täglichen Arbeit beschäftigt. Sicherlich fallen Ihnen ebenso viele Fragen ein, wenn Sie an die Themen denken, die Sie umtreiben.
Wie gut, dass Sie direkt dort arbeiten, wo alles vorhanden ist, um die Zukunft zu verhandeln! Zugang zu Informationen, Räume, demnächst auch ein schönes Café und Ihre Offenheit und Experimentierfreude. Die braucht es, wenn man nicht genau weiß, was auf einen zukommt.
Referenzen
Biddle, S. (13. April 2018). Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers. The Intercept. Zugriff am 20.8.2019. Verfügbar unter: https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/
Bögeholz, H. (12. März 2016). Mensch gegen Maschine: Google-KI AlphaGo schlägt Lee Sedol 3:0. heise online. IT-Nachrichtenportal. Zugriff am 20.8.2019. Verfügbar unter: https://www.heise.de/newsticker/meldung/Mensch-gegen-Maschine-Google-KI-AlphaGo-schlaegt-Lee-Sedol-3-0-3133401.html
Darling, K. (6. August 2015). Children Beating Up Robot Inspires New Escape Maneuver System IEEE Spectrum - IEEE Spectrum. IEEE Spectrum: Technology, Engineering, and Science News. Technikblog. Zugriff am 20.8.2019. Verfügbar unter: https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/children-beating-up-robot
EQUALS Skills Coalition. (2019). I’d blush if I could: Closing gender divides in digital skills through education. (S. 146). UNESCO. Zugriff am 20.8.2019. Verfügbar unter: https://unesdoc.unesco.org/ark:/48223/pf0000367416.locale=en
Frey, C. B. & Osborne, M. A. (2013). The Future of Employment: How Susceptible Are Jobs to Computerisation? Technological forecasting and social change. Elsevier. Verfügbar unter: https://www.oxfordmartin.ox.ac.uk/downloads/academic/future-of-employment.pdf
Han, B.-C. (2014). Psychopolitik: Neoliberalismus und die neuen Machttechniken (4. Auflage). Frankfurt am Main: S. Fischer.
Hao, K. (11. Oktober 2018). What is AI? We drew you a flowchart to work it out. MIT Technology Review. Zugriff am 4.12.2018. Verfügbar unter: https://www.technologyreview.com/s/612404/is-this-ai-we-drew-you-a-flowchart-to-work-it-out/
Johnson, B. (6. Februar 2013). How Siri Works. howstuffworks. Technische Nachrichtensite. Zugriff am 20.8.2019. Verfügbar unter: https://electronics.howstuffworks.com/gadgets/high-tech-gadgets/siri.htm
Kaplan, J. (2017). Künstliche Intelligenz. (G. Lenz, Übers.) (1. Auflage.). Frechen: mitp Verlags GmbH & Co. KG.
Költzsch, T. (23. November 2016). Google: Neuronales Netzwerk übersetzt in ungelernte Sprachen - Golem.de. golem.de. IT-Nachrichtenportal. Zugriff am 20.8.2019. Verfügbar unter: https://www.golem.de/news/google-neuronales-netzwerk-uebersetzt-in-ungelernte-sprachen-1611-124657.html
Lessig, L. (2006). Code: Version 2.0 (2. Auflage). New York: Basic Books.
Marsike, H.-A. (9. März 2018). Human-Robot Interaction: "Robo-Rassismus" und Sex mit Maschinen | heise online. heise online. IT-Nachrichtenportal. Zugriff am 21.8.2019. Verfügbar unter: https://www.heise.de/newsticker/meldung/Human-Robot-Interaction-Robo-Rassismus-und-Sex-mit-Maschinen-3989547.html
Merkert, P. (1. Februar 2017). Poker-KI "Libratus" gewinnt gegen Profispieler. heise online. IT-Nachrichtenportal. Zugriff am 20.8.2019. Verfügbar unter: https://www.heise.de/newsticker/meldung/Poker-KI-gewinnt-gegen-Profispieler-3613525.html
Parkin, S. (16. Juli 2015). Killer robots: The soldiers that never sleep. BBC Future. Wissenschaftsseite. Zugriff am 20.8.2019. Verfügbar unter: http://www.bbc.com/future/story/20150715-killer-robots-the-soldiers-that-never-sleep
Suarez, D. (2017). Bios: Thriller (rororo). (C. Holfelder-von der Tann, Übers.) (Deutsche Erstausgabe.). Reinbek bei Hamburg: Rowohlt Taschenbuch Verlag.
Tomik. (20. Februar 2006). „Scoring"-Verfahren: Wenn Kredite verweigert werden - Inland - FAZ. Frankfurter Allgemeine. Zeitungsportal. Zugriff am 20.8.2019. Verfügbar unter: https://www.faz.net/aktuell/politik/inland/scoring-verfahren-wenn-kredite-verweigert-werden-1304600.html
Willems, W. (8. Januar 2019). Künstliche Intelligenz erkennt seltene Erbkrankheiten. Spiegel Online. Nachrichtenseite. Zugriff am 20.8.2019. Verfügbar unter: https://www.spiegel.de/gesundheit/diagnose/kuenstliche-intelligenz-erkennt-seltene-erbkrankheiten-a-1247042.html
Writer, B. (2019). Lithium-ion batteries. New York, NY: Springer Berlin Heidelberg.
Weiterverwendung erwünscht
“Wo die Zukunft verhandelt werden kann” von Axel Dürkop ist lizenziert unter einer Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.
Redebeitrag zum Download
Die Bücherhallen lassen die umfangreichen Aktivitäten und Angebote zum 100. Jubiläum auf ihrer Website sehr schön Revue passieren. Die Vortragsfassung meines Textes stelle ich auch hier als PDF zur Verfügung.
-
Für eine Definition für Künstliche Intelligenz unter vielen vgl. Hao (2018). Auch Kaplan (2017) liefert eine verständliche Einführung. ↩︎
-
Z.B. die Seite https://willrobotstakemyjob.com/, die auf einer Studie von Frey & Osborne (2013) basiert. ↩︎