Kant und die Ethikrichtlinien aus dem Internetkonzern - Brad Smith stellt The Future Computed im Microsoft Atrium vor

Ethik – Artificial Intelligence – Roboter 

 

Kant und die Ethikrichtlinien aus dem Internetkonzern 

Brad Smith stellt The Future Computed im Microsoft Atrium in Berlin und beim Weltwirtschaftsgipfel in Davos vor 

 

Brad Smith ist smart. Als er am Montagmorgen um ca. 9:30 Uhr das Microsoft Atrium im Haus des Internetkonzerns Unter den Linden 17 betritt, zücken vor allem jüngere Gäste der Buchvorstellung sofort ihr Smartphone. Und auch Brad Smith greift in der ersten Reihe, nachdem er sich gesetzt hat, unvermittelt zu dem seinen, um die letzten Nachrichten, Mails oder Tweets zu checken und den Ton auszustellen. Bevor The Future Computed von ihm im verschneiten Davos ohne Krawatte mit einem Vorwort von Philip Hammond, Schatzkanzler der Regierung von Theresa May, vorgestellt wurde, trat der Microsoft-Präsident und Chefjustiziar mit Krawatte vor eine Bildwand mit einem verschneiten Berlin um über Künstliche Intelligenz und die Zukunft von Wirtschaft, Arbeit und Gesellschaft zu sprechen.

 

Die Buchvorstellung in Berlin war größer, vor allem jünger als in Davos. Doch die in Davos wurde für news.microsoft.com aufgezeichnet und ist seither als News abrufbar. Immerhin wollte am 22. Januar Wirtschaftsministerin Zypris die Veranstaltung in Berlin eröffnen, was jedoch Ministerialdirigent Andreas Goerdeler übernehmen musste. Schließlich unterhielt sich Brad Smith in der Moderation von Judith Rakers (Tagesschau und Tagesthemen) mit Nicola Beer (FDP), Iris Plöger (Hauptgeschäftsführung, BDI) und Jan Philipp Albrecht (MdEP, Die Grünen) über „KI“. Goerdeler sprach immer von „KI“, so dass der Berichterstatter erst einmal darauf kommen musste, dass er AI, also Artificial Intelligence meinte. Doch was haben nun Brad Smith und sein Vorwort-Co-Autor Harry Shum, Vizepräsident des Technologie- und Forschungsbereiches, zur Künstlichen Intelligenz und der Zukunft zu sagen?   

 

Microsoft hatte um 8:45 Uhr zum Frühstück eingeladen. Und ein trendiges Müsli mit Chiasamen gehörte natürlich auch dazu. Wer es nicht so früh am Morgen zum Eingang in der Charlottenstraße schaffte, musste sich in eine längere Warteschlange einreihen. Ministeriale, Journalistinnen und Politikberaterinnen etc. kamen, um Neues über die Künstliche Intelligenz und die Zukunft zu hören. Das ist sowohl hinsichtlich der AI wie der Zukunft interessant. Denn neu ist AI nun ganz und gar nicht, vielmehr wurde der Begriff in den 50er Jahren in Großbritannien und den USA geprägt, als die ersten Computerprogramme entwickelt werden sollten, woran die Konferenz Verhaltensdesign im Dezember 2016 erinnert hat.[1] Nicht die Menschenähnlichkeit des Denkens im Rechner stand im Vordergrund, sondern das Design von Verhalten und Wissen.

 

Alain Turing formulierte 1950 die Frage, ob Maschinen denken können. – „I propose to consider the question. Can machines think?“[2] – Die Frage hat sich in dem Maße zugespitzt, wie Maschinen, also Roboter, umgangssprachlich Bots, beispielsweise auf Facebook und Twitter im Wahlkampf eingesetzt werden. Aber auch Navis und Sprachassistenten wie Cortana (Microsoft), Siri (Apple) und Alexa (Amazon), die eigentlich Roboter genannt werden können, übernehmen immer mehr Wissens- und Erinnerungsfunktionen in der Lebenspraxis. Wissen sie, welche Folgen ihre Antworten haben können? Schließlich doch nicht endlich können über Clouds heute große Datenmengen z.B. für das „Autonome Fahren“ zugänglich gemacht werden. Seitdem das „Autonome Fahren“ im Straßenverkehr als Zukunft des Autofahrens diskutiert wird, ist die Künstliche Intelligenz auch im Bundesministerium für Wirtschaft und Energie wieder in den Fokus geraten. Smith und Shum meinen: 

In 2038, a driverless vehicle will take you to your first meeting while you finalize a presentation on the car’s digital hub. Cortana will summarize research and data pulled from newly published articles and reports, creating infographics with the new information for you to review and accept. Based on your instructions, she’ll automatically reply to routine emails and reroute those that can be handled by others, which she will request with a due date based on the project timeline.[3]

 

Nach Brad Smiths Buchvorstellung von A Global Cloud for Good im März 2017 am gleichen Ort vor der Industriemesse in Hannover wurde das Berliner Microsoft Atrium zum wiederholten Mal zur Plattform, um mit Europa und der Welt über Rechtsstandards und Regulierungen des Internets ins Gespräch zu kommen. Tatsächlich wurde Berlin am Montagmorgen zum Schauplatz für die globale Buchpremiere.[4] Tanja Böhm, Managing Director Corporate Affairs bei Microsoft Berlin, nennt es in ihrer „Nachlese“ Künstliche Intelligenz braucht ethische Grundprinzipien vom 25. Januar eine „Vorabpräsentation des Buches“.[5] Doch ganz zufällig sind die Buchvorstellungen in Berlin nicht. Brad Smith und seine Microsoft-Juristen suchen das Gespräch mit dem „alten Europa“ wie eben mit dem Bundesverfassungsrichter a. D. Udo di Fabio, moderiert von der legendären Sylke Tempel, oder dem ambitionierten Grünen-Europaparlamentarier Jan Philipp Albrecht, der sich besonders im Datenschutzrecht engagiert. Albrecht setzt sich in Brüssel für Liquid Lobbying ein, was er 2016 im Wikimedia-Salon per Skype erläuterte.

 

Natürlich geht es mit den Microsoft-Büchern digital als PDF oder gedruckt per Bestellung auch um Öffentlichkeitsarbeit und Imagepflege. Doch, dass der Global Player Microsoft überhaupt Bücher zur Internetsicherheit und Cloud oder Ethik in der computerisierten und robotisierten Zukunft von einem Team schreiben lässt, um sie mit einem Vorwort von Topmanagern versehen zu lassen, gibt auch einen Wink darauf, dass deutschen und europäischen Experten und Politikern eine Diskurs- und Urteilsfähigkeit zugetraut wird, die andernorts nicht (mehr) zu erwarten ist. Jan Philipp Albrecht, Judith Rakers, Nicola Beer und Iris Plöger fragten durchaus nach, wie es komme, dass Brad Smith ein grundlegendes Buch über Ethik im Zeitalter der Künstlichen Intelligenz in Berlin, in Europa vorstelle. Brad Smith antwortete diplomatisch und charmant, dass Europa Microsoft wichtig sei.

 

Dem deutschen Diskurs mit seiner regulierenden Rechtsprechung wird durchaus im Unterschied zur angelsächsischen Rechtstradition eine besondere Rolle beigemessen. Deutsche Politiker wir Jan Philipp Albrecht nehmen in der EU entscheidenden Einfluss auf Richtlinien und stoßen europaweite Diskussionen an. Insofern wird die Ausarbeitung einer Ethik der Künstlichen Intelligenz gezielt und prominent in Berlin platziert. Das Hintergrundbild vom nächtlich beleuchteten Bundestag im Reichstagsgebäude unter malerischem Sternenhimmel mit der Legende „Working towards a new generation of laws“ verspricht mehr als nur eine lokale Unternehmenspolitik. Es erscheint das Bild vom Bundestag und nicht vom Europäischen Parlament. Im global-ausgerichteten Buch gibt es derart regionale Hinweise nicht. Doch es handelt von den Leitlinien für ein neues „AI law“. 

The real question is not whether AI law will emerge, but how it can best come together — and over what timeframe. We don’t have all the answers, but we’re fortunate to work every day with people who are asking the right questions. As they point out, AI technology needs to continue to develop and mature before rules can be crafted to govern it.[6]   

Die Roboter der Zukunft heißen Cortana, Siri und Alexa und es werden sicher noch einige mehr mit Frauen- oder Männerstimmen hinzukommen. Im Szenario von „2038“ mit dem autonomen Fahren – der deutsche Begriff sollte bei Microsoft für „driverless vehicle“ übernommen werden, „autonomes Fahren“ klingt viel, viel besser, schafft Vertrauen und der Besitzer bleibt autonom, unabhängig, während alles programmiert ist … Also im Szenario vom autonomen Fahren – ohne Fahrer oder Taxifahrer – in der Zukunft übernimmt Cortana all jene Funktionen, die heute eine gewissenhafte Sekretärin oder ein Sekretär übernehmen. Sie designt sozusagen den Tagesablauf des Users. Die intelligente Cortana holt das Optimum aus seinem Tag heraus, wenn der Nutzer sich der Taktung unterwirft. Deshalb versprechen Brad Smith und Harry Shum uns schon für die nahe Zukunft, dass wir mehr Zeit haben werden.   

In 2038, digital devices will help us do more with one of our most precious commodities: time.[7]

Es geht nicht darum, irgendwelche Horrorszenarien von der robotisierten ZukunftThe Future Computed – zu wiederholen. Es geht auch nicht um Denkweisen der allgegenwärtigen Verdrängung. Vielmehr ist der Zeitgewinn schon heute ein ambivalenter. So hat die Britische Regierung unter Theresa May kürzlich „a Minister for Loneliness“ ernannt, weil „loneliness is the sad reality of modern life“.[8] Cortana, Siri und Alexa etc. können offenbar gegen Einsamkeit (noch) nicht helfen. Der Zeitgewinn als zentrales Versprechen auf die Zukunft erweist sich als ambivalent. Doch diese Ambivalenz spielt für die Microsoft-Zukunft keine Rolle. Wenn man ein Gut oder einen Rohstoff, engl. commodity, als besonders kostbar und knapp (precious) formuliert, dann lässt sich leicht übersehen, dass sehr viele Menschen kaum etwas anzufangen wissen mit der gewonnenen Zeit durch AI. Die Einsamkeit als Effekt von The Future Computed. Artificial Intelligence and its role in society kommt denn auch im Buch nicht vor. Statt philosophische oder technologische Lösungen für die AI sollte es mehr darum gehen, die Widersprüchlichkeit der Versprechen zu formulieren.

 

 

Auf einer Buchvorstellung bei Microsoft kann man interessante Gesprächspartner treffen. Kann die Philosophie bei Fragen der Artificial Intelligence helfen? Im Gespräch mit einer Politikberaterin kommt die Rede auf einen ausführlichen Essay von Reginald Grünenberg. Kennen Sie den? Sogleich wird ein Link per Mail geschickt. Reginald Grünenberg hat im Oktober 2017 Laws of Singularity auf Academia.edu veröffentlicht. Grünenberg knüpft mit seinen „Gesetzen der Singularität“ an Immanuel Kants Kritik der reinen Vernunft von 1787 an. Inwiefern spielt dort die Singularität eine Rolle? Suche: „Singular“. In der „transzendentalen Dialektik“ des zweiten Buchs und bei den „Paralogismen der reinen Vernunft“ fällt die einzige Formulierung zur Singularität des Ichs in seiner „Apperzeption“, einer bewussten Wahrnehmung. 

2) Daß das Ich der Apperzeption, folglich in jedem Denken, ein Singular sei, der nicht in eine Vielheit der Subjekte aufgelöst werden kann, mithin ein logisch einfaches Subjekt bezeichne, liegt schon im Begriffe des Denkens, ist folglich ein analytischer Satz; aber das bedeutet nicht, daß das denkende Ich eine einfache Substanz sei, welches ein synthetischer Satz sein würde.[9]

 

Die Einzigartigkeit der bewussten Wahrnehmung, Apperzeption, und des Denkens wird von Kant als Voraussetzung für das vernünftige Ich formuliert. „Apperzeption“ ist seit Leibniz ein Neologismus, ein neues Wort für die Art und Weise einer reflektierten Wahrnehmung. Grünenberg macht diese Singularität zur Voraussetzung einer sich selbst reflektierenden, „self-conscious“ Künstlichen Intelligenz in Anknüpfung an Alain Turing, der einen Test entwickelte, ob und wie die Prozessualisierung der Informationsverarbeitung durch ein Computerprogramm bzw. eine Maschine dem Denkvermögen eines Menschen gleichwertig sei oder durch Gesetze als prozessualisierte Reflektion – Algorithmen – gleichwertig gemacht werden kann.   

Henceforth, ‘singularity’ will refer to a self-conscious artificial intelligence that has passed the threshold of the Turing test, which can improve itself and is autonomous, at least in the sense that it is uninhibited in its cycles of self-improvement (the assertion of self-consciousness is problematic; however, we shall present further on, in the ninth law, a strategy for ascertaining its presence). As it is highly improbable that a mere solitary singularity will emerge, the plural or singular will be employed as suits the plasticity of the presentation. Some portions of this treatise also relate to artificial intelligences that are beneath the level of a singularity; thus, we shall consider them throughout.[10]

 

Man kann sich fragen, ob das Konzept der Singularität für die Künstliche Intelligenz als Unterscheidung zwischen Mensch oder Maschine oder als philosophische Angleichung von Maschine und Mensch bzw. einem Ich heute noch wirklich relevant wird. Kant formulierte die Singularität, um das (menschliche) Ich in seiner Einzigartigkeit, ja, Individualität und Vernünftigkeit beschreiben zu können. Letztlich verfährt Kant in seiner Kritik der reinen Vernunft streng algorithmisch. Er formuliert ständig Entweder-Oder-Entscheidungen, um die Singularität des verantwortlichen Denkens als Gesetzmäßigkeit herauszuarbeiten. Eine Strategie zur (Selbst-)Vergewisserung der eigenen Präsenz – „a strategy for ascertaining its presence“ – folgt Kants Argumentation und macht das menschliche vom künstlichen Denken ununterscheidbar. Die künstliche Intelligenz wird immer „menschenähnlicher“, wie auch Smith und Shum konstatieren. Das soll nicht den Horror wecken, sondern die Angst vor der AI nehmen. Wenn AI wie der Mensch beispielsweise beim Autofahren denken kann, dann wird alles prima. – In der Präsentation ist nicht zuletzt auffällig, dass mindestens zweimal ein Bild von einer schreibenden Hand auftaucht. AI soll die schreibende Hand als autonome Tätigkeit des Subjekts und alles, was mit der Handschrift verknüpft wird, nicht verdrängen und doch ersetzen. Das Wissen und Verstehen des Computers – „Computers understanding the world“ – wird über „Knowledge“ mit einer schreibenden Hand als Fotobild illustriert. Die metonymischen Formulierungen „an die Hand geben" oder „zur Hand nehmen“ sind denn auch in der Critik der reinen Vernunft relativ häufig, wie etwa in der „Einleitung“: „Nun ist Vernunft das Vermögen, welches die Principien der Erkenntniß a priori an die Hand giebt.“ (S. 11)

Die Geschlossenheit des Ich als „Singular“ – „der nicht in eine Vielheit der Subjekte aufgelöst werden kann, mithin ein logisch einfaches Subjekt bezeichne“ – generiert allererst das wahrnehmende Wissen des Subjekts. Zur Unterscheidung zwischen einem Roboter und einem Menschen werden bekanntlich beim Einloggen in diverse Portale oder beim Online-Banking verschwommene Zahlen- und Buchstabenbilder generiert, die das menschliche Subjekt erkennen muss. Aktuell können Roboter die verschwommene Information nicht lesen. Das wäre in etwa ein „Turing test“ in der alltäglichen Praxis der User, den sich Alain Turing schwerlich hat vorstellen können. Und natürlich gibt es genügend Menschen, die aus welchen Gründen auch immer an diesem Test scheitern, weshalb man ihnen schwerlich ein Menschsein wird absprechen können. Ein Nashorn(!) lässt sich ungleich besser von anderen Tieren unterscheiden als unscharfe Zahlen-Lettern-Kombinationen.  Gesichtserkennungsprogramme des Bundesministers des Inneren etc. „sehen“ und „erkennen“ im Datenabgleich heute besser selbst als die meisten Polizeibeamtinnen.

Die Versuche einer lösungsorientierten oder gesetzmäßigen Philosophie werden die AI zugleich unmenschlicher und menschlicher oder vernünftiger im Kantischen Modus machen. Doch wie lässt sich Ethik programmieren? Der Mythos der menschlichen Intelligenz und der Vernunft kehrt mit Verve zurück. Brad Smith und Harry Shum bzw. das Kollektiv der Microsoft-Autoren heben eine ethische Wertediskussion hervor. Sie rufen das kritische Auge für die Zukunftsentwicklung der AI nicht zuletzt mit Cortana auf. Cortana steckt noch in den Kinderschuhen. Mit „strong ethical principles“ wird sie erwachsen und (selbst)verantwortlich werden. 

… while we believe that AI will help improve daily life in many ways and help solve big societal problems, we can’t afford to look to this future with uncritical eyes. There will be challenges as well as opportunities. This is why we need to think beyond the technology itself to address the need for strong ethical principles, the evolution of laws, the importance of training for new skills, and even labor market reforms.[11]

Die durchaus interdisziplinäre Zukunftsliteratur von Microsoft nimmt unter der Hand die längst praktizierte Design-Wende vor. Für Microsoft stellt sich nicht wie für Trump die Frage, ob es ethische Prinzipien gibt oder nicht, ob man per Twitter aus dem Frühstücksbett auch einmal etwas ganz und gar Unethisches gegen Frauen, die Presse, „Dreckslochstaaten“ etc. tippen kann. Da bleibt Trump unter dem Niveau von AI. Vielmehr fragt sich Microsoft, wie ethische Programme geschrieben, designt werden können. Um keine voreiligen Algorithmen zu schreiben, wird intern und extern eine fast neo-kantianische Wertediskussion angestoßen. Das kann missfallen oder auch nicht. Das AI-Subjekt in seiner ethischen Verantwortung ist letztlich der Microsoft-Konzern mit seinen Juristen. Werte lassen sich interdisziplinär formulieren. Als zeitlose Werte, die AI respektieren muss in einer rasend schnellen Daten-Zukunft, werden „Fairness, Reliability & Safety, Privacy & Security, Inclusiveness” sowie „Transparency“ und „Accountability“ genannt. 

Designing AI to be trustworthy requires creating solutions that reflect ethical principles that are deeply rooted in important and timeless values. As we’ve thought about it, we’ve focused on six principles that we believe should guide the development of AI. Specifically, AI systems should be fair, reliable and safe, private and secure, inclusive, transparent, and accountable. These principles are critical to addressing the societal impacts of AI and building trust as the technology becomes more and more a part of the products and services that people use at work and at home every day.[12]

 

Brad Smith würde es niemals oder höchstens beim Bier im kleinen Kreis in Davos sagen, vielleicht „off records“. Aber die Microsoft-Bücher beschreiben durchaus ein Design, das gegen Trump, Populismus und die Neue Rechte formuliert wird. Der zeitlose Wert der „Inclusiveness“ ist letztlich ein extrem liberaler und insofern neuzeitlicher, als Lemma oder Tag derart neu, dass er sich kaum übersetzen lässt. Inclusiveness bezieht sich auf die Diversität. Indessen spricht selbst Kant von einer „Vielheit der Subjekte“. Statt auf Vielheit und Einbeziehung basiert der Populismus auf Einheit der Nation, der Rasse, des Geschlechts etc. und damit auf Ausschließung, also Exklusion. Design ist politisch. Eine Geschichte des AI-Design liefert The Future Computed nur skizzenhaft, wenn Alan Turing, seine Test-Idee und die Tagung im Dartmouth College 1956 angerissen werden. Doch das AI-Design schließt Mensch und Maschine über die Vernunft mit dem Verb reasonCritic of Pure Reason – kurz: 

At Microsoft, we think of AI as a set of technologies that enable computers to perceive, learn, reason and assist in decision-making to solve problems in ways that are similar to what people do.[13]    

Die AI soll wahrnehmen, lernen, vernünftig urteilen und helfen können bei Entscheidungen. Das lässt sich denken und designen. Doch wird AI träumen können oder dürfen? Gehört träumen zur Intelligenz? Ist es doch gerade der Traum gegen den Immanuel Kant seine Kritik der reinen Vernunft fast dogmatisch schreibt. Um die Vernunft zum Träger des Ich und des Menschen zu machen, muss gegen den Traum argumentiert werden. Der Traum täuscht und trügt die Urteilskraft – „Und da können allerdings trügliche Vorstellungen entspringen, denen die Gegenstände nicht entsprechen und wobey die Täuschung bald einem Blendwerke der Einbildung, (im Traume) bald einem Fehltritte der Urtheilskraft (beym sogenanten Betruge der Sinne) beyzumessen ist“.[14]

Die AI urteilt nach dem strengen Modus von 0 und 1. Dieser lässt sich durch Algorithmen schier endlos ausdifferenzieren. Doch produziert der Traum nicht nur klare Täuschungen und Fehlwahrnehmungen, vielmehr zeichnet er sich durch die Uneindeutigkeit aus. In der Erstausgabe durchzieht die Abgrenzung der Vernunft gegen den Traum zwischen S. 142 und S. 757. In der „Transzendentalen Methodenlehre“ am Schluss des „ersten Hauptstücks“ des zweiten „Abschnitts“ mit dem Titel „Disciplin der reinen Vernunft in Ansehung ihres polemischen Gebrauchs“ wird die Vernunft „aus ihrem süssen dogmatischen Traume“ geweckt, „um ihren Zustand in sorgfältigere Prüfung zu ziehen“.[15] Das Dogma der Vernunft sieht Kant als Traum und leitet über, „Von der Unmoeglichkeit einer sceptischen Befriedigung der mit sich selbst veruneinigten reinen Vernunft“ zu sprechen. Die reine Vernunft muss mit sich selbst einig sein. Heinrich von Kleist ereilte nicht nur eine Kant-Krise, vielmehr wird in seinen Theaterstücken der Traum zum wahren Wahrnehmungsmodus. In den Berliner Abendblättern, seinem Zeitungsprojekt, an das NIGHT OUT @ BERLIN als Blog anknüpft, wird geträumt und die Apperzeption wiederholt in Frage gestellt. Die Berliner Abendblätter sind der große, collageartige Gegenroman zur Kritik der reinen Vernunft.

Microsoft ist der Meinung, dass die Veröffentlichung von Algorithmen die AI-Systemen unterliegen kaum eine sinnvolle Transparenz verleihen werden.[16] Doch das wäre gerade eine Frage. Brauchen wir nicht mehr Erklärungen, nach welchen Standards die Algorithmen geschrieben werden? Wenn ein ethischer Rahmen von Microsoft formuliert wird, dann reicht es nicht nur ihn, wie es Andreas Goerdeler diplomatisch formulierte, als „Richtschnur“ zu nehmen. Die Einlösung und Umsetzung der ethischen Werte muss im Algorithmus wenigstens für Fachleute überprüfbar sein. Erst dann wird das Versprechen der Transparenz auch eingelöst. Gerade in den binären Entscheidungen der Algorithmen lassen sich ganz konkret an bestimmten Stellen und Knotenpunkten ethische Werte überprüfen. Das muss wenigstens einer Fachkommission ermöglicht werden. 

 

Torsten Flüh

 

Microsoft 

The Future Computed 

Redmond, Washington 2018.   

(kostenlos) 

_______________________ 



[1] Torsten Flüh: Von der Design-Wende. Zur Tagung Verhaltensdesign im Hybrid Lab. In: NIGHT OUT @ BERLIN 14. Dezember 2016 21:12.  

[2] Zitiert nach Microsoft: The Future Computed. Artificial Intelligence and its role in society. Redmond, Washington: Microsoft Corporation, 2018, S. 26.

[3] Brad Smith and Harry Shum: Foreword. In: ebenda S. 5.

[4] Torsten Flüh: Enden des Liberalismus. Von Christoph Menkes Mosse-Lecture zur Kritik des Liberalismus und der Microsoft Cloud. In: NIGHT OUT @ BERLIN 25. April 2017 20:12.

[5] Tanja Böhm: Künstliche Intelligenz braucht ethische Grundprinzipien. In: Microsoft Berlin vom 25. Januar 2018.

[6] Brad Smith and Harry Shum: Foreword… [wie Anm. 2] S. 9.

[7] Ebenda S. 4.

[8] Ceylan Yeginsu: U.K. Appoinst a Minister for Loneliness. In: New York Times Jan. 17, 2018.

[9] In der Erstausgabe von 1781 ist der „Singular“ noch nicht bedacht. Immanuel Kant: Kritik der reinen Vernunft. Zweite hin und wieder verbesserte Auflage. Riga: Hartknoch, 1787. (Project Gutenberg HTML)

[10] Reginald Grünenberg: Laws of Singularity. Berlin: academia.edu, 2017, S. 3-4. (PDF)

[11] Brad Smith and Harry Shum: Foreword … [wie Anm. 2] S. 16.

[12] Ebenda S. 56.

[13] Ebenda S. 27.

[14] Immanuel Kant: Critik der reinen Vernunft. Riga: Hartknoch, 1781, S. 406. (Deutsche Textarchiv)  

[15] Ebenda S. 757.

[16] Microsoft: The … [wie Anm. 2] S. 71.