Ein Gastbeitrag in meinem Blog von Peter Ganten, Geschäftsführer des mittelständischen Bremer Softwarehauses Univention GmbH
Die Cloud hat ein altes Thema der IT wieder zum Leben erweckt. Ein Thema von dem sich manche schon in den 70er Jahren bahnbrechende Erfolge versprochen haben. Ein Thema, das nicht nur Informatiker, sondern auch mich als Psychologen fasziniert. Künstliche Intelligenz ist plötzlich wieder überall. Aber sie kommt nicht so, wie man sich das in den siebziger oder in den 90er Jahren vorgestellt hat. Sondern sie kommt in Form kleiner praktischer Lautsprecher, wie hier von Amazon und Google und in der Form neuer Funktionen unserer Smartphones und PCs.
„OK Google, spiele „Starman von David Bowie“ Wenn Sie ein Android Telefon haben, dann schauen Sie lieber mal nach, ob es jetzt reagiert hat. Oder hört schon jemand Musik?
Diese Dinge können manchmal auch schiefgehen. Als in den USA ein Fernsehmoderator neulich berichtete, wie ein kleines Kind bei Alexa, der virtuellen Assistentin von Amazon ein Puppenhaus bestellte und dabei den Satz „Alexa order me a doll house“ aussprach, hörten hunderte von Amazon Geräte dem Fernsehmoderator zu und bestellten Puppenhäuser. https://www.youtube.com/watch?v=Re7gOug8zto
Mehr und mehr sind wir also von so genannten „intelligenten“ Geräten umgeben, die uns kontinuierlich zuhören und dabei versuchen, so gut es geht unsere Wünsche zu verstehen.
Das ist möglich geworden, weil diese Geräte aufgenommene Sprache in die Cloud schicken und dort hat es wirklich ein paar technische Durchbrüche gegeben, die vor wenigen Jahren kaum jemand für möglich gehalten hätte.
• Spracherkennung beispielsweise funktioniert heute praktisch fehlerfrei. Ich erinnere mich noch gut daran, als IBM das Betriebssystem OS/2 in den 90er Jahren mit Spracherkennung auslieferte. Ich war fasziniert, habe das System stunden- nein wochenlang trainiert und hinterher hat es doch nicht funktioniert. Das hat sich nun fundamental geändert: Schauen Sie.
• Aber auch von Computern vorgenommene Übersetzungen sind massiv besser geworden. Heute sind die Übersetzungen wirklich les- und verstehbar. Ich wage die Prognose, dass die meisten einfachen Texte zukünftig durch künstliche Intelligenz übersetzt werden. Menschliche Übersetzer werden dann nicht mehr gebraucht.
Aber auch in anderen Bereichen wird es einschneidende Veränderungen im Arbeitsmarkt geben.
Autonomes Fahren steht vor dem Durchbruch und LKW-Fahrer sind eine der größte Berufsgruppe in den USA, sie wird mittelfristig durch selbstfahrende Trucks ersetzt. Und ich fürchte, dass dem neuen amerikanischen Präsidenten dagegen auch keine Mauer zwischen Mexico und den USA helfen wird.
Die Grundlagen: Rechenzentren, Daten und Deep Learning
Warum sehen wir jetzt plötzlich solche massiven Durchbrüche künstlicher Intelligenz?
Das hat zwei wesentliche Gründe:
• Erstens: Der Aufbau riesiger Rechenzentren, mit denen die Cloud betrieben wird, hat massive Investitionen in Computerleistung und auch in neue Technologien, beispielsweise von Nvidia ermöglicht. Das Moorsche Gesetz wurde so praktisch überlistet, und kurzfristig mit geringem Mitteleinsatz verfügbare Rechenleistung ist massiv gewachsen.
• Aber noch wichtiger ist der zweite Punkt: Künstliche Intelligenz, so wie wir sie heute kennen, ist an sich erstmal ohne Wissen über die Welt. Sie muss lernen und dazu braucht Daten, jede Menge Daten. Diese Daten stehen nun zur Verfügung:
◦ Das Internet, die Cloud und vor allem auch das Internet der Dinge speichern immer mehr Daten zu immer mehr Aspekten der Welt und unseres Lebens. Und die kleinen, smarten Assistenten von Amazon, Google, Microsoft und Apple leisten einen wichtigen Beitrag dazu. Das führt dazu, dass die Menge der weltweit gespeicherten Daten massiv ansteigt. Wir speichern heute in zwei Jahren so viel Daten, wie wir davor während der gesamten Geschichte der Menschheit gespeichert haben.
◦ Und in manchen Bereichen geht das noch viel schneller. Ginni Rometty, CEO von IBM sagte letzte Woche in Davos, dass sich die Menge aller medizinischer Daten mittlerweile alle sechs Wochen verdoppelt. Ein unglaublicher Anstieg der Datenmenge also und ideal, um künstliche Intelligenz zu trainieren.
Deep Learning
Der Prozess, mit dem künstliche Intelligenz solche Daten verwendet, um zu lernen, wird oft auch als „Deep Learning“ bezeichnet. Denn er verwendet mehrere miteinander verschachtelte Lagen neuronaler Netze, die von der Idee her ähnlich miteinander verbunden sind, wie die Neuronen im Neocortex ihres Gehirns.
Dabei werden sehr komplexe statistische Modelle erzeugt und kontinuierlich verbessert, die oft darauf ausgerichtet sind, sehr genaue Vorhersagen darüber zu machen, was ein Mensch erkennen oder wie er sich verhalten würde. Zwei Beispiele dafür:
• Die künstliche Intelligenz in Übersetzungsprogrammen kann einen Satz nur deswegen gut übersetzen, weil sie im Internet Millionen ähnlicher Sätze in ähnlichen Kontexten und deren Übersetzung gesehen hat. Nun kann sie vorhersagen, wie ein Mensch den Satz in ähnlichem Kontext übersetzen würde.
• Und die künstliche Intelligenz in selbstfahrenden Autos wird nur deswegen durch den Berufsverkehr navigieren können, weil sie das Verhalten anderer Autos, Fahrradfahrer und Fußgänger tausendfach gesehen hat und nun vorhersagen kann.
Geschäftlicher Wert von Vorhersagen durch AI
Gute Vorhersagen über menschliches Verhalten zu machen können, hat für Unternehmen natürlich auch massive wirtschaftliche Vorteile. Und diese werden schon heute ständig genutzt:
• Youtube versucht ständig, die beste Vorhersage darüber zu machen, welchen Film ich als nächstes gerne sehen möchte. Und ich bin immer wieder erstaunt darüber, dass es mir je nach Uhrzeit oder Ort, an dem ich mich gerade befinde, unterschiedliche Vorschläge macht: Morgens auf dem Weg zur Arbeit höre ich gerne Vorträge zu bestimmten Themen, also erhalte ich entsprechende Vorschläge. Und bevor ich schlafe, darf es auch mal was Lustiges sein, also bekomme ich z.B. Monty Python Filme vorgeschlagen.
• Aber auch bei Facebook macht künstliche Intelligenz Vorhersagen darüber, was ich als nächstes sehen oder lesen möchte
• Und Google macht bei jeder Suchanfrage Vorhersagen darüber, auf welches Ergebnis ich wohl am ehesten klicken würde. Und natürlich auf welche Anzeige.
Der Mechanismus dahinter ist immer derselbe: Je besser die künstliche Intelligenz Vorhersagen machen kann, desto mehr beschäftige ich mich mit den präsentierten Inhalten und desto mehr Geld kann verdient werden.
Dabei haben Systeme wie Google oder Facebook einen unschätzbaren Vorteil: Sie können ihre Vorhersage, welchen Link oder welchen Inhalt der Nutzer auswählt, immer sofort mit dem tatsächlich eingetretenen Ergebnis vergleichen und so ihre AI ständig weiter optimieren.
Aber diese Systeme haben noch einen weiteren Vorteil: Sie können mein Verhalten mit allen möglichen anderen Informationen über mich in Verbindung setzen:
• Welche Orte habe ich bereits besucht?
• Wen kenne ich?
• Wo arbeite ich?
• Wie habe ich etwas bewertet?
Damit lässt sich Verhalten in Kontext setzen und Vorhersagen lassen sich massiv optimieren.
Künstliche Intelligenz in Business Anwendungen und Politik
Aber menschliches Verhalten vorherzusagen ist nicht nur für Suchmaschinen oder autonomes Fahren wertvoll. Künstliche Intelligenz wird zunehmend auch in Geschäftsanwendungen eingesetzt. Wäre es nicht toll, wenn wir wüssten, welche Besucher unserer Webseite unser Produkt vermutlich wirklich kaufen wollen, so dass wir diese gezielt ansprechen können? Wäre es nicht super, wenn wir erfahren könnten, welcher unserer Kunden sich mit dem Gedanken trägt die Geschäftsbeziehung zu uns zu beenden? Oder wenn wir wüssten, aus welchen vertrieblichen Chancen tatsächlich etwas werden kann?
Keine Sorge, genau daran arbeiten Unternehmen wie Microsoft oder Salesforce.
Hier z.B. präsentiert Satya Nadella wie die künstliche Intelligenz in Microsoft Dynamics 365, dem ERP-Produkt von Microsoft das Risiko von Geschäftschancen bewertet.
Wunderbar, oder? Und wir machen die das? Die künstliche Intelligenz berücksichtigt alle Informationen, die sie über einen Kunden im Internet, in Systemen wie LinkedIn und in der Cloud finden kann und sagt voraus, welcher Interessent Kunde werden kann, aber auch welcher Kunde vielleicht gehen möchte.
Das wäre natürlich besonders einfach, wenn der betreffende Kunde oder Interessent Angebote von Wettbewerbern, oder E-Mail-Kommunikation in einer Cloud ablegt, die von dem KI System genutzt werden kann, um vorhersagen zu machen. Wenn ich sehen kann, dass mein Kunde Angebote von Wettbewerben bekommt, dann ist es einfach zu erraten, dass er mich vielleicht verlassen möchte.
Das zeigt: Wir brauchen ganz klare Regeln darüber, welche persönlichen oder geschäftlichen Daten von künstlicher Intelligenz genutzt werden darf, um sie zu trainieren und vor allem auch, um Entscheidungen zu fällen. Ansonsten kann die Ablage einer Information in einem Kundenverwaltungssystem gleichbedeutend damit sein, dass ich meinen Wettbewerber über meine Akquisetätigkeiten informiere.
Aber das ist noch nicht alles. Künstliche Intelligenz ist auch ein nützliches, aber auch gefährliches Werkzeug in der Politik.
Cambridge Analytica
Unternehmen, wie Cambridge Analytica behaupten beispielsweise, damit genau bestimmen zu können, auf welches Wahlversprechen welcher Wähler am besten reagiert. Jeder Wahlkämpfer erhält dann eine App, die ihm, wenn er vor einem Haus steht, genau sagt, welche Aussage er in welcher Wohnung machen soll. So lassen sich speziell geformte Aussagen für Kleinstgruppen von Wählern machen. Diese Aussagen dürfen zueinander durchaus im Widerspruch stehen, denn sie werden ja niemals gemeinsam präsentiert. Und sie entziehen sich der Kritik durch den politischen Gegner, da sie ja nicht auf offener Bühne, sondern durch so genanntes „Micro-Targeting“ etwa via Facebook oder eben durch Hausbesuche präsentiert werden. Cambridge Analytica behauptet, damit eine wichtige Rolle für den Ausgang der Brexit-Abstimmung in UK gehabt zu haben und auch im Wahlkampf von Trump ist es sehr aktiv gewesen.
Künstliche Intelligenz in der Schule
Das letzte Anwendungsfeld künstlicher Intelligenz, auf das ich eingehen möchte ist Schule und Bildung.
Hier kann künstliche Intelligenz unglaublich nützlich sein. KI Algorithmen können lernen, auf genau welche Information welcher Schüler, welcher Lerner am besten reagiert, welche Übung für ihn am besten geeignet ist und wo er noch Schwächen hat. So wie die KI von Youtube und Cambridge Analytica kann sich künstliche Intelligenz sehr schnell an die individuellen Bedürfnisse von Schülern anpassen, sie kann lustige oder interessante, emotionale oder herausfordernde Inhalte verwenden. Je nach Zeit und Interessenslage des Lernenden.
Ich glaube, dass es damit in kurzer Zeit gelingen wird, dass Lernen beispielsweise von Sprachen oder Fakten deutlich schneller und erfolgreicher zu machen. Deswegen werden wir diese Systeme in kurzer Zeit an vielen Stellen in unseren Schulen finden, und das ist eine gute Sache, denn es kann helfen, die Fähigkeiten von uns Menschen zu verbessern.
Gleichzeitig müssen wir aber gerade in der Schule extremst vorsichtig damit sein, welche Daten diese Systeme über unsere Kinder sammeln können, wie diese Daten genutzt werden dürfen und wie sie mit den jeweiligen Personen in anderen Kontexten in Verbindung gebracht werden können.
Ansonsten sind die folgenden Szenarien leicht denkbar:
• Anzeigen für Schüler und Eltern bei Google, Facebook oder Instagram, die Aufgrund des schulischen Verhaltens ausgewählt werden.
• Die Möglichkeit für Arbeitgeber oder auch Universitäten, Bewerber nicht nur an Hand von Zeugnissen, sondern auf der Basis umfangreicher Psychogramme zu bewerten, die während der schulischen Laufbahn angelegt wurden.
• Aber auch das ist noch nicht alles. Auf Grund der über Anwender gesammelten Informationen ermöglichen die Werbeplattformen der Cloud-Dienste die sehr genaue Ansprache von sehr spezifisch definierten Zielgruppen. Das bedeutet, es wäre zukünftig durchaus denkbar, dass politische oder religiöse Gruppierungen die in Schule erzeugten Daten verwenden können, um solche Schüler anzusprechen, die besonders empfänglich für ihre Aussagen sind.
Um es klar und deutlich zu sagen: Das bedeutet, dass Organisationen wie der IS oder Pegida es damit vielleicht sehr einfach haben werden, unglückliche Schüler mit geringem Selbstbewusstsein zu identifizieren und diese mit schlimmen Aussagen und vielleicht auch mit falschen Versprechen an sich zu binden. Und weil auch diese Nachrichten sehr genau an nur diese Zielgruppen verteilt werden, kann sich das weitgehend der Überprüfung durch die Öffentlichkeit entziehen.
Am Scheideweg
Das alles heißt aus meiner Sicht, wir befinden uns nun an einem Scheideweg und müssen selbst Entscheidungen treffen.
• Die Cloud, Big Data, das Internet der Dinge und künstliche Intelligenz eröffnen der Menschheit so unglaubliche, großartige neue Möglichkeiten, dass sie uns wirklich auf eine neue Stufe bringen können. Vielleicht wird man die Erfindung künstlicher Intelligenz eines Tages mit der Erfindung des gesprochenen Wortes oder wenigstens des geschriebenen Wortes in Bezug auf ihre Bedeutung für die menschliche Zivilisation vergleichen.
• Auf der anderen Seite kann, wenn wir nicht die richtigen Entscheidungen treffen, künstliche Intelligenz in der Hand weniger Unternehmen, oder vielleicht sogar weniger Regierungen sehr genau kontrollieren, was wir lernen, was wir wissen, was wir denken und damit auch, was wir tun. Das geschieht, in dem es uns immer genau die Informationen zur Verfügung stellt, die wir brauchen, um über etwas nachzudenken, einen bestimmten Gedanken zu fassen oder eine bestimmte Person zu wählen.
1984 lässt grüßen.
Das ist, zum Teil jedenfalls, der Grund warum Menschen wie Elon Musk oder Stephen Hawking, die sich sehr intensiv mit künstlicher Intelligenz auseinandergesetzt haben, sehr vor den damit verbundenen Risiken warnen.
Vier Prinzipien
Was also können wir tun, um sicherzustellen, dass künstliche Intelligenz uns nutzt und uns nicht auf eine Weise manipuliert, die wir nicht mehr kontrollieren können?
Ich denke, es gibt vier Prinzipien, die wirklich wichtig sind und uns vor dem schlimmsten bewahren können.
• Das erste Prinzip ist Verantwortlichkeit. Diejenigen, die die Daten nutzen, die wir privat, im Geschäftsleben oder während des Besuchs von Bildungseinrichtungen generieren, dürfen das nur auf eine Art und Weise tun, mit der wir einverstanden sind und die von uns zu erwarten ist.
• Das zweite Prinzip ist Nachprüfbarkeit oder Transparenz. Als Gesellschaft und als Nutzer von Software oder von Cloud-Diensten müssen wir überprüfen können, ob die Anbieter, denen wir unsere Daten übergeben, ihrer Verantwortung tatsächlich nachkommen und ihre Zusagen einhalten. Das ist ein altes Prinzip: „Vertrauen ist gut, Kontrolle ist besser!“
Schauen wir uns die jüngste Diskussion um WhatsApp an: WhatsApp nutzt eine Verschlüsselungstechnologie die allgemein als sehr sicher gilt. Nun ist es allerdings bekannt geworden, dass es einen Mechanismus in WhatsApp gibt, mit dem das Programm dazu veranlasst werden kann, Nachrichten mit einem neuen Schlüssel zu verschlüsseln und dann erneut zu versenden. Ein ähnlicher Mechanismus könnte theoretisch genutzt werden, um ganze Konversationen an Facebook oder auch an staatliche Überwachungsorgane zu versenden ohne dass der Besitzer des betreffenden Gerätes etwas davon mitbekommt. Bitte verstehen Sie mich nicht falsch: Es gibt keinen Beweis dafür, dass dies so ist und ich glaube es auch nicht. Aber das ist nicht der Punkt. Der Punkt ist, dass es die Möglichkeit geben muss, dies zu überprüfen.
Und es gibt ja viele gute Beispiele dafür, dass Software immer wieder dafür genutzt wird, geheime Funktionen zu schaffen und damit Anwender, die Öffentlichkeit und auch staatliche Kontrollorgane hinters Licht zu führen. Wir haben in Deutschland beispielsweise einen Automobilhersteller, vielleicht sogar mehrere, die mit der Software in ihren Autos jahrelang betrogen haben. Wie absurd ist das Katz- und Mausspiel mit Prüfständen zur Ermittlung von Abgaswerten und Software deren wesentliche Aufgabe darin besteht, solche Testsituationen zu erkennen und das Auto dann in einem abgasarmen Sondermodus zu schalten. All das wäre nicht notwendig, wenn wir uns einfach die Software ansehen könnten.
• Das dritte Prinzip ist Replizierbarkeit. Dieses Prinzip gewinnt bei künstlicher Intelligenz besonders an Bedeutung. Denn im Gegensatz zu klassischer Software ist es bei Systemen, die mit künstlicher Intelligenz betrieben werden wegen der Komplexität der dort verwendeten statistischen Modelle nicht möglich, Entscheidungen im Quellcode der Software nachzuvollziehen.
Hier gibt es nur einen Ausweg: Es muss unterschiedliche, ja sogar beliebig viele System künstlicher Intelligenz geben, die dasselbe Problem lösen. Erst dann werden sich Manipulationen entdecken lassen.
Ein gutes Beispiel sind Suchmaschinen, die ja auch auf künstlicher Intelligenz basieren. Wenn es nur eine Suchmaschine gibt und diese eine bestimmte Webseite auf Grund einer Manipulation nicht mehr anzeigt, ist das für die meisten Menschen gleichbedeutend damit, dass es die betreffende Seite nicht mehr gibt. Ich finde die Seite nicht, deswegen kenne ich sie nicht und merke auch nicht, dass sie vor mir versteckt worden ist.
• Das bedeutet, die Manipulation ist nicht erkennbar. Erst wenn viele, voneinander unabhängige, Suchmaschinen existieren, besteht die Chance solche Manipulationen zu entdecken. Erst wenn Ergebnisse miteinander verglichen und Unterschiede entdeckt werden können, kann man Manipulationen auf die Spur kommen.
Das ist der Grund warum Menschen wie Reid Hofmann, Peter Thiel und Elon Musk das OpenAI Projekt gegründet haben und mit Milliarden finanzieren. Ziel dieses Projektes ist es, künstliche Intelligenz als Open Source zu schaffen und voran zu treiben, so dass es möglichst viele miteinander im Wettbewerb stehende AI Systeme und nicht wenige, von wenigen Personen oder Regierungen kontrollierte, geben kann.
• Das alles funktioniert aber nur, wenn es Wahlfreiheit gibt. Es reicht nicht, wenn Systeme künstlicher Intelligenz von Forschungsinstituten oder dem TÜV gelegentlich überprüft werden können. Dafür entwickeln sie sich viel zu schnell weiter. Es ist vielmehr erforderlich, dass es echte Wahlfreiheit im Markt gibt, so dass alternative Lösungen auch in der Masse genutzt werden. Das erfordert einen offenen Markt mit vielen Anbietern von Lösungen für ähnliche Probleme. Sonst gibt es zwar eine theoretische Replizierbarkeit, aber praktisch landen doch alle beim selben Hersteller und sind von dessen Entscheidungen abhängig. Deswegen lautet das vierte Prinzip Wahlfreiheit.
Wahlfreiheit ist auch die Voraussetzung dafür, die hohe Innovationsgeschwindigkeit in unserer Industrie aufrecht zu erhalten. Denn, wie wir wissen, verlangsamt sich Innovation immer dann, wenn es in einer Branche für neue Anbieter nicht mehr möglich ist, den Markt zu betreten. Auch hier können wir von der Automobilbranche lernen: Über Jahrzehnte war es praktisch unmöglich, Automobilhersteller zu werden und dementsprechend wenig Innovation gab es. Hier und da ein Facelift oder ein paar PS mehr, aber echte Innovation? Fehlanzeige. Erst jetzt, wo mit Tesla ein neuer Hersteller erfolgreich den Markt betritt, erst jetzt fangen die anderen Hersteller an, sich ernsthaft um neue Antriebe oder autonomes Fahren zu bemühen.
Wahlfreiheit war in der Vergangenheit wichtig, als übermächtige Monopole in der IT Innovation eingeschränkt und Wahlfreiheit unterdrückt haben, es ist heute wichtig, wo Geheimdienste vieler Regierungen versuchen so viele Informationen, wie möglich über uns und unsere Organisationen zu bekommen und wir die Freiheit brauchen, vertrauenswürdige Systeme verwenden zu können. Und es wird in der Zukunft einer aufblühenden künstlichen Intelligenz erst recht wichtig sein.
Be open
Und der Schlüssel zu Freiheit und Auswahl, zu Vertrauenswürdigkeit und Wettbewerb, zu Sicherheit und Innovation, ist und bleibt Offenheit, ist und bleibt Open Source:
• Nur mit offenen Systemen, nur wenn wir wirklich den Quellcode prüfen und ihn selbst ändern und testen können, können wir Nachprüfbarkeit und Vertrauen gewährleisten.
• Nur wenn auch der Quellcode einer Software tatsächlich von jedermann genutzt werden kann, gibt es Replizierbarkeit. Nur dann wird es überhaupt die theoretische Chance geben, Manipulationen zu entdecken.
• Und schließlich gibt Open Source neuen Marktteilnehmern die Möglichkeit, neue Angebote zu entwickeln zwischen denen Anwender wählen können. Open Source ist also die beste Grundlage für Wahlfreiheit.
Ein offenes Netzwerk
Und Open Source ist die beste Grundlage für offene Ökosysteme mit miteinander kompatiblen Angeboten.
Solche Ökosysteme oder Netzwerke, in denen es flexible Kooperation, aber auch Wettbewerb gibt, können einen unglaublichen Reichtum an Angeboten entwickeln. Dadurch können sie praktisch unschlagbar werden und alle monopolistischen Anbieter überflügeln, weil diese es auf Dauer nicht schaffen, den gleichen Reichtum an Innovation und Inhalten zu produzieren, den ein offenen Netzwerk erzeugen kann. Ich denke, das beste Beispiel dafür ist immer noch, ja das Internet. Als das Internet in den 90er Jahren seinen Siegeszug antrat, war es genauso ein offenes Netzwerk miteinander in Wettbewerb und Kooperation stehender Organisationen, basierend auf offenen Standards. Und weitgehend ist es das heute immer noch. Und was wurde durch das Internet nicht alles erschaffen. Vor allem aber wurden dadurch die bisherigen, geschlossenen und proprietären Anbieter ähnlicher Dienste, ob sie nun Microsoft Network, Compuserve oder AOL hießen, sehr schnell obsolet.
Wenn wir die Chancen künstlicher Intelligenz nutzen und ihre Gefahren in den Griff bekommen wollen, brauchen wir solche offenen Netzwerke mit Angeboten für Unternehmen, für die öffentliche Hand und für den Bildungssektor.
Solche offenen Netzwerke erfordern es, dass jeder Player sich sehr genau überlegt, wo er den größten Nutzen bieten kann und mit welchen Partnern er kooperiert, denn nur dann wird er selbst erfolgreich sein.
Künstliche Intelligenz bietet unglaubliche Chancen, die wir ergreifen müssen. Aber es sind auch erhebliche Gefahren damit verbunden. Offenheit und Wahlfreiheit sind die Prinzipien zur Kontrolle dieser Gefahren.
Offenheit und Wahlfreiheit gibt es aber nur, weil es Projekte wie Linux, OpenAI und viele weitere Produkte eines offenen Ökosystems gibt. Aber das alleine reicht nicht. Die Software muss auch zugänglich und leicht nutzbar sein.