Hat mein Algorithmus ein psychisches Gesundheitsproblem?

Anonim

Ist mein Auto halluzinieren? Ist der Algorithmus, der das Polizeiüberwachungssystem in meiner Stadt betreibt, paranoid? Marvin der Android in Douglas Adams Hitchhikers Guide to the Galaxy hatte Schmerzen in allen Dioden auf seiner linken Seite. Spürt sich mein Toaster so an?

Das alles klingt lächerlich, bis wir erkennen, dass unsere Algorithmen zunehmend in unserem eigenen Bild gemacht werden. Als wir mehr über unsere eigenen Gehirne erfahren haben, haben wir dieses Wissen dazu verwendet, algorithmische Versionen von uns selbst zu erstellen. Diese Algorithmen steuern die Geschwindigkeit fahrerloser Autos, identifizieren Ziele für autonome militärische Drohnen, berechnen unsere Anfälligkeit für kommerzielle und politische Werbung, finden unsere Seelenverwandten in Online-Partnervermittlung und bewerten unsere Versicherungs- und Kreditrisiken. Algorithmen werden zum lebensnahen Hintergrund unseres Lebens.

Die am weitesten verbreiteten Algorithmen, die derzeit in die Arbeitswelt eingeführt werden, sind Deep-Learning-Algorithmen. Diese Algorithmen spiegeln die Architektur menschlicher Gehirne wider, indem sie komplexe Darstellungen von Informationen aufbauen. Sie lernen, Umgebungen zu verstehen, indem sie sie erfahren, identifizieren, was scheinbar wichtig ist, und herausfinden, was was vorhersagt. Wie bei unseren Gehirnen sind diese Algorithmen zunehmend von psychischen Gesundheitsproblemen bedroht.

Deep Blue, der Algorithmus, der 1997 den Weltschachmeister Garry Kasparov schlug, tat dies durch rohe Gewalt und untersuchte Millionen von Positionen pro Sekunde, bis zu 20 Züge in der Zukunft. Jeder konnte verstehen, wie es funktionierte, auch wenn sie es selbst nicht konnten. AlphaGo, der Deep Learning-Algorithmus, der Lee Sedol 2016 beim Go-Spiel schlug, unterscheidet sich grundlegend. Mithilfe von tiefen neuronalen Netzen schuf er sein eigenes Verständnis des Spiels, das als komplexestes Brettspiel galt. AlphaGo lernte, indem er andere beobachtete und selbst spielte. Computerwissenschaftler und Go-Spieler sind gleichermaßen von AlphaGos unorthodoxem Spiel benommen. Ihre Strategie scheint zunächst peinlich zu sein. Nur im Nachhinein verstehen wir, was AlphaGo dachte, und selbst dann ist es nicht ganz klar.

Um Ihnen ein besseres Verständnis dafür zu geben, was ich unter Denken verstehe, denken Sie darüber nach. Programme wie Deep Blue können einen Programmfehler aufweisen. Sie können durch Speicherüberlastung abstürzen. Sie können aufgrund einer nicht endenden Schleife in einen Lähmungszustand eintreten oder einfach die falsche Antwort in einer Nachschlagetabelle ausspucken. Aber alle diese Probleme sind von einem Programmierer mit Zugriff auf den Quellcode, in den der Algorithmus geschrieben wurde, lösbar.

Algorithmen wie AlphaGo sind völlig verschieden. Ihre Probleme sind nicht ersichtlich, wenn man sich ihren Quellcode anschaut. Sie sind eingebettet in die Art, wie sie Informationen darstellen. Diese Repräsentation ist ein sich ständig verändernder hochdimensionaler Raum, ähnlich wie im Traum. Die Lösung von Problemen erfordert nicht weniger als einen Psychotherapeuten für Algorithmen.

Nehmen Sie den Fall von fahrerlosen Autos. Ein fahrerloses Auto, das sein erstes Stoppschild in der realen Welt sieht, wird bereits während des Trainings Millionen von Stoppschildern gesehen haben, als es seine mentale Repräsentation dessen, was ein Stoppschild ist, aufgebaut hat. Unter verschiedenen Lichtbedingungen, bei gutem Wetter und schlecht, mit und ohne Einschusslöcher, enthielten die Stoppschilder eine verwirrende Vielfalt an Informationen. Unter den meisten normalen Bedingungen erkennt das fahrerlose Auto ein Stoppschild für das, was es ist. Aber nicht alle Bedingungen sind normal. Einige kürzliche Demonstrationen haben gezeigt, dass ein paar schwarze Aufkleber auf einem Stoppschild den Algorithmus dazu bringen können zu denken, dass das Stoppschild ein 60 mph-Zeichen ist. Der Algorithmus wird halluziniert, wenn er etwas erschreckend ähnlich dem kontrastreichen Schatten eines Baumes ausgesetzt wird.

Wie viele verschiedene Wege kann der Algorithmus halluzinieren? Um das herauszufinden, müssten wir den Algorithmus mit allen möglichen Kombinationen von Eingabestimuli versehen. Dies bedeutet, dass es potenziell unendliche Möglichkeiten gibt, in denen es schiefgehen kann. Crackerjack-Programmierer kennen das bereits und nutzen es aus, indem sie sogenannte adversarische Beispiele erstellen. Die KI-Forschungsgruppe LabSix am Massachusetts Institute of Technology hat gezeigt, dass sie die Schwachstellen des Algorithmus identifizieren können, indem sie Bilder dem Algorithmus zur Bildklassifizierung von Google präsentieren und die zurückgesendeten Daten verwenden. Sie können dann Dinge tun, die ähnlich sind wie Googles Bilderkennungs-Software zu glauben, dass ein X-bewertetes Bild nur ein paar Welpen sind, die im Gras spielen.

Algorithmen machen auch Fehler, weil sie Merkmale der Umgebung aufgreifen, die mit den Ergebnissen korrelieren, selbst wenn keine kausale Beziehung zwischen ihnen besteht. In der algorithmischen Welt wird dies als Überanpassung bezeichnet. Wenn dies in einem Gehirn geschieht, nennen wir es Aberglaube.

Der größte algorithmische Fehler aufgrund von Aberglauben, den wir bisher kennen, heißt Parabel von Google Flu. Google Flu hat verwendet, was Nutzer in Google eingeben, um den Ort und die Intensität von Influenza-Ausbrüchen vorherzusagen. Die Vorhersagen von Google Gru waren anfangs gut, aber sie nahmen mit der Zeit immer mehr zu, bis sie schließlich die doppelte Anzahl von Fällen voraussagten, wie sie den US-amerikanischen Centers for Disease Control vorgelegt wurden. Wie ein algorithmischer Hexendoktor hat Google Flu einfach auf die falschen Dinge geachtet.

Algorithmische Pathologien könnten reparierbar sein. In der Praxis sind Algorithmen jedoch oft proprietäre Black Boxes, deren Aktualisierung kommerziell geschützt ist. Cathy O'Neils " Weapons of Math Destruction" (2016) beschreibt eine wahre Freakshow kommerzieller Algorithmen, deren heimtückische Pathologien gemeinsam das Leben der Menschen ruinieren. Die algorithmische Bruchlinie, die die Reichen von den Armen trennt, ist besonders überzeugend. Ärmere Menschen haben eher schlechte Kreditwürdigkeit, leben in Gebieten mit hohen Kriminalitätsraten und sind von anderen armen Menschen mit ähnlichen Problemen umgeben. Aus diesem Grund zielen Algorithmen darauf ab, irreführende Anzeigen zu verbreiten, die Opfer ihrer Verzweiflung werden, ihnen Subprime-Kredite anbieten und mehr Polizisten in ihre Viertel schicken, was die Wahrscheinlichkeit erhöht, dass sie von der Polizei für ähnliche Verbrechen in wohlhabenderen Gegenden gestoppt werden. Die vom Justizsystem verwendeten Algorithmen verlängern die Haftstrafen für diese Personen, reduzieren ihre Chancen auf Bewährung, blockieren sie von Arbeitsplätzen, erhöhen ihre Hypothekenzinsen, verlangen höhere Prämien für Versicherungen und so weiter.

Diese algorithmische Todesspirale ist in verschachtelten schwarzen Kartons verborgen: Black-Box-Algorithmen, die ihre Verarbeitung in hochdimensionalen Gedanken verbergen, auf die wir nicht zugreifen können, sind in schwarzen Kartons mit Eigentumsrechten versteckt. Dies hat einige Orte, wie New York City, dazu veranlasst, Gesetze vorzuschlagen, die die Überwachung von Fairness in Algorithmen, die von kommunalen Diensten verwendet werden, durchsetzen. Aber wenn wir in uns selbst keine Voreingenommenheit entdecken können, warum sollten wir dann erwarten, sie in unseren Algorithmen zu erkennen?

Indem sie Algorithmen für menschliche Daten trainieren, lernen sie unsere Vorurteile. Eine neuere Studie, die von Aylin Caliskan an der Princeton University geleitet wurde, fand heraus, dass in den Nachrichten trainierte Algorithmen im Wesentlichen über Nacht rassistische und geschlechtsspezifische Verzerrungen erfuhren. Wie Caliskan bemerkte: "Viele Leute denken, dass Maschinen nicht voreingenommen sind. Aber Maschinen werden auf menschliche Daten trainiert. Und die Menschen sind voreingenommen.

Social Media ist ein sich windendes Nest menschlicher Voreingenommenheit und Hasses. Algorithmen, die Zeit auf Social-Media-Sites verbringen, werden schnell zu Bigoten. Diese Algorithmen sind gegen männliche Krankenschwestern und weibliche Ingenieure voreingenommen. Sie werden Themen wie Einwanderung und Minderheitenrechte auf eine Art und Weise betrachten, die einer Untersuchung nicht standhält. Angesichts der halben Chance sollten wir erwarten, dass Algorithmen Menschen so unfair behandeln, wie sich Menschen gegenseitig behandeln. Aber Algorithmen sind durch Konstruktion selbstsicher und haben keinen Sinn für ihre Unfehlbarkeit. Wenn sie nicht dazu ausgebildet sind, haben sie keinen Grund, ihre Inkompetenz in Frage zu stellen (ähnlich wie Menschen).

Bei den oben beschriebenen Algorithmen ergeben sich ihre psychischen Probleme aus der Qualität der Daten, auf die sie trainiert werden. Aber Algorithmen können auch psychische Probleme haben, je nachdem, wie sie gebaut sind. Sie können ältere Dinge vergessen, wenn sie neue Informationen lernen. Stellen Sie sich vor, Sie würden den Namen eines neuen Mitarbeiters lernen und plötzlich vergessen, wo Sie wohnen. Im Extremfall können Algorithmen unter dem sogenannten katastrophalen Vergessen leiden, bei dem der gesamte Algorithmus nichts mehr lernen oder merken kann. Eine Theorie des menschlichen altersbedingten kognitiven Verfalls basiert auf einer ähnlichen Idee: Wenn die Erinnerung überbevölkert wird, benötigen Gehirne und Desktop-Computer gleichermaßen mehr Zeit, um herauszufinden, was sie wissen.

Wenn Dinge pathologisch werden, ist das oft eine Frage der Meinung. Infolgedessen bleiben mentale Anomalien bei Menschen routinemäßig unentdeckt. Synästhetiker wie meine Tochter, die geschriebene Buchstaben als Farben wahrnimmt, merken oft nicht, dass sie ein Wahrnehmungsgeschenk haben, bis sie in ihrer Jugend sind. Beweise, die auf Ronald Reagans Sprechmustern basieren, deuten nun darauf hin, dass er wahrscheinlich Demenz hatte, während er als US-Präsident im Amt war. Und The Guardian berichtet, dass die Massenerschießungen, die in den letzten fünf Jahren in den USA alle neun von zehn Tagen stattgefunden haben, oft von so genannten "normalen" Menschen begangen werden, die unter Verfolgung und Depression leiden.

In vielen Fällen benötigt es wiederholte Fehlfunktionen, um ein Problem zu erkennen. Die Diagnose von Schizophrenie erfordert mindestens einen Monat ziemlich schwächender Symptome. Die antisoziale Persönlichkeitsstörung, der moderne Begriff für Psychopathie und Soziopathie, kann bei Menschen erst ab dem 18. Lebensjahr diagnostiziert werden, und dies auch nur dann, wenn bereits vor dem 15. Lebensjahr Verhaltensauffälligkeiten aufgetreten sind.

Es gibt keine Biomarker für die meisten psychischen Störungen, genauso wie es keine Bugs im Code für AlphaGo gibt. Das Problem ist in unserer Hardware nicht sichtbar. Es ist in unserer Software. Die vielen Arten, in denen unser Verstand schief geht, machen jedes psychische Gesundheitsproblem einzigartig für sich. Wir sortieren sie in große Kategorien wie Schizophrenie und Asperger-Syndrom, aber die meisten sind Spektrumstörungen, die Symptome abdecken, die wir alle in unterschiedlichem Maße teilen. Im Jahr 2006 argumentierten die Psychologen Matthew Keller und Geoffrey Miller, dass dies eine unvermeidliche Eigenschaft der Art ist, wie Gehirne gebaut werden.

In unseren Köpfen kann vieles schief gehen. Carl Jung hat einmal vorgeschlagen, dass in jedem gesunden Menschen ein Verrückter versteckt ist. Wenn unsere Algorithmen mehr wie wir selbst werden, wird es leichter, sich zu verstecken.

"> Dieser Artikel wurde ursprünglich bei Aeon veröffentlicht und wurde unter Creative Commons veröffentlicht.

Thomas Hills auf Twitter