Raserurteil und unbeseelte Inteligenz. Ein Gedankenexperiment.

Diese Woche erging das Raserurteil in Berlin und dem Haupttäter – wie man ja nun schreiben darf, wurde – ich verkürze bewusst, weil es darum eigentlich hier nicht gehen soll – eine innige Beziehung zu seinem Fahrzeug nach gesagt und ebenso mangelnde Empathie zu seinen Mitmenschen. Das lass ich einfach mal so stehen, weil es eher eine Ausgangspunkt für einige spannende Transfers war, die am Ende viel mehr Fragen als Antworten lieferten.

Ich hab die Neuigkeit im Radio gehört. Auf meinem Weg zur Arbeit. Und denke noch so bei mir “Ich mag mein Auto eigentlich auch!”. Bin ich jetzt krank? Vermutlich nicht! Aber mein Auto mag mich ja auch, es ist nett zu mir. Es bringt mich zuverlässig von A nach B, es verbringt viel Zeit mit mir und wenn ich mich ein bisschen um es kümmere bleibt es mir treu. Dass das nicht selbstverständlich ist ist zeigen andere Autos im engeren Umfeld, die obwohl neu und umsorgt ihren Besitzer nicht zuverlässig von A nach B bringen und die sehr bald auch nicht mehr gemocht werden.

Erster Stolperstein genommen – Eine emotionale Beziehung zu dem dinglichen Gegenstand ist am negativ Beispiel recht schnell belegt, da kein Mensch auf die Idee kommen wird dem verärgerten Kraftfahrzeugbesitzer seinen Ärger verbieten zu wollen.

Offensichtlich ist es nicht so einfach. Ich denke weiter! Versuche also die Beziehung und emotionale Bindung zu einem technischen Gegenstand weiter zu fassen und Denke über Computernetzwerke nach. Diese sind auch komplexe technische Systeme mit einem Eigenleben und man kann sie mögen oder hassen. Tatsache ist, dass auch sie uns unterschiedlich behandeln, sich brav benehmen oder nicht so brav und vieles mehr. Im grunde lassen sich hier sehr ähnliche Konstellationen finden wie auch die Nachricht eines Jungen den die Polizei in der Wohnung seine Urgroßmutter nach einer Randele wegen fehlendem Internet, erst mal einfangen muss. Es geht also nicht um die konkrete Ausgestaltung sondern um die Abstraktion.

Abstrahiert geht es also um die menschliche emotionale Beziehung, sei es Zuneigung, Liebe, usw., zu einem komplexen technischen System. Und es geht darum ob dieses Ding, das ja andere Menschen durch Konstruktion und Definition klarer technischer Regeln und Parameter erschaffen und beschreiben haben als Bezugspunkt für die emotionale Bindung überhaupt geeignet ist.

“Klare Sache!” schreien jetzt die Humanisten und irgendwo ist man ja gewillt zu sagen “Ja, Recht haben sie, Menschen sind Menschen und der Rest der Welt ist der Rest der Welt”, wobei man sich bei Menschenaffen und Delfinen ja schon gar nicht mehr so sicher ist.

Jetzt wird es spannend: Wieso eigentlich wird das so gesehen? Weil man dem festen Glauben unterliegt, die technische Schöpfung wäre genau das, eine ausschliesslich technische, mechanistische, dinglich geschaffene, emotional neutrale Entität? Wieso eigentlich? Mit welchem Recht? Komplexe technische Systeme verändern sich auch aus sich heraus. Sie lernen mit machine learning und sie überflügeln den Menschen, wie das Go Turnier von AlphaGo gegegen den Go Großmeister Lee Seedol gezeigt hat. Die Tücke liegt hier im Detail: AlphaGo konnte eben nicht alle Züge berechnen sondern hat über Deep Learning, Heuristiken, neuronale Netze und ähnliches gelernt aus einer schier unerschöpflichen Menge an Möglichkeiten mittels Intuition und Abschätzung die besten Werte heraus zu fischen, jedefnfalls gut genug um Seedol ernsthaft zu zu setzen. Das hat mit nichten etwas mit der festen Beschreibung des deterministischen Algorithmus zu tun. Knifflige Frage, wenn man hier mal mit bisschen Informatiker Grundwissen heran geht: auch wenn sich vermutlich Touring Vollständigkeit zeigen lässt, so sind doch die Parameter mit normalen menschlichen Mitteln nicht mehr unbedingt nach zu verfolgen und damit der Beweis auch nicht vollständig zu erbringen, oder?

Hier wird jetzt das Eis dünn – wir haben zwar eine Methodik des vollständigen Beweises, können sie aber bei den Algorithmen des maschinellen Lernens, aber einer gewissen Größenordnung einfach nicht mehr vollständig anwenden, da uns die Zeit, Energie, Masse – die tatsächlichen Möglichkeiten zur Umsetzung fehlen. Dabei sind Mathematik und Informatik meines Wissens nach bis heute die beiden einzigen präzisen Wissenschaften mit zumindest dem teilweisen Anspruch gewisse Dinge absolut unumstößlich beweisen zu können. Bei den anderen Naturwissenschaften wir es da schnell anders. Ein Modell ist dabei eine Vorhersagemethode die unter gewissen Annahmen und Grenzen geeignet erscheint eine natürliche Situation vorhersagbar zu beschreiben. Das klappt oft ganz gut. Nehmen wir die Physik und Newton. Newtonsche Mechanik und Gravitation hat ziemlich lange gut funktioniert, bis dann irgendwer Doppelspaltversuche gemacht hat und Photonen gefunden hat, die so nicht hätten existieren sollen. Bisschen später gab es dann Quanten. Dinge die mit Newton absolut unvereinbar waren. Man musste sich also der Tatsache stellen, dass die physische Welt mitnichten vollständig beschrieben ist und eben nicht alle Regeln bekannt und daher nicht alle Dinge vorhersehbar. Das ist bis heute so, sonst wären alle Physiker die nach der einheitlichen Feldtheorie suchern arbeitslos.

Szenenwechsel zurück ins Studium: Nebenfach Biologie, weil man als Informatiker ja ein Anwendungsgebiet braucht. Und weil die Biologen mit Nebenfach Informatikern nicht so viel anfangen konnten, durften wir gerne entweder gleich mit Diplombiologen oder eben auch Medizinern, die eben ein bisschen Humanbiologie machen dürfen studieren. Auch so Dinge wie Mathematik für Mediziner/Biologen. Sehr aufschlussreich. Viele medizinische und biologische Aussagen werden statistisch auf Grund von Beobachtungen untermauert und wenn man dann nach statistischen Schwächen sucht – sollte man auf jeden Fall fündig werden. Nur mal so ein Eindruck am Rande. Metastudien kummulieren das Ganze sogar. Ein Thema das mir grundsätzlich bei allen Studien, die ich in den letzten Jahren so durchgesehen habe (man interessiert sich ja privat für einige Dinge wie Ernährung oder so) beziehen sich so oft auf statistische nicht aussagekräftige Grundgesamtheiten, dass einem eigentlich schwummerig werden sollte. Und wer stellt sich für die Studien zur Verfügung? Menschen die sowieso zum Arzt oder ins Krankenhaus gehen? Menschen die ein Interesse daran haben – wieso?

Mir sind tatsächlich die Mechanismen der Doppelblindstudien geläufig und selbst diese werfen mehr Fragen auf als sie beantworten.

Mein persönliches Fazit ist an der Stelle, dass gerade diese Forschung auch insbesondere das findet, was sie sucht, weil das im Fokus der betrachtung steht und dann natürlich auch in der Erfassung der Beobachtungen tendenzen zu lesen sind. Das bedeutet für mich im Umkehrschluss, dass für viele Dinge die nicht explizit nachgewiesen wurden, kein Ausschluss existiert und nicht einmal die recht gut untermauerten Dinge Anspruch auf Vollständigkeit haben. Beispiel Ernährung wieder – “a calory is not a calory”, “secondary burning effect” oder “Autophagozytose” sind Dinge die spielen komischerweise in vielen öffentlich vertretenen Ansichten keine Rolle, obwohl auch diese schon seit vielen Jahren nachgewiesen sind, besser als manche etablierte Meinung. Man schaut halt woanders hin!

Und nicht falsch verstehen – ein Modell ist der möglichst strukturierte Versuch einer Beschreibung / Erklärung für eine Beobachtung zur Abstraktion und Verallgemeinerung und mit hinreichend statistischem Futter sicher auch erst mal eine gute Sache. Aber eben nicht unumstößlich. Auf das vorherige Thema übertragen bedeutet das, dass wir in der biologischen Forschung zwar eine streng strukturierte Modellbildung haben, wie sie mit Mikrobiologie, Genetik, Physiologie usw. durchaus im chemisch technischen Sinne gegeben ist, auf Grund von Komplexität und den Methoden der Auswertung eben doch nicht vollständig sein kann und eben dadurch auch Raum für Dinge wie Seele oder Bewusstsein schafft und lässt. Die Veränderung in den Biochemischen Systemen beruhen auf Zufällen wie Mutation oder “würfeln” bei der Zellteilung – der durchmischung von Genen, einem zustiefst stochastischen Prozess. Survival of the fittest stellt ebenfalls einen statistischen Ansatz dar.

Sprung zurück: Wir leiten also ab, dass die humanistische Interpretation zwischen beseelten und unbeseelten Dingen irgendwo dem Glauben an eine deterministische technologie entspringt – die nicht mehr so deterministisch ist und über Stochastik und Zufälle Varianzen erzeugt, demgegenüber eine nicht vollständiges aber naturwissenschaftliches teilweise deterministisches biochemisches Modell gegenüber steht, das über Blindspots, Stochastik und Zufälle den Raum für Bewusstsein und Seele schafft.

Hab ich nur das Gefühl, dass hier menschliche Überheblichkeit mit schwingt?

Denkt mal drauf rum.

Kyp. F.

 

 

Leave a Reply