Mit dem Auftritt der Vorsitzenden bei Precht hat sich der Deutsche Ethikrat weiter disqualifiziert. Precht hat sie bloßgestellt, in mehrfacher Hinsicht. Sie sich selbst auch. Wer ständig wild gestikuliert und noch dazu ständig mit den Fingern Anführungszeichen in die Luft malt, den kann man nicht ernstnehmen. Denn was soll das bedeuten? Dass das Gesagte gar nicht so gemeint ist? Wie dann? Dass es ironisch gemeint ist? Das war nicht der Fall. Dass es ein Zitat ist? Wohl kaum.
Und der Ethikrat hat sich auch faktisch disqualifiziert. Er hatte sich geweigert, über »Impfprivilegien« nachzudenken, bevor alle geimpft seien oder wenigstens ein Impfangebot erhalten hätten. Nun finden aber schon jetzt genau diese »Impfprivilegien« statt. Und wieder schlägt die Schrödersche »Normative Kraft des Faktischen« zu.
Außerdem wurden ständig Ethik und Moral verwechselt und eines der Titelthemen kam überhaupt nicht zur Sprache. Auch Prechts Argumentation zeigte Schwächen und er ritt wie immer auf seinen Lieblingsthemen herum, bei denen er offenbar nicht weiterkommt. Aber er war der Dame haushoch überlegen und hat das auch raushängen lassen. Auch wie immer.
Er fing unter anderem wieder mit seinen autonom fahrenden Autos und dem Entscheidungsproblem an. Konkret stellt er die Frage: Was wäre, wenn so ein Auto nicht mehr bremsen könnte und sich dann entscheiden müsste, eine von zwei Personen umzufahren. Er stellt schon lange diese Frage, beantwortet sie aber nicht. Ich sage: Es gibt nur zwei Möglichkeiten. Die eine ist die: ein Zufallsgenerator. Die andere ist die, menschliches Verhalten nachzuahmen, was man untersuchen müsste: Würde ein Mensch rreflexhaft eher draufhalten oder eher ausweichen? Ich glaube, er würde reflexhaft eher ausweichen. Und dann halt die andere Person umfahren. Sicher bin ich mir allerdings nicht … jedenfalls würde man diese »Entscheidung« eines Menschen nicht hinterfragen, bei einer Maschine hinterfragt man sie schon, obwohl es diese Technik so noch gar nicht gibt. Bei autonomen Waffensystemen ist es das gleiche. Wäre es den Menschen lieber, von einem Menschen erschossen zu werden als von einer Maschine? Tot wären sie so oder so. Eine Maschine würde immerhin rational handeln, solange man es nicht mit echter »KI« zu tun hätte. Dazu gibt es viel zu sagen, nachzulesen in den entsprechenden Artikeln auf dieser Website.
Auch brachte er wieder die Frage, ob wir aus ethischer Sicht Tiere essen dürfen, aufs Tapet. Und wies der Dame damit nach, dass man die Empfehlungen des Ethikrates im Grunde genommen schon im Voraus wisse. Er würde aus politischen Gründen immer in der Mitte herumeiern. Die Dame hielt dem entgegen, es gäbe durchaus nicht-konsensuale Empfehlungen (von »Entscheidungen« kann man nicht sprechen, der Ethikrat hat ja nichts zu »entscheiden«). Das mag sein. Bei unbedeutenden Themen vielleicht, bei denen es politisch egal oder sogar erwünscht ist, so eine Position zu beziehen.