KI-gestützten Angeboten zu einer Art digitalem Weiterleben von verstorbenen Angehörigen stehen Fachleute auch kritisch gegenüber. So sieht die Medienethikerin Jessica Heesen von der Uni Tübingen viele Gefahren. »Für den Trauerprozess ist es wichtig, dass man ihn auch abschließen kann. Dass man anerkennt, dass eine Person verstorben ist. Wenn ich aber immer wieder die tote Person beispielsweise in einer Variante als Avatar zur Verfügung habe und mich sogar mit ihr unterhalten kann, dann ist es schwerer, den Tod anzuerkennen. Und es kann eventuell sogar zu Pathologien führen«, sagt Heesen.
Konkret geht es um Angebote der sogenannten Digital Afterlife Industry, zu der vor allem kleine Start-ups aber auch große Datenkonzerne gehören. Diese Firmen bieten Programme, die beispielsweise die Illusion liefern, sich weiterhin mit der verstorbenen Mutter unterhalten zu können. Dazu wird unter anderem - ganz grob gesagt - der Klang der Stimme und der Inhalt der KI-Antworten aus echten Tonaufnahmen der Verstorbenen generiert. Die Anwendungen werden bislang vor allem in den USA, Großbritannien und Asien genutzt.
Heesen hat in einer Studie des Internationalen Zentrums für Ethik in den Wissenschaften der Universität Tübingen mit einem Team untersucht, welchen Einfluss solche Entwicklungen auf unseren Umgang mit Tod und Trauer haben. Erste Ergebnisse des durch das Bundesministerium für Bildung und Forschung geförderten Projekts »Ethik, Recht und Sicherheit des digitalen Weiterlebens (Edilife)« liegen nun vor. Dazu wurden unter anderem Interviews mit Trauerbegleitern, Geistlichen, Psychologen und Bestattern geführt.
Dem Forscherteam stellte sich bei ihrer Untersuchung immer wieder die Frage nach der ständigen Verfügbarkeit einer verstorbenen Person. Werden die Verstorbenen hier objektiviert und sind sie nur noch Mittel zum Zweck für das Wohlergehen der Überlebenden? Die Gesellschaft müsse sich überlegen, ob sie so mit den Toten umgehen möchte, sagt Heesen.
Manche Anwendungen bergen laut Heesen zudem riesige Datenschutzprobleme, die Menschen müssten besser vor Missbrauch geschützt werden. »Stellen Sie sich vor, Sie unterhalten sich mit Ihrer verstorbenen Großmutter und haben das Gefühl, dass sie echt ist. Und ihr vertrauen sie dann sehr persönliche Dinge an. Diese Daten werden gesammelt und aufgenommen.«
Ein Ergebnis der Studie ist demnach, dass die Bevölkerung über diese Möglichkeiten aufgeklärt werden müsse. »Menschen müssen davor auch geschützt werden, diese Dienste unreflektiert zu benutzen, weil sie sich damit auch selber schaden können.« Dies sei Aufgabe der Politik. Auch die Bestattungsindustrie könnte dazu einen Beitrag leisten. »Das bedeutet, dass man versuchen muss, solche KI-Anwendung zurückzuholen in den Kreis derjenigen, die professionell damit umgehen können«. So sei es auch denkbar, dass Bestatter solche Dienste selbst anbieten.
Zudem müssten Menschen die Möglichkeit bekommen, auch über den Tod hinaus über die eigenen Daten verfügen zu können.
© dpa-infocom, dpa:240317-99-367764/2