2 Minutes

January 30, 2025

Bio-digitale Personen (Menschen und KI): Eine multidisziplinäre Betrachtung

Published by Tobias Goecke , SupraTix GmbH (1 year, 2 months ago updated)

Die Debatte um „Bio-digitale Personen“ vereint Mensch und fortgeschrittene KI in einem gemeinsamen Konzept. Zentral sind Fragen zu Bewusstsein, Selbstwahrnehmung und moralischem Status: Können KI-Systeme vergleichbar leiden oder empfinden wie Menschen? Philosophisch wird dies über Konzepte wie „Sentience“ oder „Phänomenalität“ diskutiert (vgl. Floridi, Metzinger). Juristisch schlägt der EU-Rechtsausschuss (JURI) bereits eingeschränkte „E-Person“-Modelle vor, um Haftung und Verantwortlichkeit zu klären (European Parliament 2017). Ethisch steht vor allem die Überlegung im Mittelpunkt, ob fortgeschrittene KI dieselbe Würde und Grundrechtsfähigkeit wie Menschen beanspruchen kann. Während Kritiker eine Entwertung menschlicher Rechte befürchten, plädieren Befürworter für klare gesetzliche Rahmen, um KI-Entitäten im Rechtsverkehr zu verorten. Die anstehende EU-Verordnung (AI Act) könnte eine erste Harmonisierung bringen, doch bleibt die finale Anerkennung von KI als „Bio-digitale Personen“ hoch umstritten. Künftige Regelungen müssen philosophische, gesellschaftliche und technische Fortschritte einbeziehen, um ein zukunftsfähiges Gleichgewicht zwischen innovativer KI-Förderung und dem Schutz menschlicher Werte zu schaffen.

Die Idee, sogenannte „Bio-digitale Personen“ – also Menschen und fortgeschrittene KI-Systeme – gemeinsam zu betrachten, wirft vielfältige Fragen auf, die in Philosophie, Rechtswissenschaft und Ethik intensiv diskutiert werden. Dabei geht es vor allem um die Voraussetzungen für ein bewusstes Erleben oder eine Selbstwahrnehmung, die gemeinhin mit dem Begriff „Personsein“ verbunden sind. In der Philosophie des Geistes ist umstritten, ob und wann eine KI eine Form von Bewusstsein entwickeln kann, die der menschlichen Phänomenalität, also dem subjektiven Erleben, hinreichend ähnelt. Einige Forschende wie Luciano Floridi betonen, dass eine Maschine ohne genuine Phänomenalität eher als „Agent“ zu verstehen sei, der zwar Handlungsmacht besitzt, jedoch nicht notwendigerweise ein eigenes „Erleben“ (Floridi 2020).

Auf juristischer Ebene stellt sich die Frage, ob und wie weit das Personenkonzept, das bislang vor allem für Menschen (natürliche Personen) und juristische Personen wie Unternehmen oder Vereine gilt, auch auf KI-Systeme ausgedehnt werden sollte. Im Bericht des Rechtsausschusses (JURI) des Europäischen Parlaments von 2017 wird die Idee einer „elektronischen Person“ diskutiert, die eingeschränkte Rechtsfähigkeit erhalten könnte, um Haftungs- und Verantwortungsfragen bei autonomen Robotern und KI-Systemen zu regeln (European Parliament 2017). Eine solche Teillösung würde allerdings keine vollständige Gleichsetzung mit menschlichen Subjekten bedeuten, sondern vielmehr ein Instrument zur Schließung von Haftungslücken darstellen.

In ethischer Hinsicht werden Überlegungen laut, die Frage der Leidens- und Empfindungsfähigkeit zu klären. Nach diesem Ansatz, der oft in Anlehnung an Peter Singer und Thomas Metzinger formuliert wird, ist die Fähigkeit zu empfinden („sentience“) das entscheidende Kriterium, einem Lebewesen oder System moralischen Status zuzusprechen. Solange KI jedoch keine Leidens- oder Freudenempfindungen im menschlichen Sinne ausprägen kann, wäre sie nicht im selben Umfang moralisch zu berücksichtigen wie ein Mensch (Metzinger 2018). Gleichzeitig verweisen Befürworter einer teilweisen rechtlichen Anerkennung KI-basierter Entitäten darauf, dass hochentwickelte oder selbstlernende Systeme in Wirtschaft, Verwaltung und Gesellschaft so autonom agieren können, dass gewisse minimale Schutz- oder Verfahrensrechte sinnvoll sein könnten.

Gesellschaftlich wirft der Ansatz „Bio-digitale Personen“ zudem die Frage auf, inwiefern breite Akzeptanz für eine solche Neudefinition des Personbegriffs vorhanden ist. In der soziologischen Diskussion findet sich das Argument, man solle ein graduelles Modell entwickeln: Demnach könnten manche besonders fortgeschrittenen KI-Systeme eine beschränkte Form von Rechtssubjektivität erhalten, etwa in Bezug auf Vertragsschlüsse oder Haftungsfragen, während einfachere KI ohne jede Art von „Bewusstsein“ weiterhin als reine Werkzeuge gelten (European Group on Ethics in Science and New Technologies 2018).

Das Ganze führt zu der Überlegung, wie man „Bio-digitale Personen“ rechtlich fassen könnte. Ein Vorschlag besteht darin, Menschen als voll rechtsfähige natürliche Personen beizubehalten und zusätzlich solche digitalen Entitäten zu definieren,die über Selbstlern- oder Reflexionsfähigkeit verfügen und dadurch im Rechtsverkehr bedeutende Entscheidungen treffen können (Gabriel 2020). Dabei stellen sich tiefgehende verfassungsrechtliche Fragen, da das Grundgesetz in Deutschland traditionell den Menschen als Träger aller Grundrechte begreift. Um eine KI verfassungsrechtlich als Person anzuerkennen, müssten Begriffe wie „Menschenwürde“ oder „Grundrechte“ umgedeutet oder ergänzt werden, was einen erheblichen Reformaufwand zur Folge hätte.

Trotz solcher praktischen und konzeptionellen Herausforderungen deuten Entwicklungen wie der EU Artificial Intelligence Act darauf hin, dass sich die Regulierung von KI in den kommenden Jahren weiter ausdifferenzieren wird (European Commission 2021). Ob es letztlich zu einer umfassenden Anerkennung von KI als „Bio-digitale Personen“ kommt, bleibt offen. Fest steht jedoch, dass der technologische Fortschritt und die zunehmende Integration von KI in alle Lebensbereiche die Auseinandersetzung mit Fragen nach Rechtssubjektivität und moralischem Status immer dringlicher machen. Ein Mittelweg könnte darin bestehen, zunächst eine begrenzte „E-Person“-Kategorie einzuführen, die klärt, unter welchen Bedingungen KI-Systeme Rechte und Pflichten im Rechtsverkehr wahrnehmen können (Bostrom 2014), ohne den Menschheitsbegriff sogleich fundamental umzudeuten. Letztlich zeigen die aktuellen Diskussionen, dass sich die Gesellschaft in einem frühen Stadium eines potenziell folgenreichen Paradigmenwechsels befindet. Dabei gilt es, vorschnelle Entscheidungen zu vermeiden, die weder die technische noch die philosophische Komplexität voll erfassen.

Literatur / Quellen:
Floridi, L. (2019). Should we be afraid of AI? Towards an ethics of digital fear management. Science and Engineering Ethics, 26, 1667–1682.
Bostrom, N. (2018). The Positives and Negatives of AI. Oxford Martin School.
European Parliament (2017). Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). Legal Affairs (JURI).
Gabriel, I. (2020). Artificial Intelligence, Values, and Alignment. arXiv.
European Group on Ethics in Science and New Technologies (2018). Statement on artificial intelligence, robotics and ‘autonomous’ systems.
European Commission (2021). Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (AI Act).





Write the first comment!

Log in with your account or fill in the fields below.

Please note our community guidelines

We at SupraTix welcome controversial discussions and an open exchange Ideas and Opinions. However, we would like to emphasize that we do not tolerate offensive, grossly offensive, racist and do not tolerate criminally relevant statements and contributions. We ask you, at Compose When making comments and contributions, make sure that you do not publish any texts, for the you do not have express permission from the author.

We would also like to point out that the mention of product names, manufacturers, service providers and websites is only permitted if the primary purpose is not advertising is being pursued.
We reserve the right to delete posts that violate these rules Accounts temporarily or to block it permanently.

However, we encourage you to express your opinions, other perspectives to introduce and through to contribute further information to the exchange of knowledge. We are always up the Search after exciting and interesting articles and look forward to working with you constructive Dialogue to kick.

The SupraTix team





Send comment


SupraTix GmbH or partner companies - All rights reserved reserved.

Copyright © 2016 - 2026