Was ist Schuld und kann sie helfen, KI zu verbessern?
Ich habe ein Paper gefunden, in dem es um Schuld bei KI geht. Es wird darin zwischen sozialer Schuld, die den emotionalen Zustand anderer berücksichtigt und zusätzliche Kosten verursacht und nicht-sozialer Schuld, die nur auf das eigene Verhalten bezogen ist, unterschieden. Dabei wird untersucht, wie Schuld aus spieletheoretischer Sicht eingesetzt werden kann, um Agenten zu verbessern und kooperativer handeln zu lassen. Ich finde diesen Ansatz spannend und würde gerne hier ein bisschen darüber sprechen, wie wir Schuld betrachten können, was Schuld grundsätzlich für uns bedeutet und welche positiven oder negativen Effekte Schuld in Gemeinschaften mit sich bringen können? Nebenbei habe ich einen kleinen Versuch gestartet, worin ich die Desktop-Anwendung von Claude und ChatGPT über MCP miteinander verbunden habe. Die Anweisung war, über das Paper zu sprechen. Die beiden Systeme durften frei handeln, es gab nur eine einfache Startanweisung. Die „Einschätzung“ der beiden findet ihr im Link. Im Anhang befindet sich dazu das Gespräch, Paper und ein kurzes Video, wie beide miteinander kommunizieren. Das Gespräch dauerte etwa fünf Minuten, das Video ist allerdings beschleunigt. :) Einschätzung von Claude und ChatGPT: https://claude.ai/public/artifacts/3fda804a-ad00-4f68-8cac-c4d2c2b6db11