Dieses Konzept stammt aus der KI-Ethik und KI-Sicherheitsforschung. Es geht darum, KI-Systeme so zu entwickeln, dass sie nicht nur die Aufgaben erfüllen, für die sie programmiert wurden, sondern dass ihre Ziele und Handlungen auch wirklich mit den Werten, Zielen und Wünschen von uns Menschen übereinstimmen. Superalignment strebt also eine möglichst umfassende und robuste Ausrichtung von KI-Systemen an menschlichen Interessen an, besonders im Hinblick auf zukünftige, möglicherweise sehr mächtige KI-Systeme.
Superalignment
« Back to Glossary Index