Ein ganz wichtiges und oft diskutiertes Thema! Bias in der KI bedeutet, dass ein KI-System systematische Fehler macht, die oft auf falschen Annahmen in den Trainingsdaten oder im Algorithmus selbst beruhen. Wenn eine KI beispielsweise hauptsächlich mit Daten von einer bestimmten Bevölkerungsgruppe trainiert wird, kann sie für andere Gruppen schlechtere oder sogar unfaire Ergebnisse liefern. Microsoft weist darauf hin, dass es wichtig ist, Vorurteile in KI-Systemen zu erkennen und zu minimieren, um faire und gleichberechtigte Ergebnisse zu gewährleisten. „KI-Systeme sind nicht von Natur aus neutral. Sie spiegeln die Werte und Vorurteile der Menschen wider, die sie entwickeln und trainieren“, mahnt zum Beispiel die KI-Ethikerin Kate Crawford. Es ist super wichtig, sich dieser Verzerrungen bewusst zu sein und aktiv dagegenzusteuern.
Bias
« Back to Glossary Index