KI sucht Voreingenommenheit in Datensets

Das Tochterunternehmen des Internetkonzerns Amazon, Amazon Web Services, hat eine künstliche Intelligenz entwickelt, mit der die eventuell ungleiche Verteilung von Datensätzen analysiert werden kann. Als Grundlage dient ein Algorithmus namens „SageMaker Clarify“, der auf verschiedene Datensets von ML-Modellen angewandt werden kann und diese in Bezug auf Geschlecht, Altersklassen oder ethnische Herkunft nach Ausgeglichenheit untersucht. Wenn ML- Modelle einseitig mit Daten trainiert werden und sich beispielsweise größtenteils auf weiße Männer beziehen, können Annahmen verzerrt und Vorurteile verstärkt werden.

Quelle: TrendOne