Es ist eines dieser vielen Mini-Features, die den Alltag praktischer machen, kaum bewusst auffallen – und die deshalb auch keiner hinterfragt: der automatische Zuschnitt von Fotos, etwa auf Twitter. Die Plattform erkennt das inhaltliche "Zentrum" von hochgeladenen Bildern und schneidet diese so zu, dass User in ihren Twitter-Feeds bei besonders hohen und breiten Bildern den angeblich interessantesten Ausschnitt angezeigt bekommen. Das Problem dabei: Der Algorithmus scheint systematisch nichtweiße Personen wegzuschneiden.

Ein Twitter-User stellte den Zuschnittsalgorithmus auf die Probe: Er postete zwei schmale weiße Streifen, an deren oberem und unterem Ende jeweils gegengleich die Porträts des früheren US-Präsidenten Barack Obama und des republikanischen Politikers Mitch McConnell platziert waren. Twitter entschied sich in beiden Fällen für McConnell, in der nichtexpandierten Ansicht ist Obama weggeschnitten.

Lenny statt Carl

Andere Twitter-User versuchten das Verhalten zu replizieren: Auch Michael Jackson scheint Twitter mit heller Haut besser zu gefallen, sogar bei Zeichentrickfiguren bevorzugt die Plattform weiße Personen: Den schwarze Carl von den "Simpsons" schneidet Twitter weg, stattdessen fällt der Bildausschnitt auf seinen gelben Kumpanen Lenny.

Racial Bias in KI-Systemen wird zum Problem

Twitter arbeitet beim Zuschnitt von Fotos mit einem Machine-Learning-Modell, wie das Unternehmen in einem Blogpost von 2018 schrieb. Zuvor habe man sich auf klassische Gesichtserkennung verlassen, die jedoch fehleranfällig war – schließlich befindet sich nicht in jedem Bild ein Gesicht. Der neue Algorithmus hingegen stelle die "interessantesten" Merkmale eine Bildes ins Zentrum.

Der sogenannte "Racial Bias" von künstlicher Intelligenz kommt immer wieder zum Vorschein, beim Twitter-Algorithmus handelt es sich aber noch um ein vergleichsweise harmloses Beispiel. So wurde etwa bekannt, dass autonome Autos schwarze Menschen eher überfahren und dass ein System, das viele US-Krankenhäuser einsetzen, Schwarzen schlechtere Behandlung beschert. Auch Gesichtserkennung, die weltweit zunehmend eingesetzt wird, ist bei Schwarzen fehleranfälliger.

Twitter will untersuchen

Manche führen das Problem auf die mangelnde Diversität im Technologiesektor zurück, ein Problem könnten auch die Datensätze sein, mit denen KI-Modelle trainiert werden. Die Modelle würden dann menschliche Fehler und Vorurteile reproduzieren. Auch der Zuschnittsalgorithmus von Twitter wurden laut dem Unternehmen mit Material von externen Dienstleistern trainiert.

Allerdings scheint die Hautfarbe nicht das einzige Entscheidungskriterium für den Zuschnitt von Twitter-Bildern zu sein, wie Experimente von anderen Twitter-Usern zeigen. Möglicherweise spielt etwa der Kontrast eine Rolle. Dantley Davis, Chef für Design und Entwicklung bei Twitter, tweete etwa ein Bild, bei dem sich der Algorithmus für eine schwarze Person "entschied".

Davis werde das Problem jedenfalls "untersuchen", schrieb er auf Twitter. Auch der Twitter-Technologiechef Parag Agrawal twitterte, dass das Modell "laufende Anpassung" benötigt. Er sei aber froh über die "öffentlichen, offenen und rigorosen" Experimente der Twittter-Nutzer, von denen er lernen wolle.

(pp, 21.9.2020)