Vorurteile, behaupten viele, seien schlecht.
Man könnte ja nicht aus irgendwelchen Merkmalen ableiten, ob eine bestimmte Person auch so sei, wie man aufgrund dieser Merkmale annehme.
Allerdings scheint es durchaus so zu sein, dass Vorurteile bzw. Stereotypen häufig recht gut „funktionieren“ und möglicherweise auch evolutionär Sinn ergeben, um Problemen aus dem Weg zu gehen, bevor man sie bekommt.
Die Kunst der Pauschalisierung gibt es jetzt allerdings auch in digital, und wenn nicht Menschen, sondern Maschinen pauschalisieren, dann nennt man das „big data“ bzw. „machine learning“, und weil es nachvollziehbar zu sein scheint, wie Algorithmen aus irgendwelchen Daten Wahrscheinlichkeiten für irgendwelche Dinge ausrechnen, zum Beispiel aus Wohngegend, Nachnamen und letzten Einkäufen beim Versandhandel die Kreditwürdigkeit, findet die „digitalen Vorurteile“ anscheinend auch niemand richtig schlimm. Obwohl natürlich auch die automatisch Faktoren gewichtenden Algorithmen im Endeffekt nur auf Basis von bekannten Daten versuchen unbekannte Daten vorherzusagen und damit nur mit einer gewissen Wahrscheinlichkeit richtig liegen. Was ganz genau dem Prinzip des Vorurteils entspricht.
Es kann aber nur eines richtig sein: Entweder man kann aus Pauschalisierungen wertvolle Informationen gewinnen, dann müsste man möglicherweise aufhören, Vorurteile bzw. Stereotype als Teufelswerk und moralisch verwerflich anzusehen. ((Vielleicht ist es ja doch vernünftig, Angst vor Pitbulls zu haben oder Gebrauchtwagenhändlern nicht zu trauen, nur auf Basis entsprechender Vorurteile?))
Oder man kann auf diese Weise keine wertvollen Informationen gewinnen, dann müsste man aufhören, big data und machine-learning zu Wundertechniken hochzujazzen, die wahlweise ganz toll oder ganz bedrohlich sind, denn dann wäre das einfach nur Bullshit.