Dlaczego maszyny dyskryminują — i jak je naprawić

Dlaczego maszyny dyskryminują — i jak je naprawić

Serwerownia , z Shutterstock

Niektórzy wierzący w big data twierdzili, że w dużych zbiorach danych „ Liczby mówią same za siebie ”. Innymi słowy, im więcej dostępnych danych, tym maszyny są bliżej osiągnięcia obiektywności w podejmowaniu decyzji. Jednak badaczka danych Kate Crawford twierdzi, że nie zawsze tak jest, ponieważ duże zbiory danych mogą utrwalać te same uprzedzenia obecne w naszej kulturze, na przykład ucząc maszyny dyskryminacji podczas skanowania życiorysów lub zatwierdzania pożyczek.

A kiedy algorytmy robić dyskryminować, informatyk Suresh Venkatasubramanian mówi, że często słyszy wyrazy niedowierzania, takie jak: „ Algorytmy to tylko kod — robią tylko to, co im powiesz ”. Ale decyzje podejmowane przez algorytmy uczenia maszynowego są o wiele bardziej skomplikowane i nieprzejrzyste, niż się ludziom wydaje, co sprawia, że ​​wyśledzenie obraźliwej linii kodu jest prawie niemożliwe.



Jednym z rozwiązań, jak mówi, jest bardziej rygorystyczne przesiewanie algorytmów, testowanie ich na podzbiorach danych, aby sprawdzić, czy dają te same wysokiej jakości wyniki dla różnych populacji ludzi. Crawford twierdzi, że warto też inaczej szkolić informatyków, aby zwiększyć ich świadomość pułapek uczenia maszynowego w odniesieniu do rasy, płci, uprzedzeń i dyskryminacji.