Jak Big Data zmienia codzienne życie w Ameryce?

Jak Big Data zmienia codzienne życie w Ameryce?
Jak Big Data zmienia codzienne życie w Ameryce?

Wideo: Wpływ Astronomii na życie codzienne 2024, Lipiec

Wideo: Wpływ Astronomii na życie codzienne 2024, Lipiec
Anonim

Idea „dużych zbiorów danych” stała się wszechobecna, ale co to jest i jak zmienia sposób naszego życia? Spotkaliśmy się z naukowcem danych, doktorem Harvardem i nominowaną do nagrody National Book Award Cathy O'Neil.

CT: Zacznijmy od podstaw - czym dokładnie jest „big data”?

CO: Big data to nowe podejście do przewidywania rzeczy. Mówiąc dokładniej, „duże zbiory danych” to wykorzystanie przypadkowo zgromadzonych danych - takich jak sposób wyszukiwania w przeglądarce lub to, co robisz na Facebooku - do wnioskowania o tobie, na przykład o tym, co zamierzasz kupić lub jakie są twoje powiązania polityczne. Jest to pośredni sposób rozszyfrowywania ludzi. Na przykład kamera, która nas obserwuje, nie pyta „Co robisz?” - po prostu widzi, co robimy.

CT: A jaki jest algorytm?

CO: Algorytmy to obliczenia, które [interpretują] dane zebrane o tobie w celu stworzenia prognozy. Pomyśl o tym jak o matematycznym równaniu, które próbuje odpowiedzieć na pytanie sformułowane jako prognoza, na przykład: „Czy ta osoba ma zamiar coś kupić?”. lub „Czy ta osoba ma zamiar głosować na kogoś?”

CT: Dlaczego tak dużo o tym słyszę?

CO: Przed „dużymi zbiorami danych” statystycy robili drogie rzeczy, takie jak ankietowanie ludzi, aby dowiedzieć się o przyszłości. Na przykład zadawanie ludziom bezpośrednich pytań, takich jak: „Na kogo będziesz głosować?” Teraz coraz bardziej polegamy na „wyczerpywaniu danych”, co nazywam danymi, które są gromadzone na Twój temat w sposób ciągły, aby wnioskować o Tobie.

Przed „big data” firmy musiały jedynie zgadywać. Teraz mamy lepsze niż dzikie domysły. Zaskakujące jest to, że większość algorytmów dużych zbiorów danych jest bardzo niedokładna i nie ma powodu, aby sądzić, że mają rację. Ale są lepsze niż dzikie domysły. I dlatego big data wystartowało tak, jak miało to miejsce.

CT: Jeśli są niedokładne, to co odzwierciedlają?

CO: Błędne zestawy danych, którymi je karmimy. Algorytmy nie wiedzą nic poza tym, co im mówimy. Więc kiedy mamy nierówne dane i karmimy je algorytmem lub stronniczymi danymi, pomyśli, że to rzeczywistość.

Image

Ailsa Johnson / © Culture Trip

CT: Jaki jest tego przykład w świecie rzeczywistym?

CO: Przykładem może być to, że w Stanach Zjednoczonych Czarni pięć razy częściej są aresztowani za palenie trawki niż biali. Nie dzieje się tak, ponieważ Czarni palą częściej trawkę - obie grupy palą trawkę w tym samym tempie. Czarni są po prostu znacznie bardziej za to aresztowani. Jeśli przekażesz to algorytmowi, który my robimy, poprawnie wywnioskujesz, że czarni ludzie będą w przyszłości bardziej prawdopodobnie aresztowani za palenie tytoniu. A potem da Czarnym wyższe oceny ryzyka za przestępczość, co ma wpływ na skazanie.

Innym przykładem jest eksperyment myślowy. Użyję Fox News, ponieważ Fox News miał ostatnio erupcje związane z wewnętrzną kulturą seksizmu. Eksperyment brzmi: „Co by się stało, gdyby Fox News próbował wykorzystać własne dane do zbudowania algorytmu uczenia maszynowego do zatrudniania ludzi w przyszłości?”

Powiedzmy, że szukamy na przykład ludzi, którzy odnieśli sukces w Fox News. To zależy od tego, jak zdefiniujesz sukces, ale zwykle patrzysz na ludzi, którzy dostają podwyżki, promocje lub zostają na długi czas. Według któregokolwiek z tych danych dane odzwierciedlają, że kobiety nie odnoszą sukcesów w Fox News. Jeśli zostanie zastosowany jako algorytm zatrudniania, propaguje ten problem. Spojrzałby na grupę kandydatów i powiedziałby: „Nie chcę zatrudniać żadnych kobiet, ponieważ tutaj nie odnoszą one sukcesu. Nie są dobrymi pracownikami. I to nie musi być tylko Fox News - każda kultura korporacyjna ma uprzedzenia. Kiedy podajesz dane algorytmu, uprzedzenie algorytmu następnie propaguje to. Nadal wzmacnia uprzedzenia, które już istnieją w społeczeństwie.

CT: Czy uprzedzenia są celowe?

CO: Nie sądzę, żeby naukowcy danych próbowali tworzyć seksistowskie lub rasistowskie algorytmy. Ale algorytmy uczenia maszynowego są wyjątkowo dobre w wykrywaniu stosunkowo niuansowych wzorców, a następnie ich propagowaniu. To nie jest coś, co celowo robią naukowcy danych, ale to jednak stronniczość.

CT: Jaką rolę odgrywają niedokładne algorytmy w naszym codziennym życiu?

CO: Są wykorzystywane przy podejmowaniu różnego rodzaju decyzji dotyczących życia ludzi - od przyjęć do college'u po znalezienie pracy.

Istnieją algorytmy, które decydują o tym, w jaki sposób policja będzie pilnować dzielnic, a także algorytmy, które decydują o tym, jak sędziowie będą karać oskarżonych. Istnieją algorytmy, które decydują o tym, ile zapłacisz za ubezpieczenie lub jaki rodzaj APR [stopy procentowej] otrzymasz na karcie kredytowej. Istnieją algorytmy decydujące o tym, jak sobie radzisz w pracy, które służą do określania podwyżek. Istnieją algorytmy na każdym etapie, od narodzin aż do śmierci.

CT: Więc gdzie nas to opuszcza?

CO: Wkroczyliśmy w erę dużych zbiorów danych i rzuciliśmy algorytmy na każdy problem, który mamy, zakładając, że algorytmy te muszą być bardziej sprawiedliwe niż ludzie - ale w rzeczywistości są tak samo niesprawiedliwe jak ludzie. Musimy działać lepiej.

Kliknij tutaj, aby przeczytać drugą część naszego wywiadu z dr O'Neilem. Jej książka „Weapons of Math Destruction: How Big Data zwiększa nierówność i zagraża demokracji” jest już dostępna.