Dlaczego powinniśmy być znużeni sztuczną inteligencją, która potrafi odczytać nasze emocje

Dlaczego powinniśmy być znużeni sztuczną inteligencją, która potrafi odczytać nasze emocje

[ad_1]

ja

Wyobraź sobie, że jesteś na rozmowie o pracę. Gdy odpowiadasz na pytania rekrutera, sztuczna inteligencja (AI) system skanuje twoją twarz, oceniając cię za nerwowość, empatię i niezawodność. To może brzmieć fantastyka naukowaale te systemy są coraz częściej używane, często bez wiedzy ludzi lub zgodę.

Technologia rozpoznawania emocji (ERT) faktycznie się rozwija wielomiliardowy przemysł która ma na celu wykorzystanie sztucznej inteligencji do wykrywania emocji na podstawie mimiki twarzy. Jednak nauka stojąca za systemami rozpoznawania emocji jest kontrowersyjne: w systemy są wbudowane uprzedzenia.

Wiele firm korzysta z ERT do testowania reakcji klientów do ich produktów, od zbóż po gry wideo. Ale może być również używany w sytuacjach, w których jest dużo wyższe stawki, na przykład w wynajmowanie, przez ochrona na lotnisku oznaczać twarze jako ujawniające oszustwo lub strach kontrola graniczna, w policja zidentyfikować „niebezpiecznych ludzi” lub w Edukacja do monitorowania zaangażowania uczniów w odrabianie prac domowych.

Chwiejny grunt naukowy

Na szczęście technologia rozpoznawania twarzy przyciąga uwagę opinii publicznej. Wielokrotnie nagradzany film Kodowane odchylenieopublikowany niedawno w serwisie Netflix dokumentuje odkrycie, że wiele technologii rozpoznawania twarzy nie wykrywa dokładnie twarzy o ciemniejszej karnacji. Zespół badawczy zarządzający ImageNet, jednym z największych i najważniejszych zbiorów danych wykorzystywanych do trenowania rozpoznawania twarzy, został ostatnio zmuszony do zamazania 1,5 miliona obrazów w odpowiedzi na obawy dotyczące prywatności.

Rewelacje na temat błędów algorytmicznych i dyskryminujących zbiorów danych w technologii rozpoznawania twarzy skłoniły duże firmy technologiczne, w tym Microsoft, Amazon i IBM, do wstrzymania sprzedaży. I technologia stoi przed wyzwaniami prawnymi w zakresie wykorzystania go w działaniach policyjnych w Wielkiej Brytanii. W UE istnieje koalicja ponad 40 organizacji społeczeństwa obywatelskiego wezwał do zakazu całkowicie na technologii rozpoznawania twarzy.

Podobnie jak inne formy rozpoznawania twarzy, ERT stawia pytania o uprzedzenia, prywatność i masową inwigilację. Ale ERT budzi inny niepokój: nauka o emocjach, która za tym stoi, jest kontrowersyjna. Większość ERT jest oparta na teoria „podstawowych emocji” który utrzymuje, że emocje są biologicznie zakorzenione i wyrażane w ten sam sposób przez ludzi na całym świecie.



Technologie mogą być niebezpieczne, gdy nie działają tak, jak powinny. Mogą też być niebezpieczne, gdy doskonale sprawdzają się w niedoskonałym świecie

Jest to jednak coraz częściej kwestionowane. Badania antropologiczne pokazują, że emocje są wyrażane w różny sposób w różnych kulturach i społeczeństwach. W 2019 roku Stowarzyszenie Nauk Psychologicznych przeprowadziło przegląd dowodów, stwierdzając, że nie ma naukowego wsparcia dla powszechnego założenia, że ​​stan emocjonalny osoby można łatwo wywnioskować na podstawie ruchów twarzy. Krótko mówiąc, ERT opiera się na niepewnych podstawach naukowych.

Podobnie jak inne formy technologii rozpoznawania twarzy, ERT jest kodowane z uprzedzeniami rasowymi. Badanie pokazał systemy te konsekwentnie odczytują twarze czarnych ludzi jako bardziej wściekłe niż twarze białych, niezależnie od wyrazu twarzy. Mimo że badanie uprzedzeń rasowych w ERT jest niewielka, uprzedzenia rasowe w innych formach rozpoznawania twarzy są dobrze udokumentowane.

Są dwa sposoby, w jakie ta technologia może ranić ludzi, mówi badaczka sztucznej inteligencji Deborah Raji w rozmowie z Przegląd technologii MIT: „Jednym ze sposobów jest niedziałanie: z uwagi na wyższe wskaźniki błędów dla osób kolorowych naraża je na większe ryzyko. Druga sytuacja ma miejsce, gdy to działa – gdy masz doskonały system rozpoznawania twarzy, ale można go łatwo wykorzystać przeciwko społecznościom, aby je nękać ”.

Więc nawet jeśli technologia rozpoznawania twarzy może być pozbawiona tendencji i dokładna dla wszystkich ludzi, nadal może być niesprawiedliwa lub sprawiedliwa. Widzimy to różne efekty kiedy technologia rozpoznawania twarzy jest wykorzystywana w policyjnych i sądowych systemach, które już są dyskryminujące i szkodliwe dla osób kolorowych. Technologie mogą być niebezpieczne, gdy nie działają tak, jak powinny. Mogą też być niebezpieczne, gdy doskonale sprawdzają się w niedoskonałym świecie.

Wyzwania związane z technologiami rozpoznawania twarzy – w tym ERT – nie mają łatwych ani jasnych odpowiedzi. Rozwiązanie problemów przedstawionych przez ERT wymaga przejścia od etyki AI skoncentrowanej na abstrakcyjnych zasadach do etyki AI skoncentrowanej na ćwiczyć i efekty na życie ludzi.

Jeśli chodzi o ERT, musimy wspólnie zbadać kontrowersyjną naukę o emocjach wbudowaną w te systemy i przeanalizować ich potencjał w zakresie uprzedzeń rasowych. I musimy zadać sobie pytanie: nawet jeśli ERT można by zaprojektować tak, aby dokładnie odczytywał wewnętrzne uczucia każdego, czy chcemy takiego intymnego nadzoru w naszym życiu? Są to pytania, które wymagają przemyślenia, wkładu i działania wszystkich.

Obywatelski projekt naukowy

ERT może wpływać na życie milionów ludzi, a jednak tak się stało mała debata publiczna o tym, jak – i czy – należy go użyć. Dlatego opracowaliśmy obywatelski projekt naukowy.

Na naszym interaktywna strona internetowa (który działa najlepiej na laptopie, a nie telefonie) możesz wypróbować prywatny i bezpieczny ERT dla siebie, aby zobaczyć, jak skanuje twoją twarz i interpretuje twoje emocje. Możesz także grać w gry porównujące umiejętności człowieka i sztucznej inteligencji w rozpoznawaniu emocji i dowiedzieć się o kontrowersyjnej nauce o emocjach stojącej za ERT.

Co najważniejsze, możesz wnieść swój punkt widzenia i pomysły do ​​generowania nowej wiedzy na temat potencjalnych skutków ERT. Jako informatyk i działacz cyfrowy Joy Buolamwinimówi: „Jeśli masz twarz, masz miejsce w rozmowie”.

Alexa Hagerty jest pracownikiem naukowym antropologii na Uniwersytecie Cambridge. Alexandra Albert jest pracownikiem naukowym w dziedzinie nauk społecznych obywatelskich na UCL. Ten artykuł pojawił się po raz pierwszy Rozmowa

[ad_2]

Source link