Dezinformacja lub artefakt: nowy sposób myślenia o uczeniu maszynowym
Głębokie sieci neuronowe, wielowarstwowe systemy zbudowane w celu przetwarzania obrazów i innych danych za pomocą modelowania matematycznego są kamieniem węgielnym sztucznej inteligencji.
Są w stanie uzyskać pozornie wyrafinowane wyniki, ale można je również oszukać na różne sposoby, od stosunkowo nieszkodliwych – błędnej identyfikacji jednego zwierzęcia jako drugiego – do potencjalnie śmiertelnych, jeśli sieć prowadząca samodzielnie prowadzący samochód błędnie zinterpretuje znak stopu jako wskazujący na to że można bezpiecznie kontynuować jazdę.
Filozof z University of Houston sugeruje w artykule opublikowanym w Nature Machine Intelligence, że powszechne przypuszczenia dotyczące przyczyny tych rzekomych awarii mogą być błędne, co jest informacją kluczową dla oceny niezawodności tych sieci.
Ponieważ uczenie maszynowe i inne formy sztucznej inteligencji stają się coraz bardziej zakorzenione w społeczeństwie i są wykorzystywane we wszystkim, od automatów kasowych po systemy cyberbezpieczeństwa, Cameron Buckner, profesor filozofii na UH, powiedział, że kluczowe jest zrozumienie źródła pozornych awarii spowodowanych przez to, co badacze nazywają „przeciwstawnymi przykładami”, kiedy system głębokich sieci neuronowych błędnie ocenia obrazy lub inne dane w konfrontacji z informacjami spoza danych wejściowych szkoleniowych użytych do budowy sieci. Są rzadkie i nazywane są „kontradyktoryjnymi”, ponieważ często są tworzone lub odkrywane przez inną sieć uczenia maszynowego – rodzaj pomostu w świecie uczenia maszynowego między bardziej wyrafinowanymi metodami tworzenia przeciwstawnych przykładów i bardziej wyrafinowanymi metodami ich wykrywania i unikania .
„Niektóre z tych wydarzeń mogą być artefaktami i musimy lepiej wiedzieć, czym one są, aby wiedzieć, jak niezawodne są te sieci” – powiedział Buckner.
Innymi słowy, przerwanie zapłonu może być spowodowane interakcją między tym, co sieć ma przetworzyć, a rzeczywistymi wzorcami. To nie to samo, co całkowity błąd.
„Zrozumienie implikacji przykładów kontradyktoryjnych wymaga zbadania trzeciej możliwości: przynajmniej niektóre z tych wzorców to artefakty” – napisał Buckner. „… Zatem obecnie po prostu odrzucenie tych wzorców wiąże się z kosztami i niebezpieczeństwami związanymi z ich naiwnym użyciem”.
Zdarzenia kontradyktoryjne, które powodują, że systemy uczące się popełniają błędy, niekoniecznie są spowodowane celowym nadużyciem, ale właśnie tam pojawia się największe ryzyko.
„Oznacza to, że złośliwi aktorzy mogą oszukać systemy, które opierają się na niezawodnej sieci” – powiedział Buckner. „To ma aplikacje zabezpieczające”.
System bezpieczeństwa oparty na technologii rozpoznawania twarzy może zostać zhakowany, aby na przykład umożliwić naruszenie, lub naklejki mogą zostać umieszczone na znakach drogowych, które spowodują, że samochody autonomiczne będą błędnie interpretować znak, nawet jeśli wydają się one nieszkodliwe dla obserwatora.
Wcześniejsze badania wykazały, że wbrew wcześniejszym założeniom istnieją pewne naturalnie występujące sprzeczne przykłady – sytuacje, w których system uczenia maszynowego błędnie interpretuje dane poprzez nieoczekiwaną interakcję, a nie przez błąd w danych. Są rzadkie i można je odkryć tylko dzięki wykorzystaniu sztucznej inteligencji.
Ale są prawdziwe, a Buckner powiedział, że sugeruje to potrzebę ponownego przemyślenia sposobu, w jaki naukowcy podchodzą do anomalii lub artefaktów.
Te artefakty nie zostały dobrze poznane; Buckner przedstawia analogię do flary obiektywu na zdjęciu – zjawiska, które nie jest spowodowane defektem obiektywu aparatu, ale jest wytwarzane przez interakcję światła z aparatem.
Flara obiektywu potencjalnie dostarcza przydatnych informacji – na przykład położenia słońca – jeśli wiesz, jak to zinterpretować. To, jak powiedział, rodzi pytanie, czy zdarzenia niepożądane w uczeniu maszynowym, które są spowodowane przez artefakt, również mają do zaoferowania przydatne informacje.
Równie ważne, powiedział Buckner, jest to, że ten nowy sposób myślenia o sposobie, w jaki artefakty mogą wpływać na głębokie sieci neuronowe, sugeruje, że błędne odczytanie przez sieć nie powinno być automatycznie uznawane za dowód na to, że uczenie głębokie jest nieważne.
„Niektóre z tych przeciwstawnych wydarzeń mogą być artefaktami” – powiedział. „Musimy wiedzieć, czym są te artefakty, aby wiedzieć, jak niezawodne są sieci”.