Nie jesteś zalogowany | Zaloguj się

Dekompozycja modeli obrazowych z wykorzystaniem kodowania rzadkiego oraz zastosowania w wyjaśnianiu niepewności predykcji

Prelegent(ci)
Łukasz Grad
Afiliacja
MIMUW
Termin
19 stycznia 2024 16:15
Pokój
p. 4060
Seminarium
Seminarium badawcze „Systemy Inteligentne”

Głębokie sieci neuronowe (and. Deep Neural Networks, DNN) wykazują zdolność do znajdowania wyjątkowo bogatych reprezentacji danych. W celu lepszego zrozumienia działania tych modeli, wiele uwagi w ostatnich latach poświęcono na rozwój metod pozwalających na analizę i wnioskowanie oparte o przestrzenie aktywacji poszczególnych warstw ukrytych. Zainspirowany najnowszymi wynikami związanymi z wyjaśnialnością dużych modeli językowych, w prezentacji przedstawię zjawisko superpozycji występujące w modelach DNN, gdzie model jest w stanie przeprowadzać operacje na przestrzeni cech o wymiarowości większej niż wymiar poszczególnych warstw ukrytych. Następnie opowiem jak może ono być wykorzystane do dekompozycji tych modeli do interpretowalnej przestrzeni konceptów przy użyciu metod kodowania rzadkiego. Dalej, chciałbym przedstawić wstępne wyniki otrzymane w ramach prac badawczych z wykorzystaniem pow. metod dla modeli uczonych na danych obrazowych. Na koniec, opowiem o dalszych planach badawczych zw. z wykorzystaniem metod dekompozycji w celu rozwoju metod wyjaśniania niepewności predykcji modeli DNN.