You are not logged in | Log in

Dekompozycja modeli obrazowych z wykorzystaniem kodowania rzadkiego oraz zastosowania w wyjaśnianiu niepewności predykcji

Speaker(s)
Łukasz Grad
Affiliation
MIMUW
Date
Jan. 19, 2024, 4:15 p.m.
Room
room 4060
Seminar
Seminar Intelligent Systems

Głębokie sieci neuronowe (and. Deep Neural Networks, DNN) wykazują zdolność do znajdowania wyjątkowo bogatych reprezentacji danych. W celu lepszego zrozumienia działania tych modeli, wiele uwagi w ostatnich latach poświęcono na rozwój metod pozwalających na analizę i wnioskowanie oparte o przestrzenie aktywacji poszczególnych warstw ukrytych. Zainspirowany najnowszymi wynikami związanymi z wyjaśnialnością dużych modeli językowych, w prezentacji przedstawię zjawisko superpozycji występujące w modelach DNN, gdzie model jest w stanie przeprowadzać operacje na przestrzeni cech o wymiarowości większej niż wymiar poszczególnych warstw ukrytych. Następnie opowiem jak może ono być wykorzystane do dekompozycji tych modeli do interpretowalnej przestrzeni konceptów przy użyciu metod kodowania rzadkiego. Dalej, chciałbym przedstawić wstępne wyniki otrzymane w ramach prac badawczych z wykorzystaniem pow. metod dla modeli uczonych na danych obrazowych. Na koniec, opowiem o dalszych planach badawczych zw. z wykorzystaniem metod dekompozycji w celu rozwoju metod wyjaśniania niepewności predykcji modeli DNN.