You are not logged in | log in

Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego

  • Skala szarości
  • Wysoki kontrast
  • Negatyw
  • Podkreślenie linków
  • Reset

Aktualności — Wydarzenia

Seminar Intelligent Systems

 

Dekompozycja modeli obrazowych z wykorzystaniem kodowania rzadkiego oraz zastosowania w wyjaśnianiu niepewności predykcji


Prelegent: Łukasz Grad

2024-01-19 16:15

Głębokie sieci neuronowe (and. Deep Neural Networks, DNN) wykazują zdolność do znajdowania wyjątkowo bogatych reprezentacji danych. W celu lepszego zrozumienia działania tych modeli, wiele uwagi w ostatnich latach poświęcono na rozwój metod pozwalających na analizę i wnioskowanie oparte o przestrzenie aktywacji poszczególnych warstw ukrytych. Zainspirowany najnowszymi wynikami związanymi z wyjaśnialnością dużych modeli językowych, w prezentacji przedstawię zjawisko superpozycji występujące w modelach DNN, gdzie model jest w stanie przeprowadzać operacje na przestrzeni cech o wymiarowości większej niż wymiar poszczególnych warstw ukrytych. Następnie opowiem jak może ono być wykorzystane do dekompozycji tych modeli do interpretowalnej przestrzeni konceptów przy użyciu metod kodowania rzadkiego. Dalej, chciałbym przedstawić wstępne wyniki otrzymane w ramach prac badawczych z wykorzystaniem pow. metod dla modeli uczonych na danych obrazowych. Na koniec, opowiem o dalszych planach badawczych zw. z wykorzystaniem metod dekompozycji w celu rozwoju metod wyjaśniania niepewności predykcji modeli DNN.