Plan wykładu
- Wykład 1 (28/02): Wprowadzenie do systemów uczących się
Przegląd metod w SUS: Uczenie z nadzorem, uczenie bez nadzoru, uczenie ze wzmocnieniem. Proste klasyfikatory: KNN, Naive Bayes.
Sprawy organizacyjne - Wykład 2 (7/03): Ocena klasyfikatorów
Macierz błędu, przedział ufności, techniki Walidacji krzyżowej (CV-k) i Bootstrapping
- Wykład 3 (14/03):Drzewo decyzyjne
Działanie i metody konstrukcji drzew decyzyjnych, technika przycinania drzew
- Wykład 4 (21/03): Sieci Neuronowe
Działanie, struktury i metody uczenia sieci neuronowych; algorytm Propagacji Wstecznej
- Wykład 5 (28/03): Redukty i klasyfikatory regułowe
Znane techniki w teorii zbiorów przybliżonych
- Wykład 6 (4/04): Teoria uczenia się (I)
Statystyczna teoria uczenia się, pojęcia PAC learning, wyuczalności przestrzeni hipotez, wymiar Vapnika-Chervonenkisa (VC-dim)
- Wykład 7 (11/04): Teoria uczenia się (II)
Podstawowe twierdzenia w teorii uczenia się. Non-free lunch Theorem
- Wykład 8 (25/04): Problem selekcji i ekstrakcji cech
Znane techniki selekcji i ekstrakcji atrybutów przydatnych do klasyfikacji
- Wykład 9 (9/05): Metody grupowania danych (clustering)
Algorytmy k centroidów ( k-means), hierarchiczne i rozmyte (fuzzy clustering)
- Wykład 10 (16/05): Sieci neuronowe w problemach grupowania danych
Sieci rekurencyjne, sieć Hopfielda, SOM …
- Wykład 11 (23/05): Sieci Bayesowskie
DAG, d-seperacja, wnioskowanie, estymacja sieci
- Wykład 12 (30/05): Metoda wektorów wspierających (SVM)
Jedna z t.z. Kernel methods in machine learning
- Wykład 13 (6/06): Boosting i
Metody Ukrytego Modelu Markowa (HMM)
Algorytm Ada-Boost, Algorytm Baum-Welcha
- Wykład 14 (13/06): Uczenie ze wzmocnieniem
Proces decyzyjny Markowa, algorytmy Dynamic programming (DP), Monte Carlo (MC), Temporal Difference Learning (TD), Sarsa, Q learning, ...
- Przykładowe egzaminy z SUSu w latach 2010, 2012 i2018.
Przerwa wiosenna (18/04)
Majówka (2/05)
Egzamin: Piątek, 16/06/2017, Godz. 14:00-17:00, Sala 3180