Seminarium Zakładu Logiki Matematycznej - archiwum tematów z roku akad. 2002/03


4.10.2002 - Prof. Gheorghe Paun: "Membrane Computing. An Introduction".

Membrane computing is a branch of natural computing initiated in 1998 by Gh. Paun, which aim to abstract a computing model from the structure and the functioning of the living cell. A distributed parallel computing device is obtained, dealing with multisets of symbol-objects or with sets of strings placed in the compartments of a hierarchic membrane structure. Several variants of such devices were proposed in the literature. Most of them were shown to be computationally universal. When the possibility of creating exponential workspace exists (e.g., by cell division, string replication, or membrane creation), polynomial time solutions to NP-complete problems can be obtained.
The talk is an introductory one, with no biological background requested. Comprehensive information about the domain can be found at the web address http://psystems.disco.unimib.it.

11.10.2002 - Piotr Synak: "Analiza danych temporalnych".

25.10.2002 - Dominik Ślęzak i Jakub Wróblewski: "Rough set approach to parameterized concept approximation".

08.11.2002 - Arkadiusz Wojna: "Metody klasyfikacji oparte na pojęciach metryki i najbliższego sąsiedztwa".

15.11.2002 - Nguyen Hung Son: "Approximate Boolean reasoning: Foundation and Applications in data mining".

22.11.2002 - Marcin Wojnarski: "LTF-C: Sieć neuronowa do zadań klasyfikacyjnych".

LTF-C ma strukturę podobną do sieci radialnych (RBF). Wykorzystuje jednak nowy algorytm uczenia, składający się z 4 części: zmiany położeń pól recepcyjnych, zmiany rozmiarów pól recepcyjnych (niezależnie dla każdego neuronu i wymiaru), dynamicznego dodawania oraz usuwania neuronów. Sieć LTF-C została przetestowana w praktycznych problemach klasyfikacyjnych: rozpoznawaniu ręcznie pisanych cyfr, diagnozowaniu raka piersi, ocenie ryzyka kredytowego oraz modelowaniu zachowania klienta banku.

29.11.2002 - prof. dr hab. med. Jan Doroszewski: "Statystyczna i logiczna ocena prawdopodobieństwa w rozumowaniu biomedycznym".

06.12.2002 - Nguyen Tuan Trung: "Using Domain Knowledge to Improve Handwritten Digit Recognition".

13.12.2002 - Jan Bazan: "RSES - narzędzie informatyczne do analizy tablic danych z zastosowaniem teorii zbiorów przybliżonych".

20.12.2002 - Anna Gomolińska: "Zmiennoprecyzyjne przestrzenie zgodności". Streszczenie.

10.01.2003 - Marcin Szczuka.

17.01.2003 - Marcin Szczuka, Dominik Ślęzak, Jakub Wróblewski: "Probabilistyczne sieci neuronowe".

14.02.2003 - Seminarium poświęcone medycznym bazom danych, wystąpienia dr Marka Demczuka, Jakuba Wróblewskiego i dr Sebastiana Steca.

"Uwarunkowania zautomatyzowanej detekcji ryzyka", dr Marek Demczuk.
Proces diagnostyczno-terapeutyczny można opisać jako ciąg podejmowanych przez lekarza decyzji cząstkowych. Każda z tych cząstkowych decyzji oparta jest o chwilowy stan wiedzy lekarza o pacjencie. W chwili podejmowania jakiejś cząstkowej decyzji lekarz dysponuje zazwyczaj dość dużą liczbą sprecyzowanych informacji o stanie różnych cech (zmiennych) pacjenta. Jest naturalną właściwością umysłu ludzkiego niemożność jednoczesnego uwzględniania wielu informacji. Z tego powodu podejmując dowolną decyzję cząstkową lekarz bazuje na stanie jednej do trzech - czterech zmiennych, choć może przy tym odnosić zupełnie inne wrażenie. To od lekarza zależy, które cechy pacjenta (czyli zmienne) lekarz uzna za w danym momencie najważniejsze, przy czym proces selekcji spośród wszystkich dostępnych odbywa się w dużej mierze w sposób niezbyt świadomy - mówi się o takich czynnikach jak "doświadczenie lekarskie", "intuicja zawodowa" itp.
Z powyższego wynika, że informacja zawarta w pozostałych dostępnych a w danej chwili ignorowanych zmiennych nie ma w tejże chwili istotnego wpływu na decyzję podejmowaną przez lekarza. Ale nie wynika z tego bynajmniej, że jest to informacja nieistotna. Różni autorzy na różnym materiale klinicznym wielokrotnie wykazywali, że w rozmaitych zespołach zmiennych pochodzących z obszaru medycyny istnieje również informacja rozproszona, możliwa do ujawnienia przy zastosowaniu technik analizy wielowymiarowej. Z tego z kolei wynika, że gdyby taka informacja została w odpowiednim czasie przedstawiona lekarzowi w sposób dla niego zrozumiały, mogłaby znacząco wpłynąć na podejmowane przez lekarza decyzje cząstkowe.
Tym samym cały wyżej opisany problem daje się sprowadzić do możliwości technicznych - czy można wyprodukować instrument, za pomocą którego w odpowiednim czasie i w zrozumiały dla lekarza sposób przedstawiona zostanie informacja rozproszona, w dotychczas istniejących typowych warunkach ukryta przed intelektualnym wglądem umysłu lekarza-klinicysty.
Autor niniejszego referatu uważa, że skojarzenie nowoczesnych instrumentów matematycznych z nowoczesnymi technikami informatycznymi oraz właściwie i odpowiednio precyzyjnie zdefiniowanymi potrzebami klinicznymi uzasadnia twierdzącą odpowiedź na powyżej postawione pytanie. Niemniej taka odpowiedź uwarunkowana jest przyjęciem pewnych założeń. Przykładowo - nie jest możliwy do przyjęcia oczywisty dla każdego matematyka, statystyka czy nawet lekarza-naukowca postulat potrzeby wstępnego wyselekcjonowania zmiennych kandydujących, sprawdzenia ich rozkładu, ewentualnego skorygowania rozkładu pod kątem stosowanych instrumentów matematycznych czy też odwrotnie - doboru testów optymalnych dla istniejących danych, itp.
Warunkiem sukcesu w postulowanym przedsięwzięciu jest przyjęcie założenia, że przyszły użytkownik ma prawo nic nie wiedzieć nie tylko o powyższych postulatach, ale na dodatek może wcale nie rozumieć pojęcia "zmienna" tak jak rozumie to pojęcie matematyk. Lekarz-praktyk nie musi o tym wszystkim wiedzieć po prostu dlatego, że ta wiedza nie jest mu w niczym potrzebna do uprawiania zawodu na prawdziwie mistrzowskim poziomie.
Z powyższego wynika postulat pełnej automatyzacji wszelkich procedur matematyczno-informatycznych, co z kolei rodzi potrzebę kompromisów między wymaganiami stawianymi przez poszczególne dyscypliny. Zaprezentowano niektóre wybrane przykładowe problemy, wynikające z postulatu pełnej automatyzacji, wraz z postulowanym sposobem ich skutecznego rozwiązania. Od autorów finalnego wielospecjalistycznego rozwiązania będzie zależeć, czy kompromisy okażą się twórczą kreacją postępu rzeczywiście wpływającego na realnie istniejącą rzeczywistość, w tym przypadku rzeczywistość procesu diagnostycznego.

21.02.2003 - Rafał Królikowski: "Filtracja perceptualna sygnału fonicznego z zastosowaniem inteligentnych algorytmów decyzyjnych".

Seminarium poświęcone było problemowi redukcji szumu akustycznego w nagraniach fonicznych. Przedstawiona została koncepcja opracowanego systemu, który pozwala na usuwanie tego typu zakłóceń przy wykorzystaniu pewnych właściwości percepcyjnych słuchu ludzkiego. Z uwagi na to, że zakłócenia szumowe są z natury niedeterministyczne, w procesie redukcji szumu dodatkowo wykorzystywane są metody sztucznej inteligencji, takie jak: przetwarzanie danych przy użyciu sztucznych sieci neuronowych jednokierunkowych oraz rekurencyjnych, jak również wnioskowanie oparte na zbiorach przybliżonych. Prezentacja seminaryjna wzbogacona była o przykłady dźwiękowe ilustrujące opracowane metody redukcji szumu.

28.02.2003 - Rafał Latkowski:

"Świadomi Agenci. Świadomy Software. Problemy i metody poznawania i reprezentowania otoczenia."
Od pewnego czasu rozwijana jest koncepcja świadomych programów komputerowych. Motywacją jest tutaj, oprócz psychologii, zadośćuczynienie zarzutom stawianym sztucznej inteligencji począwszy od lat '60. Na gruncie tej koncepcji dopracowano się pewnych metod i zastosowań, które mogą stanowić inspirację dla dalszych prac również na gruncie uczenia maszynowego. Podczas swojego wystąpienia przedstawiłem niektóre ze wspomnianych algorytmów i zastosowań.

"Case Based Reasoning. Podstawowe problemy i używane metody."
Case Based Reasoning najczęściej kojarzone jest z metodą najbliższych sąsiadów. Na gruncie CBR dopracowano się jednak ciekawych metod reprezentacji danych (CRN), które pozwalają na efektywne przeglądanie dużych baz przykładów. Oprócz metod opowiedziałem o zagadnieniach podobieństwa i odległości, które znalazły dużo uwagi wśród badaczy CBR, a bliskie są również uczeniu indukcyjnemu.

"Problem brakujących wartości atrybutów. Nowe wyniki metody dekompozycji w oparciu o informację wizualną RoboCup/Soccer."
Ostatnie wyniki metody dekompozycji oraz dane związane z RoboCup/Soccer, na których te wyniki zostały uzyskane. Ze względu na bardzo dużą zawartość brakujących wartości dane te nie są podatne na obróbkę dotychczas stosowanymi metodami.

07.03.2003 - Piotr Synak: "Mapy informacji dla systemow informacyjnych".

14.03.2003 - Dominik Ślęzak, Jakub Wróblewski: "Rough set approach to complex concepts: The case study of the survival analysis".

Generalization of the fundamental rough set based tools aiming at analysis of complex concepts is discussed. As a case study, the post-surgery survival analysis, where decision problem is defined over data related to the head and neck cancer cases, is considered. The goal is to express the differences between expected results of two types of medical surgeries and to search for rules discerning different survival tendencies. It requires handling probabilistic distributions and Kaplan-Meier product estimates, as examples of complex decision values, needed to be approximated by means of clinical and histopathological symptoms.

21.03.2003 - Prof. dr hab. Andrzej Grzegorczyk: "Obliczalność i nierozstrzygalność logiki bez arytmetyzacji".

28.03.2003 - Włodzimierz Borkowski: "Optymalny wywiad lekarski uzyskany drogą programowania dynamicznego".

Wywiad lekarski, przez który rozumie się kolejno zadawane pytania lub kolejno wykonywane działania diagnostyczne ma na celu w sposób spójny logicznie i możliwie krótki ( możliwie małymi kosztami) osiągnąć cel, jakim jest wykrycie u diagnozowane pacjenta objawów świadczących o jego stanie zdrowia.
Zasady prowadzenia wywiadu lekarskiego w dowolnej dziedzinie i zakresie tematycznym tworzą lekarze na drodze rozumowania i wiedzy wyniesionej z badań o charakterze statystycznym jak i wiedzy z medycznych nauk podstawowych (o zasadach funkcjonowania organizmu ludzkiego, naturze czynników chorobotwórczych).
Nasuwa się pytanie czy można określić ścisłe i sformalizowane zasady konstruowania optymalnego wywiadu lekarskiego w postaci algorytmu, gdzie wiedza o tym jaki to ma być algorytm będzie pochodziła z badań statystycznych prowadzonych na zbiorach pacjentów (badania kliniczne, badania populacyjne).
Przez optymalny wywiad lekarski rozumie się taki wywiad, w którym zadane pytanie na każdym kroku wywiadu daje najkrótszy (najmniej kosztowny) dalszy ciąg wywiadu aż do jego końca.
Pełny tekst szczegółowego streszczenia.

04.04.2003 - Arkadiusz Wojna: "Reprezentacja i klasyfikacja danych oparta na pojęciach metryki i najbliższego sąsiedztwa".

Tematem seminarium jest przedstawienie zagadnien opracowanych w ramach realizacji pracy doktorskiej. Dotyczy ona metod klasyfikacji stanowiacych rozszerzenie klasycznego algorytmu knn. Rozszerzenia te polegaja na dwuetapowym podejsciu do klasyfikacji: pierwszy etap to konstrukcja sasiedztwa testowanego obiektu, drugi to indukcja lokalnego modelu danych na podstawie skonstruowanego sasiedztwa. Na seminarium przedstawione zostana rozne metody realizujace to podejscie i wyniki ich testow, a takze metody reprezentacji danych i ich znaczenie dla jakosci i efektywnosci klasyfikacji, ze szczególnym uwzglednieniem duzych zbiorow danych. Ostatnie 10 minut zostanie poswiecone przedstawieniu obecnego stanu projektu nowej biblioteki programistycznej RSESlib zmierzającego do stworzenia nowej wersji istniejacej biblioteki wykorzystywanej w programie RSES 2.0.

11.04.2003 - Nguyen Tuan Trung: "Learning domain knowledge from human instructor: A case in handwritten digit recognition".

11.04.2003 - Mikhail Moshkov: "On time and space complexity of decision trees and decision rule systems over infinite information systems".

In this presentation infinite information systems used in pattern recognition, data mining, discrete optimization, computational geometry are considered. Time and space complexity of decision trees and complete (applicable to any input) decision rule systems are studied in the frameworks of local and global approaches. Local means that for solution of a problem over an information system we can use only attributes from problem description. Global means that we can use any attributes from the information system. For each of approaches a partition of the set of all infinite information systems into two classes is considered. Information systems from the first class are close to the best from the point of view of time and space complexity of decision trees and decision rule systems. Decision trees and decision rule systems for information systems from the second class have in the worst case large time or space complexity.

25.04.2003 - Marcin Dziubiński: "Negocjacje w systemach wieloagentowych".

System wieloagentowy jest systemem zlozonym z wielu autonomicznych komponentow zwanych agentami. Agent rozumiany jest tu jako program komputerowy osadzony w pewnym srodowisku, zdolny do elastycznego i autonomicznego dzialania. 'Osadzony' czyli zdolny do odbierania informacji o srodowisku oraz do wplywania na nie poprzez wykonywanie akcji. 'Autonomiczny' czyli zdolny do dzialania bez bezposredniego wplywu czlowieka ani innego agenta oraz majacy kontrole nad swoimi akcjami i stanem wewnetrznym. 'Elastyczny' czyli odpowiednio szybko reagujacy na zmiany w srodowisku, proaktywny i zdolny do interakcji z innymi agentami. Zaklada sie, ze agenci wchodzacy w sklad systemu wieloagentowego maja nieklompletna informacje o srodowisku lub ograniczone mozliwosci w zakresie rozwiazywania problemow. Ponadto zaklada sie, ze kontrola i dane sa rozproszone oraz, ze obliczenia sa asynchroniczne.
Wyzej wymienione cechy systemow wieloagentowych powoduja, ze ich bardzo istotnym elementem sa wzajemne zaleznosci miedzy agentami oraz zachodzace miedzy nimi interakcje. Ze wzgledu na to, ze agenci sa autonomiczni bardzo waznym mechanizmem pozwalajacym zarzadzac tymi zaleznosciami sa negocjacje.
Na seminarium zamierzam zaprezentowac, na podstawie wybranych prac, rozne podejscia do problemu negocjacji w systemach wieloagentowych - oparte na teorii gier, heurystykach oraz argumentacji.

9.05.2003 - Anna Gomolińska: "O semantycznym znaczeniu formuł i reguł w uogólnionych przestrzeniach aproksymacyjnych".

W swoim referacie przedstawię pewne pomysły na temat jak można zdefiniować stopniowane znaczenie semantyczne formuł, reguł a także ich zbiorów w uogólnionych przestrzeniach aproksymacyjnych. Punktem wyjścia będzie pojęcie spełnialności formuły w pewnym stopniu. Mając zdefiniowane stopniowane znaczenie formuł i reguł, można mówić m.in. o stosowalności reguł w pewnym stopniu a także określać podobieństwo formuł, reguł i ich zbiorów.

16.05.2003 - Nguyen Hung Son.

23.05.2003 - Bożena Staruch: "Algebry częściowe w logice".

Punktem wyjścia rozważań jest algebra częściowa z określonym na niej zbiorem relacji. Taką strukturę nazywamy modelem częściowym. Traktuję modele częściowe jako fragment wiedzy o świecie rzeczywistym. Badane są zatem konsekwencje zanurzania danego modelu częściowego w klasyczne modele w języku predykatów pierwszego rzędu.
Definiuję niezawodny zbiór zdań dla zadanego modelu częściowego jako przecięcie teorii wszystkich modeli, w które wyjściowy model częściowy się zanurza. Niezawodny zbiór zdań reprezentuje wiedzę pewną, niezmienną we wszystkich światach możliwych. W ogólniejszym ujęciu badam też możliwość zanurzania zadanej, co najwyżej przeliczalnej rodziny modeli częściowych. To podejście pozwala ująć sytuację, w której wiedzę o świecie uzyskujemy z wielu niezależnych fragmentów.
W trakcie referatu zostanie przedstawiony kompletny opis niezawodnego zbioru zdań. Konstruuję model częściowy standardowy, to znaczy taki którego klasa uzupełnień jest aksjomatyzowalna przez niezawodny zbiór zdań dla danego modelu częściowego.
Podaję twierdzenie o pełności. Dla dowolnej teorii niesprzecznej pokazuję sposób wybrania maksymalnej podteorii, która będzie niezawodnym zbiorem zdań oraz konstruuję rodzinę modeli częściowych dla tego niezawodnego zbioru.
Podaje również odniesienie do logik modalnych, gdzie zdanie jest konieczne wtedy i tylko wtedy, gdy należy do niezawodnego zbioru zdań. Pokazuję jak przedstawić logiki modalne S5 , S4 i S4.2.
Przedstawię również część wyników wspólnie uzyskanych z Bogdanem Staruch w trakcie badań możliwości zanurzania algebr i związanych z nimi równości.

23.05.2003 - Andrzej Skowron: "O pewnych kierunkach badań nad zbiorami przybliżonymi".

30.05.2003 - Kenneth Revett: "Microarray technology: Current Trends and Analysis".

DNA microarray technology is an analytical tool that allows researchers to investigate alteration(s) in gene expression in a highly parallel fashion. It entails the use of gene probes, mounted on planar glass surfaces with a packing density of over 100,000 gene targets per cm^2. Typically, DNA microarray analysis has been used to classify cancer types (there are currently over 100 classes of cancer). DNA from the purported cancerous growth is extracted an applied to the microarray targets. The goal of this technique is to simultaneously determine which genes are abnormally expressed and at what levels. With this information, a genetic signature for a specific pathology may be derived, which is as or more accurate as very costly and time consuming toxicological practises which are currently used to make this determination. A major obstacle in achieving this goal is the analysis of the results from a microarray experiment - each which may produce upwards of 10,000 data points. The task from the analysis perspective is to derive a signature which accurately classifies the alteration in gene expression for a given pathological state. K-NN classifies, MANOVA, Support vector machines and other analytical tools are currently employed to perform the complex analysis. I would like to raise concerns regarding the current analytical methods and raise a discussion amongtst the seminar members as to what thoughts they might have on this subject.