Seminarium Zakładu Logiki Matematycznej - archiwum tematów z roku akad. 2004/05


8.10.2004 - Rafał Latkowski: "Tematyka planowanej pracy doktorskiej".

Podczas wystapienia zostanie przypomniana problematyka wnioskowania na podstawie danych z niekompletnym opisem obiektow. Nastpnie zostana zaprezentowane wyniki prac w nastepujcych kierunkach:
* Elastyczne relacje nierozroznialnoci dla problemu brakujacych wartosci
* Wzrost zlozonosci obliczeniowej drzew decyzyjnych przy wielu brakujacych wartosciach
Ponadto przedstawiony zostanie dalszy plan prac, wstepny konspekt rozprawy oraz ostatnio opublikowane prace o pokrewnej tematyce.

8.10.2004 - Bożena Staruch: "Zastosowanie koproduktu w sytuacjach konfliktowych pojawiających się w systemach wieloagentowych modelowanych poprzez rozszerzenia struktur częściowych".

Przedstawiam propozycję prezentowania wiedzy agentów w systemach wieloagentowych w postaci struktur częściowych, a wyniki działania agentów - w postaci rozszerzeń tych struktur częściowych. Termin rozszerzenie obejmuje zarówno sytuacje gromadzenia nowych informavji, jak i weryfiakcję posiadanej wiedzy.
W referacie omówie problem pojawiania się sytuacji konfliktowych w tak modelowanych systemach agentów.
Ważnym narzędziem służącym do scalania informacji i wykrywania sprzeczności jest pojęcie koproduktu. Zaprezentuję konstrukcję koproduktu i jej stosowanie w warunkach sprzeczności.

15.10.2004 - Barbara Dunin-Kęplicz: "Różnorodność istotą agentowości".

W świecie złożonych obliczeń komputerowych zainteresowanie przesuwa się z samodzielnych (indywidualnych) systemów komputerowych w stronę sytuacji, gdy prawdziwa siła obliczeniowa komputerów jest wyrażona poprzez rozproszone, otwarte i dynamiczne systemy. Charakterystyka dynamicznego, otwartego środowiska, wymaga zmiany dotychczasowego paradygmatu złożonego systemu informatycznego. W szczególności pojawia sie potrzeba, przynajmniej częściowej, autonomii takich systemów. Systemy agentowe są odpowiedzią na tę potrzebę: agent to system informatyczny usytuowany w środowisku, zdolny do podejmowania autonomicznych decyzji, działający w sposób elastyczny, często w rygorze czasu rzeczywistego.
Agenci są wykorzystywani w środowiskach, w których muszą wchodzić w interakcje, w szczególności współpracować, z innymi agentami lub ludźmi, którzy mogą mieć sprzeczne cele. Ta potencjalna sprzeczność nie zwalnia z konieczności podejmowania decyzji i wykonywania akcji. Takie środowiska rozumiemy jako systemy wieloagentowe (ang. multiagent systems: MAS).
Celem MAS jest rozwiązanie (złożonego) problemu, który (na ogół) jest poza indywidualnym zasięgiem, a następnie wykonanie (złożonej) akcji zespołowej w środowisku. W stosunku do systemów poprzednich generacji jest to zupełnie nowa jakość. Zatem fundamentalne staje sie pytanie: jak uzyskać tę nową jakość? Odpowiedź jest pozornie prosta: poprzez uwolnienie założeń krępujących systemy poprzednich generacji. Jednak z perspektywy inżynierii oprogramowania generuje ona poważne wyzwania:

  • Jak realizować złożone, wręcz spektakularne w porównaniu z tradycyjnymi protokołami komunikacyjnymi, wzorce interakcji (kooperacja, koordynacja, negocjacje)
  • Jak zintegrować w jednym systemie (architekturze pojedynczego agenta) deliberatywne (ang. goal-directed) reaktywne (ang. data (event)-driven) aspekty zachowania agenta?
  • Jak zachować równowagę pomiędzy wnioskowaniem a komunikacją w MAS w kontekście złożonych i zróżnicowanych wzorców zachowań agentów?

    Zawężając perspektywę do systemów BDI (ang. beliefs, intentions, desires systems), można prześledzić dwa przykłady realizacji powyższych wyzwań. Pierwszy dotyczy tzw. strategii intencji, odpowiadających na pytanie: kiedy i jak agent może odpowiedzialnie porzucić swoje intencje? Zamiast tradycyjnych deadlines o ograniczonej sile wyrazu, zastosowano tu subtelne warunki wyrażające jednocześnie deliberatywne i reaktywne aspekty zachowania agenta. Scharakteryzowano je w kategoriach logik wielomodalnych i temporalnych. Drugi przykład dotyczy kolektywnego planowania: zamiast pobierania uproszczonego planu z predefiniowanej biblioteki planów, kolejne etapy tworzenia od podstaw wspólnego planu są zrealizowane przy użyciu złożonych, sformalizowanych dialogów. Metody ich modelowania są obecnie gorącym problemem badawczym.
    Jak widać różnorodność problemów występujących w MAS wymaga częstego sięgania do dorobku innych dziedzin nauki: logiki, filozofii, lingwistyki, socjologii, biologii, ekonomii i innych.

  • 15.10.2004 - Jan Bazan: "Narzędzia do wizualizacji danych w systemie RSES".

    Podczas referatu chciałbym przedstawić narzędzia do wizualizacji danych dostępne w systemie RSES, które w ostatnim czasie zostały znacząco rozwinięte. Narzędzia te dotyczą głównie wizualizacji informacji zawartych w tablicach danych (histogram wartości wybranego atrybutu, porównywanie wartości dwóch atrybutów oraz kilku atrybutów, histogramy wartości wybranego atrybutu we wzorcach oraz wizualizacja reguł krzyżowych). Dostępne są także narzędzia wizualizacji informacji o klasycznych reduktach i regułach decyzyjnych, o których także chciałbym opowiedzieć.

    5.11.2004 - Piotr Hońko: "Zastosowanie podobieństwa przykładów docelowych w indukcyjnym programowaniu logicznym".

    W indukcyjnym programowaniu logicznym dane, jak również generowane z nich reguły wyrażone są w języku logiki pierwszego rzędu. Metoda prezentowana w referacie dokonuje opisu i klasyfikacji przykładów docelowych nie na podstawie reguł pierwszego rzędu, ale na postawie reguł decyzyjnych wyrażonych w języku typu atrybut-wartość. Reguły generowane są z tablicy decyzyjnej utworzonej przy zastosowaniu miar podobieństwa przykładów docelowych. Przykłady porównywane są na podstawie dotyczących ich literałów należących do wiedzy dziedzinowej.

    5.11.2004 - Dominik Ślęzak: "Redukty asocjacyjne".

    12.11.2004 - Wit Jakuczun: "Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów".

    W moim wystąpieniu opowiem o opracowanej przeze mnie metodzie klasyfikacji sygnałów. Metoda ta jest oparta na algorytmie "lifting scheme" konstruowania falek oraz na tzw. "Support Vector Machines" autorstwa Vapnika. Połączenie tych dwóch podejść pozwala na budowanie klasyfikatorów opartych na małym wycinku danych mających jednocześnie wysoką jakość klasyfikacji. Oprócz wyników eksperymentalnych przedstawię też próbę oszacowania wymiaru VC tak tworzonych klasyfikatorów.
    Prezentacja w formacie PostScript (364 KB).
    Materiały dodatkowe:
    http://prioris.mini.pw.edu.pl/~wit/prace/atrybuty.pdf
    http://prioris.mini.pw.edu.pl/~wit/prace/jakuczun04discriminating.pdf

    12.11.2004 - Michał Mikołajczyk: "Reguły decyzyjne - w poszukiwaniu uproszczeń".

    Dyskusja na temat rozbudowy funkcjonalności i języka opisu reguł decyzyjnych. Głównym celem prezentowanych rozważań jest osiągnięcie możliwie zwięzłego, a co za tym idzie - czytelnego opisu klas decyzyjnych.
    Szczególną uwagę chcę poświęcić przekształceniom zbioru wyliczonych już reguł bez odwoływania się już do danych z których reguły te powstały. Wiąże się to z problemem oszacowania jakości nowo powstałych reguł, oraz stworzeniem właściwej miary podobieństwa reguł.
    Kolejnym zagadnieniem związanym z tym tematem są hierarchiczne struktury regułowe. Oferują one możliwość tworzenia ogólnych reguł decyzyjnych zachowując jednocześnie bardziej szczegółowe informacje. Jak mogłyby one wyglądać i jak można by oceniać ich jakość - to pytania które chciałbym postawić i przedstawić propozycję rozwiązania dla części z tych zagadnień.

    19.11.2004 - Mikhail Moshkov: "Restricted Linear Information Systems".

    In the presentation a class of infinite information systems will be considered for each of which there exist polynomial algorithms for optimization of decision trees solving problems over the considered information system. As complexity measures it is possible to use depth, average depth or number of nodes. Problems must be represented in the form of decision tables.

    19.11.2004 - Marcin Wojnarski: "Lokalizacja obiektów metodą kontrastów obszarowych i AdaBoost".

    W 2001 roku P.Viola i M.Jones zaproponowali metodę lokalizacji obiektów na obrazach, wykorzystującą tzw. kontrasty obszarowe, czyli bardzo proste filtry, dające się obliczyć w bardzo krótkim czasie przy użyciu obrazu całkowego. Za pomocą algorytmu AdaBoost, z rodziny wszystkich możliwych kontrastów obszarowych (słabych klasyfikatorów) wybierany jest niewielki podzbiór, najlepiej opisujący poszukiwane obiekty. Z takiego podzbioru budowany jest mocny klasyfikator. Aby znacznie przyspieszyć działanie końcowego klasyfikatora, mocne klasyfikatory dodatkowo łączone są w kaskadę. Dalsze stopnie kaskady prowadzą analizę jedynie tych danych, które nie zostały odrzucone na wcześniejszych stopniach, co pozwala dramatycznie zmniejszyć czas lokalizacji - np. możliwa jest lokalizacja twarzy w czasie rzeczywistym, z szybkością 15 klatek na sekundę, z bardzo wysoką trafnością odpowiedzi.
    W referacie zaprezentuję podstawowy algorytm Violi i Jonesa oraz przedstawię możliwe modyfikacje: rozszerzenie rodziny słabych klasyfikatorów oraz przyspieszenie algorytmu uczenia.
    Więcej informacji:
    - Paul Viola, Michael Jones. Robust Real-time Object Detection (2001)
    - Prezentacja z seminarium (PostScript, .zip, 609 KB)

    26.11.2004 - Wojciech Jaworski: "Analiza metod szacowania błędu klasyfikatorów".

    Referat poświęcony będzie analizie metod Hold-Out Estimate i Cross-Validation. Przedstawione zostaną twierdzenia określające związek wartości błędu wyznaczonego przez powyższe metody z rzeczywistą wartością błędu klasyfikatora. Pozwalają one oszacować z góry ilość próbek potrzebną, aby wyznaczyć błąd klasyfikatora z określoną dokładnością i wiarygodnością. W przypadku metody Hold-Out i zerojedynkowej funkcji straty opisany zostanie algorytm pozwalający wyznaczyć minimalną ilość próbek. Prezentowane oszacowania będą niezależne od wyboru algorytmu użytego do stworzenia klasyfikatora oraz ilości posiadanych przez próbki atrybutów.
    Materiały:
    - Prezentacja z seminarium (PDF)
    Dane liczbowe:
    - wartości delta i m we wzorze P(|Err(f)-Errz(f)| < 0.1) > delta,
    - najmniejsze m, dla którego spełniony jest w nierównosci Hoefflinga warunek P(Err(f)-Errz(f) > epsilon) < delta,
    - najmniejsze m, dla którego spełniony jest dla 0-1 funkcji straty warunek P(Err(f)-Errz(f) > epsilon) < delta,
    - najmniejsze m, dla którego spełniony jest dla 0-1 funkcji straty warunek P(|Err(f)-Errz(f)| > epsilon) < delta

    3.12.2004 - Feliks Kurp: "Wspomaganie procesów decyzyjnych w ogólnym modelu opisu dynamiki systemów".

    Zaprezentowana zostanie koncepcja ogólnego modelu opisu dynamiki systemów, wykorzystująca pewne własności gramatyk generacyjnych, oraz wyrażenia regularne. Następnie rozważana będzie optymalizacja problemów decyzyjnych, oparta o pojęcie wyrazistości stanów w systemie informacyjnym, opisującym zbiór stanów dopuszczalnych, a także nowe podejście do oceny istotności atrybutów opisujących stany. Główną motywacją podjętych badań są problemy komputerowego wspomagania decyzji w złożonych sytuacjach decyzyjnych, na przykład ekonomicznych, oraz prognozowanie.

    10.12.2004 - Nguyen Tuan Trung: "Omówienie tematyki przygotowywanej rozprawy doktorskiej".

    17.12.2004 - Mikhail Ju. Moshkov: "On decision tables with many-valued decisions".

    In the paper a generalization of the notion of decision table is studied. In an ordinary decision table each row is labeled by a decision. In a decision table with many-valued decisions each row is labeled by a nonempty finite set of decisions. For a given (but unknown for us) row we must find a decision from the set attached to this row using values of attributes corresponding to columns of the table. Bounds on complexity and algorithms for construction of decision trees and reducts for generalized decision tables are considered.

    17.12.2004 - Jakub Wróblewski: "Strategie obliczania reduktów zwykłych i przybliżonych".

    Tematyka wystąpienia obejmuje ostatnie prace badawcze i implementacyjne związane z algorytmami wyznaczania reduktów, a w szczególności:
    - wykorzystanie rdzenia (core) i struktur pokrewnych;
    - kierunki przeszukiwania przestrzeni podzbiorów atrybutów, w szczególności szukanie wszystkich reduktów;
    - wyniki eksperymentów związanych z reduktami przybliżonymi.
    Prezentacja z seminarium. (PostScript, 600 KB)

    7.01.2005 - Nguyen Hung Son: "An Approach to Mining Data with Continuous Decision Values".

    We propose a novel approach to discover useful patterns from ill-defined decision tables with a real value decision and nominal conditional attributes. We illustrate our consideration on the problem of searching for a combination of ligand-receptor sites resulting in highest affinity binding. This problem occurs in proteochemometrics study of molecular recognition. The proposed solution is based on a two-layered learning algorithm. In the first layer the preference relation between objects is approximated from the data. In the second layer the approximated preference relation is used to create three applications: (1) to learn a ranking order on a collection of combinations, (2) to predict the real decision value, (3) to optimize the process of searching for the combination with maximal decision.

    7.01.2005 - Dominik Ślęzak: "Interactive SOM-Based Gene Grouping: An Approach To Gene Expression Data Analysis".

    We propose a new approach to clustering and visualization of the DNA microarray based gene expression data. We implement the self-organizing map (SOM) framework handling similarities and dissimilarities between genes in terms of their expression characteristics. Genes occurring as attributes (columns, features) in the gene expression data table correspond to the objects being located in the SOM grid. Various distances between such objects are tested to capture the nature of dependencies between genes-attributes. The resulting algorithmic toolkit is enriched with GUI enabling the users to interactively support the SOM-optimization process. Preliminary calculations and consultations with biomedical experts positively verify applicability of our method.

    14.01.2005 - Arkadiusz Wojna: "Wnioskowanie przez analogię w konstrukcji klasyfikatorów - prezentacja rozprawy doktorskiej".

    14.01.2005 - Piotr Synak: "Spatio-Temporal Approximate Reasoning over Complex Objects".

    We discuss the problems of spatio-temporal reasoning in the context of hierarchical information maps and approximate reasoning networks (AR networks). Hierarchical information maps are used for representations of domain knowledge about objects, their parts, and their dynamical changes. AR networks are patterns constructed over sensory measurements and they are discovered from hierarchical information maps and experimental data. They make it possible to approximate domain knowledge, i.e., complex spatio-temporal concepts and reasonings represented in hierarchical information maps.

    21.01.2005 - Marcin Dziubiński: "Negocjacje w systemach wieloagentowych".

    Na seminarium mówić będę o możliwości wykorzystania metodologii reprezentacji i inżynierii wiedzy CAKE do negocjacji w systemach wieloagentowych.
    Założenia leżące u podstaw systemów wieloagentowych - autonomiczność agentów (m. in. pełna kontrola nad ich stanem wewnętrznym i wykonywanymi akcjami), konieczność działania w dynamicznym i złożonym środowisku i wynikająca stąd niepełna wiedza o świecie, działanie w otoczeniu wielu innych agentów - stwarzają konieczność istnienia mechanizmu pozwalającego na rozwiązywanie konfliktów pojawiających się między agentami. Mechanizmem tym są negocjacje.
    Jednym z podejść do negocjacji jest oparcie ich na planowaniu. W ramach negocjacji agenci szukają akceptowalnego dla wszystkich stron celu oraz planu, który pozwoli ten cel osiągnąć. W podejściu tym ważne jest umożliwienie agentom zmiany przekonań oraz celów kontrnegocjatorów. Możliwość tą daje argumentacja. Niezbędna jest tu również bezpośrednia reprezentacja przekonań agentów. W ramach metodologii CAKE zaproponowano sposób reprezentacji wiedzy agentów, który uwzględnia możliwość istnienia wiedzy niepełnej i przybliżonej, posiadania przez agentów wiedzy o charakterze domniemań oraz konieczność używania tej wiedzy w sposób wydajny obliczeniowo.

    18.02.2005 - Nguyen S. Hoa: "Automatic sunspot recognition and classification".

    This paper describes automatic sunspot recognition and classification from satellite images. The classification scheme attempted was the seven-class Modified Zurich scheme. Daily images of the solar disk were taken from the NASA SOHO satellites MDI instrument and sunspots extracted using image processing techniques.
    Sunspot classification has been described by a set of rules containing many composite and unprecise concepts, which can can not be measured directly from solar images. The obstacle is uncertainty of sunspot measures. By different seasons, e.g., of bad weather, of continuous movement of sunspots on the sun surface or by a reason of sun and earth rotation, sometime images of the solar disk are blurred. Therefore, many characteristics of sunspots can not be exactly determined from digital images. On the other hand, the learning algorithms that used only vision properties to predict classification scheme had showed to be inadequate. To improve the classification accuracy, it is necessary to embed the domain knowledge into the learning process.
    This paper presents a learning sunspot classification algorithm based on rough sets, rough mereology and hierarchical learning approach. The proposed method makes approximating of such complex concept likes sunspot classification scheme possible by using domain knowledge in the form of concept ontology.

    25.02.2005 - Dominik Ślęzak: "Reprezentacja złożonej wiedzy wydobywanej z danych medycznych".

    4.03.2005 - Wojciech Froelich: "Agentowo-ewolucyjny model pozyskiwania wiedzy".

    Podstawowa idea proponowanego modelu polega na wykorzystaniu podejścia agentowego w celu realizacji hybrydowej metody reprezentacji i pozyskiwania wiedzy, zgodnie z którą proces uczenia ze wzmocnieniem pojedynczego agenta optymalizowany jest metodą ewolucyjną na poziomie całej populacji. W oparciu o powyższą koncepcję, opracowano model formalny systemu ułatwiający analizę procesów uczenia zachodzących na różnych poziomach abstrakcji.
    W proponowanym modelu, autonomiczny agent to system działający w środowisku, który obserwuje w sposób ciągły to środowisko i wykonuje w nim akcje w celu realizacji określonego zadania. Środowisko reprezentuje rozwiązywany problem i równocześnie umożliwia wzajemną obserwację agentów. W środowisku wyróżnić można obiekty będące źródłem informacji dla systemu uczącego się. Obiekty te mogą podlegać oddziaływaniu, wtedy proces pozyskiwania wiedzy powiązany jest z ciągłą wzajemną interakcją między środowiskiem i systemem. Zadanie stawiane przed systemem uczącym się może dotyczyć rozpoznawania cech obiektów, relacji między nimi, względnie polegać na określeniu skutecznej strategii sterowania obiektami.
    Rozważany problem dotyczy przypadku, gdy model środowiska, z którego ma być pozyskana wiedza, nie jest całkowicie znany. W tej sytuacji, proces pozyskiwania wiedzy odbywa się poprzez realizację ciągu decyzji agenta, które w zamierzeniu mają doprowadzić do osiągnięcia celu, zaś ich efekty pośrednie (zmiany stanu środowiska) dostarczają informacji o jego własnościach. Tak więc, nawet wtedy gdy cel nie zostaje osiągnięty, działania agenta dostarczają informacji wynikających z obserwowanej reakcji środowiska.
    W proponowanym modelu środowisko reprezentowane jest przez zbiór zmieniających się w czasie sygnałów. Sygnały środowiska można interpretować jako a-priori nieznane, lecz mierzalne wielkości charakteryzujące zachodzące w nim procesy (zjawiska). Zbiór sygnałów środowiska jest źródłem informacji dla wszystkich agentów. Każdy sygnał środowiska może zmieniać się w czasie w sposób dyskretny lub ciągły. Pomiędzy poszczególnymi sygnałami mogą zachodzić zależności czasowe i przestrzenne.
    Agenci rozmieszczeni w środowisku tworzą zbiór, który nazywany jest populacją wieloagentową. Populacja początkowa agentów generowana jest w oparciu o wiedzę eksperta (w roli eksperta może występować użytkownik lub pewien program nadrzędny) oraz zostaje wyposażona w losowy zbiór cech, do których zaliczyć można ich rozmieszczenie w środowisku. Każdy agent podejmuje w środowisku działania, których konsekwencją mogą być zmiany obserwowanych sygnałów. Działania agenta mogą oznaczać realizację pojedynczych akcji lub ich sekwencji. Zakłada się reaktywny sposób działania agentów, co oznacza, że agenci nie prowadzą obliczeń matematycznych oraz sterowanej algorytmicznie analizy historii swoich obserwacji i akcji, planowanie w znaczeniu budowania i oceny schematów przyszłych działań również nie jest prowadzone.
    Na poziomie pojedynczego agenta realizowany jest proces uczenia ze wzmocnieniem. Pozyskiwana wiedza reprezentowana jest w formie zbioru prostych reguł sterujących działaniami agenta na podstawie uzyskanych obserwacji. Uczenie ze wzmocnieniem prowadzi do kreacji oraz selekcji w bazie wiedzy reguł umożliwiających realizację zadań przez agenta.
    Warunkiem skutecznego uczenia agenta jest optymalizacja szeregu posiadanych przez niego cech (parametrów), reprezentowanych przez wektor genotypu. Cechy osobnicze agenta, mogą dotyczyć między innymi funkcji obserwacji (np. czułość sensorów na zmiany sygnałów środowiska) oraz parametrów procesu decyzyjnego. Optymalizacja genotypu agenta przebiega na poziomie populacji z wykorzystaniem procesu ewolucji wieloagentowej.
    Pierwszym obszarem zastosowania proponowanego modelu było zadanie poszukiwania sekwencji decyzyjnej w dynamicznie zmieniającym się środowisku. W przypadku ogólnym, dla zadań typu pościgu i ucieczki (ang. Evasive Manouvers - EM), w przestrzeni wielowymiarowej znajduje się jeden lub więcej poruszających się obiektów typu "ścigający" (ang. pursuer), których zadaniem jest złapanie jednego obiektu typu "uciekający" (ang. evader). Obiekt uciekający posiada cel przeciwstawny polegający na uniknięciu złapania (ang. catching). Problem pościgu i ucieczki jest pewnym reprezentantem procesów przebiegających w przestrzeni, w których występują podmioty posiadające przeciwstawne cele.
    Pozyskiwanie wiedzy z obrazów graficznych przyjęto jako drugi obszar realizacji proponowanego modelu. Problem dotyczy identyfikacji oraz lokalizacji lokalnych cech charakterystycznych w obrębie obrazów. Rozpoznawanie obrazów linii papilarnych oparte jest często na poszukiwaniu cech charakterystycznych (nazywanych punktami "minutiae") lub lokalnych nieregularności w przebiegu linii papilarnych. Mogą to być zakończenia linii, połączenia lub inne rzadziej występujące na obrazie klasy punktów charakterystycznych. Znajomość położenia tych cech jest zadaniem wstępnym przy porównywaniu różnych odcisków linii papilarnych. Jedną z propozycji, dotyczących zastosowania paradygmatu agentowości w zadaniu rozpoznawania cech charakterystycznych obrazu jest koncepcja agenta eksplorującego obraz.
    Można wymienić następujące elementy oryginalności proponowanego modelu.
    Na poziomie koncepcji: hierarchiczny, hybrydowy model pozyskiwania wiedzy oparty na paradygmacie systemów wieloagentowych, wykorzystanie metody uczenia ze wzmocnieniem oraz metody ewolucyjnej.
    Na poziomie realizacji: opracowany model umożliwił implementację skutecznych rozwiązań wybranych problemów z zakresu pozyskiwania wiedzy. Wybrane do realizacji problemy, znacznie odróżniają się od siebie pod względem specyfiki realizowanego zadania, wykazując tym samym określony stopień uniwersalności proponowanego modelu.
    W ramach kontynuacji badań przewiduje się dalsze doskonalenie proponowanego modelu pozyskiwania wiedzy oraz eksperymenty dotyczące innych jego zastosowań.

    11.03.2005 - Arkadiusz Wojna: "Prezentacja rozprawy doktorskiej".

    18.03.2005 - Jan Bazan: "Metody konstruowania złożonych klasyfikatorów hierarchicznych w oparciu o zbiory danych i wiedzę dziedzinową".

    W trakcie mojego referatu, chciałbym skupić się na trzech następujacych zagadnieniach:
    1. Reprezentacja wiedzy dziedzinowej w celu użycia jej do polepszania jakości i efektywności klasyfikatorów (konstrukcja i zastosowanie ontologii pojęć).
    2. Metody konstruowania klasyfikatorów w oparciu o dane zbiory danych i ontologie pojęć.
    3. Metody konstruowania klasyfikatorów hierachicznych pozwalających na wykrywanie wzorców zachowań obiektów lub grup obiektów zmieniających się w czasie w oparciu o dane zbiory danych i ontologie pojęć.

    1.04.2005 - Mikhail Moshkov, Marcin Piliszczuk, Beata Zielosko: "On partial covers, reducts and decision rules".

    In the presentation we consider results of theoretical and experimental investigations in the following directions:
    - precision of approximate polynomial algorithms for minimization of partial covers, reducts and decision rules
    - unimprovable upper and lower bounds on minimal complexity of partial covers, reducts and decision rules which can be obtained based on the information about the greedy algorithm work
    - new bounds on precision of greedy algorithm work
    - results of greedy algorithm work for almost all set cover problems and information systems

    15.04.2005 - L.A. Zadeh: "Toward a General Theory of Uncertainty". (sesja specjalna w Instytucie Badań Systemowych)

    22.04.2005 - A. Wojna: "Wnioskowanie przez analogię w konstrukcji klasyfikatorów - prezentacja rozprawy doktorskiej".

    22.04.2005 - W. Jaworski: "Szacowanie błędu klasyfikatorów: odsłona druga".

    Referat będzie dotyczyć szacowania błędu klasyfikatorów za pomocą metody Hold-Out Estimate dla zerojedynkowej funkcji straty. Przypomnę i rozszerzę wyniki przedstawione 26.11.2004. Zaprezentuję nowe oszacowanie, które pozwala w optymalny sposób wykorzystać informację zawartą w błędzie empirycznym klasyfikatora. Pokażę w jaki sposób testowanie wielu klasyfikatorów za pomocą tej samej próbki wpływa na jakość oszacowania oraz przedstawię wynikające z oszacowań strategie selekcji i oceny klasyfikatorów.

    22.04.2005 - M. Sapiński: "Ewolucyjne metody odkrywania reprezentacji danych dla zadania klasyfikacji".

    Referat poświęcony będzie zagadnieniu poszukiwania dobrych reprezentacji danych dla zadania klasyfikacji. Znalezienie właściwej reprezentacji jest często kluczowe dla osiągnięcia dobrych wyników. Może również w istotny sposób ułatwić analitykowi danych zrozumienie modelowanej zależności.
    Przedstawimy stworzony przez nas algorytm ERF (ang. Evolutionary Representation Finder), który w ewolucyjny sposób poszukuje dobrych reprezentacji dla postawionego problemu. Język w którym algorytm poszukuje odpowiedniej reprezentacji jest określany przez użytkownika algorytmu umożliwiając precyzyjną specyfikację obszaru poszukiwań i łatwą interakcję z systemem. Takie podejście jest atutem algorytmu ponieważ wydajne poszukiwanie właściwych przekształceń danych bez jakichkolwiek założeń jest w zasadzie niemożliwe.
    Algorytm ERF posiada mechanizmy umożliwiające ewolucję reprezentacji na dwóch poziomach - poziomie pojedynczych cech oraz całych reprezentacji na które składają się poszczególne cechy. Zapewniony został mechanizm pozwalający na budowę złożonych reprezentacji dzięki podzieleniu procesu na etapy w obrębie których powstają cechy o coraz wyższym poziomie skomplikowania. Końcowy wybór najlepszej reprezentacji może być dokonany na podstawie obiektywnych miar jakości klasyfikacji lub przez użytkownika na podstawie analizy procesu ewolucji.
    Zostanie przedstawione działanie algorytmu ERF dla trzech znanych problemów: balance-scale, waveform oraz monk2 dla których algorytm znajdował dobre reprezentacje co ma znaczący wpływ na jakość klasyfikacji. Osiągnięte wyniki porównane zostanie z wynikami otrzymywanymi przez inne popularne metody.

    29.04.2005 - W. Jaworski, A. Powałka, J. Tyszkiewicz: "Analiza tekstów starożytnych - Sumerowie".

    6.05.2005 - N.T. Trung: "Transfer percepcji w uczeniu maszynowym".

    20.05.2005 - Mikhail Moshkov: "On some results for the most part of binary decision tables".

    We evaluate:
    a) the fractions of tables which are rough
    b) the fraction of tables with nonempty core
    c) the fraction of tables which have long reducts

    20.05.2005 - Marcin Dziubiński: "Zastosowanie negocjacji w obliczeniach gridowych".

    Na seminarium przedstawię przykład zastosowania negocjacji w obliczeniach gridowych.
    Mianem obliczeń gridowych określa się obliczenia dokonywane w rozproszonym, heterogenicznym (pod względem sprzętu, oprogramowania i dostępności zasobów) i otwartym (ilość i dostępność zasobów zmienia się w sposób z góry nieokreślony) środowisku. W przypadku takich obliczeń podstawowym problemem, obok problemów związanych z zapewnieniem bezpieczeństwa i prywatności, jest problem zarządzania realizacją obliczeń. Wiąże się to z potrzebą alokacji odpowiednich zasobów, monitorowania przebiegu obliczeń i reagowania na sytuacje wyjątkowe (np. awarie). Obliczenia powinny być przeprowadzone z zapewnieniem wskazanego przez użytkownika poziomem jakości usługi, na którą składa się nie tylko czas, ale i koszt oraz inne parametry związane z konkretnym zastosowaniem. Osobnym problemem jest zapewnienie właściwej dystrybucji zasobów w skali globalnej.
    Charakterystyka obliczeń gridowych sprawia, że są one atrakcyjnym zastosowaniem dla metod wytworzonych w kontekście systemów wieloagentowych, w tym negocjacji, które pozwolą na elastyczne zapewnienie możliwie dobrej alokacji zasobów.
    W ramach seminarium przedstawię również propozycję aplikacji, którą zamierzam przenieść do środowiska gridowego i użyć jako podstawy dla badań nad negocjacjami w systemach wieloagentowych. Aplikacją tą jest modelowanie zachowania zanieczyszczenia ropopochodnego na morzu, która zostanie zrealizowana przy współpracy z Instytutem Morskim w Gdańsku.

    3.06.2005 - Magdalena Kacprzak: "Dowodzenie własności systemów wieloagentowych przy użyciu logiki RA-MAS".

    Celem pracy jest opracowanie oryginalnej formalizacji systemów złożonych z wielu rozproszonych procesów, pracujących w sposób współbieżny, zwanych systemami wieloagentowymi. Zaproponowany system dedukcyjny oparty jest na elementach logiki temporalnej czasu rozgałęzionego oraz logiki epistemicznej i logiki algorytmicznej. Zastosowane operatory i modalności umożliwiają porównywanie na grucie tego samego języka formalnego różnych systemów wieloagentowych. Zaproponowana logika dostarcza również narzędzi do modelowania i charakteryzowania cech mentalnych agentów oraz różnych sposobów współdziałania i kooperacji, a w szczególności rozpoznawania sytuacji konfliktowych i metod ich rozstrzygania.
    Przyjętym modelem semantycznym jest rozszerzona struktura Kripkego. Stan globalny tej struktury składa się ze świata, opisującego środowisko oraz ciągu stanów mentalnych agentów. Stan mentalny agenta tworzą dwa zbiory formuł reprezentujące przekonania i cele. Należy zaznaczyć, że zarówno przekonania jak i cele zależą nie od świata, w którym agent się znajduje, ale od wcześniej zdobytych przez niego doświadczeń.
    Głównym wynikiem pracy jest przedstawienie adekwatnego i pełnego systemu formalnego do specyfikowania systemów wieloagentowych i do wnioskowania o ich własnościach. Zdefiniowany został język umożliwiający specyfikację zachowań i właściwości agentów oraz jej weryfikację. Zdefiniowano też adekwatną semantykę dla tego języka. Dowód twierdzenia o pełności wzorowany jest na metodzie zaproponowanej dla logiki algorytmicznej. Oparty jest on na kombinacji algebraicznej metody zastosowanej przez H. Rasiową i R. Sikorskiego dla logiki klasycznej z metodą Kripkego użytą dla logiki modalnej.

    10.06.2005 - Ivo Düntsch: "Rough relation algebras revisited".

    Rough relation algebras have been introduced by Comer (1993) as an algebaic framework to study rough approximations of binary relations; they were further studied by Düntsch (1994). In the present work, we revisit this class and study its properties in relation to relation algebras. Furthermore, we prove several theorems for simple rough relation algebras. It may be mentioned that the content of the talk is algebraic in nature, and, apart from motivating the investigation of these algebras, rough sets do not play a significant role.