Powrót na stronę seminarium.


Seminarium Zakładu Logiki Matematycznej - archiwum tematów z roku akad. 2007/08


12.10.2007 - Anjana Kakoti Mahanta: "To study behaviour patterns of Internet users using interval superimposition".

When part of a line is overwritten then the overwritten portion looks darker for obvious reason. This phenomenon is used in defining superimposition of intervals. When two intervals overlap, then using a suitable membership function we can mathematically express this by assigning the membership values of the elements in the overlapped portion double that of the elements in the other portions. Using this concept a method has been proposed to find behaviour patterns of Internet users. We assume that the visit periods of individual users are given, where a user may have several visit periods in a day. The method proposed can abstract periodic patterns such as daily pattern, weekly pattern etc in the behaviour of the individual users.

19.10.2007 - Paweł Delimata, Mikhail Moshkov, Andrzej Skowron, Zbigniew Suraj: "Inhibitory Versus Deterministic Rules".

Our aim is to compare inhibitory and deterministic rules as tools for knowledge representation and as bases for classification algorithms. To this end we consider some theoretical results and results of experiments with lazy classification algorithms based on inhibitory and deterministic rules.

19.10.2007 - Grzegorz Góra, Jan Bazan: "Wnioskowanie metodą najbliższych sąsiadów w leczeniu noworodków z niewydolnością oddechową".

Autorzy badań: G. Góra, J.G. Bazan, P. Kruczek, S Bazan-Socha, A. Skowron, J.J. Pietrzyk.
Na seminarium zaprezentujemy ostatnie wyniki naszej pracy nad automatycznym planowaniem dla wspomaganiu leczenia noworodków z niewydolnością oddechową. Zastosowaliśmy metodę najbliższych sąsiadów, przy czym wnioskowanie, które prowadzimy jest wnioskowaniem dla złożonych decyzji (w tym przypadku jest to plan leczenia). Ważnym elementem naszego algorytmu jest konstrukcja odpowiedniej miary odległości między przypadkami.
Aby skonstruować tą miarę najpierw zdobywamy wiedzę dziedzinową. Tą wiedzę pozyskujemy z 2 źródeł: bezpośrednio od eksperta oraz przy użyciu technik maszynowego uczenia. Znaleziona wiedza dziedzinowa przedstawiona jest jako ontologia pojęć. Pojęcia jak i zależności między tymi pojęciami są aproksymowane. Zaprezentujemy wyniki eksperymentów, które pokazują polepszenie jakości klasyfikacji w stosunku do metod prezentowanych wcześniej dla danych dotyczących leczenia noworodków.

26.10.2007 - Sebastian Stawicki: "On boosting of rule based classifiers".

In this presentation, some results obtained from author's master thesis research will be presented. Research were focused on boosting rule based classifiers. Variations of AdaBoost algorithm were used as a framework to experiments. The main questions were: "how to build a weak classifier using a set of rules" and "if it is worthwhile to obtain a different final hypothesis instead of the final ensemble of classifiers".

9.11.2007 - Piotr Hońko: "Wykrywanie zależności w danych wielo-relacyjnych".

Duża ilość danych gromadzonych przez różnego rodzaju podmioty przechowywana jest w bazach danych o strukturze relacyjnej. Opis danych za pomocą wielu relacji umożliwia wyrażenie bardziej złożonych zależności zachodzących między obiektami niż opis obiektów za pomocą języka typu atrybut-wartość. Przechowywanie dużej ilości danych wiąże się z potrzebą wydobywania z nich wiedzy, przy pomocy której można opisywać zależności występujące w bazie lub dokonywać analizy nowych danych.
Na seminarium zostaną przedstawione wyniki badań dotyczących wykrywania zależności w danych wielo-relacyjnych. Badania zostały wykonane w ramach pracy doktorskiej.

16.11.2007 - Jan Bazan: "Przegląd zagadnień i problemów związanych z projektowaniem i implementacją środowiska do aproksymacji złożonych pojęć czasowo-przestrzennych".

W referacie chciałbym przedstawić szereg zagadnień technicznych, które pojawiają się przy projektowaniu i implementacji środowiska przeznaczonego do aproksymacji złożonych pojęć czasowo-przestrzennych . Chodzi tutaj o takie zagadnienia jak:
- dostarczenie narzędzia do projektowania ontologii pojęć,
- dostarczenie narzędzi do tworzenia i wykonywania skryptów użytkownika,
- wybór głównej metody reprezentowania obiektów z danymi w graficznym interfejsie uzytkownika (GUI),
- procedury tworzenia i operowania AR-schematami w GUI,
- procedury tworzenia i testowania klasyfikatorów rozpoznających wzorce zachowania w GUI,
- procedury automatycznego konstruowania planów w GUI.

23.11.2007 - Andrzej Buller: "Logika dynamicznie rozmyta - klucz do sztucznego mózgu".

W referacie przedstawione zostaną w zarysie założenia i wyniki projektu Artificial Brain, realizowanego w latach 2000-2006 w Advanced Telecommunications Research Institute (ATR) w Kioto. Omówiona zostanie między innymi logika dynamicznie rozmyta, w której rozmytość pojęć jest reprezentowana poprzez strumienie sprzecznych ze sobą przesłanek, a każde z możliwych zdań wynikowych stara się wyprzeć konkurenta z obszaru pamięci roboczej. Jak się okazało, robot działający w oparciu o logikę dynamicznie rozmytą może demonstrować irracjonalne zachowania, których zazwyczaj nie oczekuje się od maszyn, a które są zaskakująco podobne do niektórych zachowań zwierząt i ludzi.

30.11.2007 - Marcin Wojnarski: "Towards a flexible component-based architecture of machine learning software".

Prezentacja.
As most of us conduct research in machine learning / data mining, we frequently need to implement and test some data processing algorithms. Although there are many supporting tools, like RSES/Rseslib, WEKA, Matlab, R, SNNS etc., this problem is still difficult and most of time devoted to research is took up by software implementation. Speed of implementation process may be several times larger or smaller, depending mostly on software architecture. Therefore, the problem of which architecture to choose is crucial for time-efficiency of our research work.
In this talk I will propose an architecture which in my view will be more flexible and easier to use than existing ones. This architecture comes from many-year experience in implementing different machine learning algorithms. Moreover, it became the framework for the algorithms that I am implementing now - related to neural networks and computer vision - so it is already partially verified in real-world implementation.

14.12.2007 - Arkadiusz Wojna: "Rseslib 3 - biblioteka z metodami uczenia maszynowego oraz narzędzia do niej".

Tematem prezentacji będzie omówienie zawartości biblioteki Rseslib 3 oraz narzędzi opartych na tej bibliotece. Biblioteka została zaprojektowana w taki sposób, żeby umożliwić zarówno wielokrotne wykorzystanie zaimplementowanych struktur danych i algorytmów, jak i zbudowanie elastycznego interfejsu pozwalającego dodawać, używać i wizualizować modele danych. Omówione zostaną struktury danych, algorytmy i klasyfikatory zawarte w bibliotece, a także 2 narzędzia. Pierwsze narzędzie Qmak służy do analizy i klasyfikowania danych oraz do testowania i wizualizacji klasyfikatorów i klasyfikacji. Drugie narzędzie Simple Grid Manager umożliwia rozpraszanie obliczeń w sieci.

21.12.2007 - Andrzej Janusz: "A similarity relation in machine learning".

4.01.2008 - Marcin Wojnarski: "Nondeterministic discretization of weights improves accuracy of neural networks".

Neural networks are well-established tools in machine learning, with proven effectiveness in many real-world problems. However, there are still many tasks in which they perform worse than other systems. One of the reasons is that neural networks contain thousands of real-valued adaptive parameters, and so they have strong tendency to get overtrained (overfitted). Thus, methods to improve their generalization abilities are necessary.
In my talk I will present a new method, based on nondeterministic discretization of neural weights. The method is easy to implement, yet it can lead to significant improvement in accuracy of the network.
What is the most interesting, this algorithm shows also how methods of continuous optimization - like gradient descend - can be successfully applied to optimization over discontinuous (e.g. discrete) spaces.

11.01.2008 - Urszula Kuzelewska: "Pozyskiwanie wiedzy przy użyciu algorytmów grupujących z wykorzystaniem granulacji informacji".

Wydobywanie wiedzy z danych (ang. data mining) jest gałęzią nauki nierozerwalnie związaną z postępem informatycznym. Znajduje ono zastosowanie w szerokiej gamie zagadnień: przetwarzanie tekstu, rozpoznawanie obrazów, predykcja, planowanie, biomedycyna i in. Z analizą danych wiąże się też dziedzina zwana obliczeniami granularnymi (ang. granular computing). Dotyczy ona systemów przetwarzania informacji podzielonych na pewne jednostki, zwane granulami. Granule stanowią obiekty posiadające cechy wspólne, takie jak podobieństwo według ustalonego kryterium czy zbieżną funkcjonalność. Teoria granulacji oferuje nowe podejście do analizy danych oparte na traktowaniu informacji jako granul o zmiennej rozdzielczości. Na różnych poziomach granulacji jest możliwe uzyskanie zupełnie innych własności danych oraz zależności pomiędzy nimi. Zaproponowany algorytm, SOSIG (ang. Self-organizing System for Information Granulation), jest przeznaczony do pozyskiwania wiedzy z baz danych. Algorytm identyfikuje granule (grupy) danych o różnej rozdzielczości w badanym zbiorze. W odróżnieniu od powszechnie stosowanych algorytmów grupujących nie ma tutaj potrzeby określania zawczasu liczby grup czy też rozkładu danych.

18.01.2008 - Piotr Kosiuczenko: "Contract-Oriented Specification of Software Systems".

The paradigm of contractual specification provides a transparent way of specifying complex software systems. Contracts are often expressed in a high level language such as Object Constraint Language (OCL). OCL is used in combination with the Unified Modeling Language (UML). This approach, as any other, has its advantages and limits. Despite the fact that its main ideas were coined twenty years ago, there is still a number of research problems. In this talk, we will discuss fundamental ideas of contract-oriented system specification and the way contracts can be used in modelling of software systems. We will also briefly present our recent results concerning contract transformation and invariability specification (frame problem) in OCL.

25.01.2008 - Andrzej Skowron: "Wykrywanie modeli procesow z danych i wiedzy dziedzinowej".

29.02.2008 - Wojciech Froelich: "Causal Knowledge in the Construction of Information Granules".

We discuss the problem of modeling causal dependencies within uncertain data in the context of approximate reasoning. The initial presentation of Simpson's paradox and relevant research shows the importance of the problem. We propose the incorporation of additional causal knowledge to the traditional frequency based (probability belief) methods of discovering and evaluating generalized association rules from data. The proposed approach deals with cause-effect relationships in a generalized way, abstracting of a particular uncertainty measure (rough, fuzzy or other) applied to the interpretation of rules. The assumed generality of the presented method has been accomplished by its conceptualization in the framework of approximation spaces and the information granules calculus.Thus, the additional causal knowledge plays a role of a constraint while constructing information granules, the building blocks for generalized approximation rules (granules of knowledge). Finally, we explain, the intended application of the proposed method to the selection of generalized association rules in case of the occurrence of Simpson's paradox.

29.02.2008 - Barbara Marszał-Paszek: "Funkcje przekonań w teorii zbiorów przybliżonych oraz ich zastosowania".

W referacie chciałabym przedstawić zagadnienia zawarte w przygotowywanej pracy doktorskiej pod tym samym tytułem. Głównym celem pracy jest opracowanie metod wykorzystujących funkcje przekonań z teorii ewidencji w teorii zbiorów przybliżonych i ich zastosowanie.
Inspiracją do napisania tej pracy były rozważania teoretyczne zawarte w publikacjach A. Skowrona i J.W. Grzymały-Busse. Zaproponowano w nich przejrzysty model opisu podstawowych miar z teorii ewidencji z wykorzystaniem pojęć teorii zbiorów przybliżonych. Okazało się, że to połączenie dwóch teorii może stanowić dobre podstawy do dalszych rozważań teoretycznych i eksperymentów na danych rzeczywistych.

7.03.2008 - Ivo Duentsch: "Knowledge structures - Relational tools for diagnostic skill assessment".

Relating empirical data (e.g. solutions to test questions) to the true knowedge state of a student is a demanding task in skill assessement. I will present some tools based on relational structures and modal operators to assist in this task.

14.03.2008 - Marcin Wolski: "Approximation Spaces, Operators and Distance Measures".

In the context of approximation spaces, the operators of lower and upper approximations may be described in terms of modal-like operators. I will discuss the metric properties of approximation spaces and the corresponding modal operators. I will also present set-distance measures based on these operators, and show that they preserve the original granulations (of objects) induced by approximation spaces.

28.03.2008 - Houman Younessi: "Manhattan: Sequence Oriented Software Engineering".

Manhattan is a software engineering methodology being developed as a means of provision of a seamless path from concept to implementation that employs a simple yet powerful modeling grammar called Base Structure Grammar to extract precise specifications of the sequences of interactions between objects and components that compose the system. These objects are initially abstract notions in the specification domain but are uniformly transformed into design and finally implementation domain artifacts while maintaining system and specification coherence. As such Manhattan is able to provide a means of incorporating - ultimately in an automatic fashion - and evaluating multiple design and architectural patterns and options at multiple levels. It also provides a convenient means of coherent interface/hardware co-design. Finally, sequence oriented languages are being developed (e.g. recombinant programming) to automate many aspects of the specification and design process.
Professor Younessi will give a short introductory overview of Manhattan and how it relates to software engineering development.

28.03.2008 - Eugene Eberbach: "The $-Calculus Process Algebra for Problem Solving: A Paradigmatic Shift in Handling Hard Computational Problems".

The $-calculus is the extension of the pi-calculus, built around the central notion of cost and allowing infinity in its operators. The unique feature of the $-calculus is its support for problem solving by incrementally searching for solutions and using cost to direct its search. We propose the $-calculus as a more complete model for problem solving to provide a support to handle intractability and undecidability. It goes beyond the Turing Machine model. We define the semantics of the $-calculus using a novel optimization method (called the k Omega-optimization), which approximates a nonexisting universal search algorithm and allows the simulation of many other search methods. In particular, the notion of total optimality has been utilized to provide an automatic way to deal with intractability of problem solving by optimizing together the quality of solutions and search costs. The sufficient conditions needed for completeness, optimality and total optimality of problem solving search are defined. A very flexible classification scheme of problem solving methods into easy, hard and solvable in the limit classes has been proposed. In particular, the third class deals with non-recursive solutions of undecidable problems. The approach is illustrated by solutions of some intractable and undecidable problems. We also briefly overview two possible implementations of the $-calculus.
The $-calculus provides a very general model for problem solving. In particular, it is applicable to robotics, software agents, neural nets, and evolutionary computation. The $-calculus can be used for design of cost languages (SEMAL, GBML, CCL), cellular evolvable-cost-driven hardware, DNA-based computing and bioinformatics (including sequence alignment and protein folding), electronic commerce, modeling reactive sensor networks, polymorphic viruses and quantum computing. The $-calculus leads to a new programming paradigm cost languages, and a new class of computer architectures cost-driven computers. The NSERC and ONR supported projects on $-calculus have been aiming at investigation, design and implementation of a wide class of adaptive real-time distributed complex systems exhibiting meta-computation and optimization. The $-calculus has has been applied to the Office of Naval Research CCL (Common Control Language) for Autonomous Underwater Vehicles (AUVs) at NUWC, Newport, RI, and SAMON robotics testbed at Applied Research Lab, Penn State University. Some preliminary ideas have also been utilized in the 5th Generation ESPRIT SPAN project on integration of object-oriented, logic, procedural and functional styles of programming in parallel architectures.

4.04.2008 - Wojciech Froelich: "Zastosowanie Sieci Kognitywnych w Modelowaniu Procesów Decyzyjnych".

Sieci kognitywne (ang. cognitive maps) stanowi jedną z metod reprezentacji wiedzy inspirowanych biologią. Mimo pewnego podobieństwa do sieci neuronowych, sieci semantycznych oraz sieci przekonań charakteryzują się unikalnymi cechami, do których należą: reprezentacja zbioru pojęć, także aproksymowanych wraz ze wzajemnymi zależnościami przyczynowo-skutkowymi, łatwość intuicyjnej interpretacji, proste mechanizmy wnioskowania oparte na obliczeniach macierzowych oraz możliwość pozyskiwania wiedzy na podstawie danych temporalnych. W referacie zostanie przedstawiony przegląd dotychczasowych prac w zakresie teorii sieci kognitywnych. Zaproponowana zostanie także propozycja formalizacji modelu sieci kognitywnej oraz oparty na niej nowy hybrydowy algorytm uczenia. W drugiej części prezentacji planowane jest omówienie zastosowania sieci kognitywnych w medycynie, w szczególności w procesie wspomagania diagnozy i terapii.

11.04.2008 - Radosław Katarzyniak: "Gruntowanie modalnego języka komunikacji w systemach agentowych".

Przedstawiony zostanie model gruntowania języka komunikacji w systemach agentowych. Problem gruntowania symboli języków zaliczany jest do najważniejszych zagadnień rozwiązywanych przez sztuczną inteligencję i dotyczy sposobu, w jaki systemy inteligentne powinny wiązać generowane symbole języka z otaczającym światem. Efektywne i poprawne gruntowanie języka jest konieczne w zastosowaniach sztucznych systemów, w których zachodzi konieczność współpracy i komunikacji człowieka z systemem sztucznym.
Zaproponowany model pokazuje, w jaki sposób wyrażenia konkretnego sztucznego języka komunikacji powinny być generowane przez system agentowy w sposób gwarantujący zachowanie zgodność interpretacji przypisywanej wyrażeniom tego języka z interpretacjami przypisywanymi odpowiednikom tych wyrażeń w języku naturalnym. Model obejmuje przypadek języka wyrażeń zbudowanych z literałów atomowych (pozytywnych i negatywnych) rozszerzanych modalnymi operatorami wiedzy, przekonań i możliwości. Zakłada się, że wyrażenia gruntowanego języka służą agentowi do komunikowania innym podmiotom (w tym człowiekowi) wiedzy o bieżących stanach otoczenia. Model specyfikuje sytuacje, w których zachodzi poprawne odniesienie (czyli ugruntowanie) poszczególnych wyrażeń języka komunikacji do otaczającego świata, z uwzględnieniem roli, którą w tym odniesieniu odgrywa stan niekompletności wiedzy systemu agentowego. Zbiór twierdzeń sformułowanych dla podanego modelu pokazuje, w jaki sposób należy parametryzować system agentowy, aby uzyskać adekwatność zachowań tego języka z zachowaniami znanymi w przetwarzaniu języka naturalnego.

18.04.2008 - Beata Zielosko, Marcin Piliszczuk, Arkadiusz Kocjan: "Częściowe redukty i reguły decyzyjne".

W referacie chcemy przedstawić wykorzystanie algorytmu zachłannego do generowania częściowych reduktów i reguł decyzyjnych. Głównym celem jest przedstawienie wyników eksperymentów dla zbiorów danych umieszczonych w UCI Machine Learning Repository.
Wyniki przeprowadzonych badań będą obejmować zagadnienia:
1. "0.5-hipoteza": dla większości tablic decyzyjnych algorytm zachłanny podczas generowania częściowych reduktów i reguł decyzyjnych w każdej iteracji wybiera atrybut, który pozwala oddzielić przynajmniej 50% par wierszy jeszcze nie oddzielonych.
2. Klasyfikacja danych z wykorzystaniem częściowych reguł decyzyjnych zbudowanych:
a) na podstawie reduktów,
b) bezpośrednio dla każdego wiersza w tablicy decyzyjnej.
3. Konstruowanie częściowych reguł decyzyjnych przez algorytm zachłanny z uwzględnieniem wag atrybutów.

25.04.2008 - Dominik Ślęzak: "Modele wiedzy oparte na zależnościach pomiędzy atrybutami w systemach informacyjnych".

Zaprezentowane będą wyniki teoretyczne i praktyczne związane z grupowaniem atrybutów, selekcją atrybutów przy wykorzystaniu teorii zbiorów przybliżonych, tworzeniem bazy wiedzy o zależnościach funkcyjnych pomiędzy atrybutami, a także nowe wyniki dotyczące przybliżonych sieci bayesowskich.

9.05.2008 - Anna Gomolińska: "Przybliżona spełnialność formuł: Przypadek języka deskryptorów".

Z zagadnieniem spełnialności formuł mamy do czynienia w wielu sytuacjach, na przykład, gdy oceniamy czy dla pewnego obiektu zachodzi pewien warunek lub zbiór warunków, gdy wyszukujemy bądź konstruujemy obiekty spełniające dane warunki, a także gdy staramy się opisać w pewnym języku, jakie cechy posiada dany obiekt lub zbiór obiektów. Zauważmy, że umiejętność prawidłowej oceny czy dana formuła jest spełniona dla rozważanego obiektu jest kluczowa dla poprawnego i skutecznego działania systemów inteligentnych. W warunkach niepełnej i niepewnej informacji, w jakich zwykle przychodzi nam działać i podejmować decyzje, jedno, precyzyjnie określone pojęcie spełnialności może się nie sprawdzić. Poszukujemy więc pojęć przybliżonych.
W moim wystąpieniu przedstawię zagadnienie spełnialności formuł z punktu widzenia teorii zbiorów przybliżonych na przykładzie języka deskryptorów dla systemów informacyjnych Pawlaka. Oprócz określenia czym ogólnie jest spełnialność formuł, przedstawię najważniejsze etapy odkrywania tego pojęcia oraz napotykane problemy i wyzwania. W ramach ilustracji podam też parę przykładów konkretnych pojęć spełnialności.

23.05.2008 - Jan Bazan: "RS-Ecca - narzędzie komputerowe do aproksymacji złożonych pojęć z zastosowaniem teorii zbiorów przybliżonych.".

W referacie chciałbym przedstawić wstępną wersję systemu RS-Ecca (Rough Set Environment for Complex Concepts Approximation). Jest to system wyposażony w graficzny interfejs użytkownika napisany w jezyku Java przy użyciu bibliotek Swing i JGraph, umożliwiający łatwą realizację różnych operacji na zbiorach danych i wiedzy dziedzinowej (dotyczących aproksymacji złożonych pojęć czasowo-przestrzennych). Jako przykład zastosowania systemu RS-Ecca będzie zademonstrowane jak można w tym systemie:
-wykrywać wzorce zachowania pojedynczych obiektów złożonych (bez uwzględnienie ich wewnętrznej struktury),
-wykrywać wzorce zachowania obiektów złożonych z uwzględnieniem ich wewnętrznej struktury,
-automatycznie planować zachowanie obiektów złożonych.

30.05.2008 - Dariusz Małyszko: "Zbiory przybliżone i obliczenia ewolucyjne w segmentacji obrazów".

Tematem seminarium jest przedstawienie stanu dotychczasowych badań naukowych oraz zaproponowanie własnych opracowanych rozwiązań w zakresie zastosowania zbiorów przybliżonych oraz obliczeń ewolucyjnych w dziedzinie segmentacji obrazów oraz w szerszej perspektywie w grupowaniu danych. Segmentacja obrazów rozumiana jest jako podział obrazu na odrębne obszary, których punkty w ramach danego obszaru wykazują podobieństwo, natomiast punkty z różnych obszarów różnią się względem przyjętego kryterium podobieństwa. Zbiory przybliżone stanowią narzędzie przetwarzania informacji niepewnych i nieprecyzyjnych. Zastosowanie teorii zbiorów przybliżonych do przetwarzania i segmentacji obrazów wydaje się rozsądnym rozwiązaniem pozwalającym na uwzględnienie nieprecyzyjnych danych, jakimi bardzo często są dane obrazowe. W ramach prowadzonej pracy zostały opracowane algorytmy segmentacji obrazu z wykorzystaniem entropii przybliżonej. Opracowane rozwiązania obejmują segmentacje poprzez progowanie obrazu oraz segmentacje oparte na grupowaniu danych. Zaproponowano także ewolucyjny algorytm wielokryterialny segmentacji obrazów. Przedstawiony zostanie kierunek dalszych prac w prezentowanej dziedzinie.

6.06.2008 - Marcin Wojnarski: "Datcracker: an open data-mining platform connecting Rseslib and WEKA".

Datcracker (www.datcracker.org) is an open-source extensible data-mining platform which provides common architecture for data processing algorithms of various types. The algorithms can be combined together to build data processing schemes of large complexity.
Datcracker provides:
1. Extensibility of algorithm pool through well-defined API
2. Extensibility of types of data that algorithms operate on
3. Stream-based data processing, for efficient handling of large volumes of data and for freedom of designing complex experiments
The algorithms currently available on Datcracker platform include all classifiers from Rseslib and WEKA libraries and all filters from WEKA.
In the talk I will show how to use Datcracker and how to extend it with new algorithms.