Seminarium Zakładu Logiki Matematycznej - archiwum tematów z roku akad. 2005/06


14.10.2005 - Jan Bazan: "Struktura przykładowych zbiorów danych medycznych dotyczących intensywnej terapii noworodków oraz propozycja wykorzystania tych danych do ilustracji działania algorytmicznych metod, przeznaczonych do analizy zachowań złożonych obiektów zmieniających się w czasie".

Od dłuższego czasu czyniłem starania o pozyskanie danych medycznych, które mogłyby być użyte do testowania metod algorytmicznych badających zachowania obiektów zmieniających się w czasie. W wyniku tych starań udało mi się zlokalizować a następnie pozyskać dane medyczne z Polsko-Amerykańskiego Instytutu Pediatrii Collegium Medicum Uniwersytetu Jagiellońskiego. Dane te stanowia dość szczegółowy zapis leczenia ponad 300 noworodków przebywających na Oddziale Patologii i Intensywnej Terapii Noworodków Uniwersyteckiego Szpitala Dziecięcego w Krakowie przez okres od 1 do kilkudziesięciu dni.
Podczas referatu chciałbym ogólnie scharakteryzować pozyskane dane medyczne oraz wskazać dwa kierunki wykorzystania tych danych do ilustracji działania algorytmicznych metod, przeznaczonych do analizy zachowań złożonych obiektów zmieniających się w czasie.
Pierwszy kierunek wiąże się z metodami wykrywania wzorców zachowania obiektów złożonych, zmieniających się w czasie. W tym przypadku obiektami mogą być pacjenci albo raczej konkretne choroby (lub patologie), które rozwijają się u noworodków.
Natomiast drugi ze wspomnianych kierunków wykorzystania danych wiąże się z metodami planowania zachowania się złożonych obiektów. W tym przypadku chodzi o automatyczne planowanie efektywnego leczenia noworodków cierpiących na niewydolność oddechową.

21.10.2005 - Arkadiusz Wojna, Marcin Staszczyk, Damian Mański: "Projekt Rseslib - biblioteka i narzędzia graficzne".

Tematem seminarium będzie projekt Rseslib. Projekt realizowany od 3 lat, bazujący na doświadczeniach z rozwijania systemu RSES, ma na celu stworzenie zintegrowanego środowiska o otwartej, modularnej architekturze, z narzędziami graficznymi, służacego do definiowania i weryfikowania różnych modeli danych oraz do rozwoju algorytmów analizy i wnioskowania z danych. Na seminiarium zaprezentowana zostanie szczegółowo bieżąca zawartość biblioteki Rseslib oraz aktualnie dostępne narzędzia graficzne Visual Rseslib i Trickster, a także plany dalszego rozwoju.

28.10.2005 - Bożena Staruch: "Zastosowanie rozszerzeń struktur częściowych w problemach wnioskowania przy niepełnej informacji".

Celem referatu jest pokazanie zastosowania języka struktur częściowych opisu i modelowania systemów inteligentnych wnioskujących z niepełnej informacji. Proces zdobywania nowych informacji i poszerzania wiedzy reprezentujemy przez rozszerzenia struktur częściowych, gdzie rozszerzenie rozumiemy jako dodawanie nowych obiektów, dodawanie nowych zależności oraz uściślanie zależności wcześniej opisanych w sposób częściowy. Na przykład, struktury częściowe mogą posłużyć do reprezentowania granul informacji. Reprezentacja granul informacyjnych w postaci struktur częściowych daje możliwość wykorzystania języka algebraicznego w rachunku granul, możemy więc stosować znane w algebrze pojęcia i konstrukcje, takie jak homomorfizm, podstruktura, produkt prosty, suma prosta, granica prosta, koprodukt.
Inne zastosowanie struktur częściowych widzimy w problemie uczenia się pojęć. W algebraicznym ujęciu budujemy model, którego dziedzinę tworzą zaobserwowane obiekty, a pojęcia definiujemy jako relacje jednoargumentowe określone na części dziedziny (na zbiorze przykładów). Zaklasyfikowanie danego obiektu do pojęcia oznacza rozszerzenie dziedziny odpowiedniej relacji o ten obiekt.
Największą użyteczność stosowania rozszerzeń struktur częściowych widzimy w systemach wieloagentowych, gdzie stany agentów modelujemy w postaci struktur częściowych. Znajdujemy zastosowanie naszego formalizmu jeśli informacja jest bardzo obszerna, zbyt skomplikowana, by wnioskować z niej bezpośrednio. Wówczas można dokonać jej podziału na granule informacyjne reprezentujące stan wiedzy agenta. Podziału tego możemy dokonać metodami algebraicznymi (przy założeniu, że wyjściowa informacja jest już opisana w postaci pewnej struktury częściowej), na przykład dzieląc na słabe podstruktury o określonej mocy nośnika lub też pewne wyspecjalizowane podstruktury, na przykład, z sygnaturą ograniczoną do określonych symboli funkcyjnych lub relacyjnych.
Jeśli budujemy złożony system w środowisku rozproszonym, w oparciu o agentów z określonymi zadaniami do wykonania, to modelując agentów w postaci struktur częściowych otrzymujemy algebraiczne narzędzie (konstrukcja koproduktu struktur częściowych) wymiany informacji, scalania częściowych rezultatów i podejmowania decyzji o wykonaniu określonego zadania lub nie. Przyjmując podstawowe założenie, że fragment rzeczywistości, porcja informacji, stany agentów modelowane są w postaci struktur częściowych, uzyskujemy sposób reprezentacji dynamiki zmian poprzez rozszerzenia struktur częściowych. Rozszerzenia struktur częściowych reprezentują światy możliwe. Od strony logicznej badamy zdania możliwe, spełnione w pewnym świecie możliwym oraz zdania niezawodne spełnione w każdym świecie możliwym. Pokazujemy związki z innymi formalizmami logicznymi stosowanymi w sytuacjach wnioskowania przy niepełnej informacji.
W przedstawionym podejściu proponujemy nowe, algebraiczne spojrzenie na problemy wnioskowania przy niepełnej informacji. Stosowanie funkcji w problemach praktycznych jest odrzucane ze względu na znaczne zwiększenie złożoności obliczeniowej. Takie zwiększenie złożoności nie następuje przy stosowaniu funkcji częściowych, które można ograniczać do dowolnie wybranych fragmentów.

28.10.2005 - Michał Sapiński: "Modelowanie danych dotyczących interfejsów BCI (ang. Brain-Computer Interfaces)".

Interfejsy BCI umożliwiają komunikację z urządzeniami zewnętrznymi z wykorzystaniem aktywności elektrycznej mózgu - sygnału EEG. Osoba wykorzystująca taki interfejs nie musi wykonywać żadnych ruchów - dzięki czemu techniki te mogą być używane między innymi przez osoby sparaliżowane. W czasie seminarium opowiem o eksperymentach związanych z tym zagadnieniem na przykładzie danych z trzeciej edycji "BCI Competition". Celem eksperymentów było stworzenie klasyfikatora, który możliwie dobrze rozróżniałby stany aktywności mózgu odpowiadające różnym intencjom badanej osoby.

4.11.2005 - Nguyen Hung Son.

18.11.2005 - Nguyen Tuan Trung: "An Approach to Recognition of Structured Objects".

18.11.2005 - Mikhail Ju. Moshkov: "On the cardinality of reducts for the most part of k-valued decision tables".

In the presentation lower and upper bounds on the cardinality of reducts for the most part of k-valued decision tables will be considered as well as an upper bound on the number of reducts.

25.11.2005 - Wit Jakuczun: "Lokalne klasyfikatory jako narzędzie analizy i klasyfikacji sygnałów".

Streszczenie (prezentacja rozprawy doktorskiej)

2.12.2005 - Wojciech Jaworski: "Niejednoznaczność, niewiedza, niepewność i niepoprawność w analizie tekstów sumeryjskich".

Opowiem o metodach radzenia sobie z niejednoznacznością tekstu, uczeniem komputera języka naturalnego, analizowaniu tekstu zawierającego błędy i uszkodzenia. Ponadto zarysuję sposoby nadawania semantyki fragmentom tekstu i komponowania z niej semantyki całego tekstu. Jeśli starczy czasu, przedstawię wyniki badań mające 'historyczne' konsekwencje, takie jak poprawianie błędow w transliteracji, czy informacje o stukturze administracji i zmianach stanu gospodarki sumeryjskiej na przestrzeni 20 lat.

9.12.2005 - Marcin Wojnarski: "Nowy algorytm klasteryzacji oraz jego zastosowanie w hierarchicznym rozpoznawaniu obrazów".

W referacie wyjaśnię, dlaczego rozpoznawanie obrazów musi wykorzystywać algorytmy uczenia bez nadzoru (czyli grupowania danych / klasteryzacji). Omówię możliwość wykorzystania istniejących algorytmów klasteryzacji oraz przedstawię własny, dający bardziej naturalny i oszczędny podział na klastry niż k-means.

16.12.2005 - Andrzej Skowron: "Rough sets in perception-based computing".

6.01.2006 - Krzysztof Pancerz: "Zastosowanie zbiorów przybliżonych do identyfikacji modeli systemów współbieżnych".

Streszczenie referatu.

6.01.2006 - Dominik Ślęzak: "Rough-Set-Based Attribute Dependencies: New Perspectives for Attribute Reduction".

One of the key concepts of the rough set methodology is a reduct, an optimal subset of attributes providing enough information about pre-defined target concepts or whole data sources. Proposed originally within the framework of rough set approximations, the notion of a reduct was extended regarding different application requirements, using concepts of, for example, Boolean reasoning, Bayesian reasoning, and information theory. There have been also developed efficient tools for extracting reducts from data, based, for instance, on greedy heuristics and evolutionary methods.
In this talk, we present current trends in rough-set-based attribute reduction, understood as the means for representation of multi-attribute approximate dependencies in real-world data (with case studies related to bio-medical problems), as well as to some concepts of dialogue between intelligent agents. We also formulate some new optimization problems regarding the attribute reduction and selection, showing their practical meaning in KDD processes.

13.01.2006 - Ewa Rauch (ewa_rauch@yahoo.co.uk): "Rough Set Theory & nature vs nurture".

In this talk I refer to the "nurture versus nature" discussion involving researchers and politicians since many years. I suggest moving it from the philosophical ground to the experimental field. Using modern computational tools (Rough Set Theory) it will soon be possible to perform computational experiments investigating the influence of the biological parameters characterizing the visual system in the human brain ("nature") and various form of interacting with infants ("nurture") on behavioral strategies preferred by people when they cope with routine tasks that can be performed with very little of attention.
The experiments will involve using an RST-based software system called DOVE (DOrsal + VEntral) capable of autonomous discovery of approximate knowledge from a stream of imperfect data. The gathered knowledge may be used for environment monitoring and for a quick reaction to threat as well as a fast extraction of gist from a visual scene. According to what is currently known about the human brain, DOVE may be seen as a mathematical model of the dorsal visual system in the human brain and is meant to be used for studying the influence that graphical interfaces have on computer users.
The architecture of the system DOVE has grown from a formulated earlier by me hypothesis that the dorsal visual system is sensitive to temporal sequences and interprets them as signals originating in the environment. Uncontrolled stimulation of the dorsal visual system by random temporal sequences generated on a computer screen may elicit unnecessary musculoskeletal activation what causes exhaustion and dissatisfaction. Testing this hypothesis will be possible after implementing DOVE and will require experimenting with humans as it is proposed in another paper that I am currently working on. I hope that results of my work on DOVE will help to increase awareness of human-computer interface developers that the - ignored today - issue of temporal regularities in changes in visual objects on a computer screen registered by the dorsal visual system is of no less importance for computer users than - generally preserved - spatial consistency of information presented on a computer screen.
DOVE will provide means for studying the influence that various biological and developmental factors have on the implicitly gathered knowledge of "transformational invariants over successively ordered experiences and structural invariants over adjacently ordered experiences" [Robert E. Shaw, Ecological Psychology, 2002(14), pp.235-247]. The knowledge is acquired by unintentional accumulation of experiences during learning-by-doing. Experimenting with DOVE will allow for identification of factors guaranteeing sufficiently good quality of the preattentively detected transformational invariants. Such high quality transformational invariants are used by the "automatic pilot in the human hand" [Piotr Jaskowski, Blandyna Skalska, Rolf Verleger, Journal of Cognitive Neuroscience, 2003(15:6), pp.911-920] for controlling interaction with the environment, what frees attentional resources and enables multitasking. When reliable transformational invariants are not available, then structural invariants, which carry only information about spatial relations, must be used. Lack of temporal information in structural invariants excludes the possibility of using them by "the automatic pilot in the human hand" connected with "vision-for-action". Instead, "vision-for-perception", which operates on structural invariants, must be used. In consequence, the speed of interaction is low, since on-line hand movement control in vision-for-action is replaced by off-line control based on object recognition in vision-for-perception and on making a deliberate decision about hand movement towards a perceived object.
During this talk I focus on an issue lying slightly away from the main direction of my work. I show how DOVE can be used in the discussion on a very hot in 2005 topic "nature vs nurture". The discussion was initiated by prof. Summers from Harvard and engaged many famous researchers, among others prof. Steven Pinker and prof. Elisabeth Spelke. Manipulating the DOVE parameters related to known biological differences between a female brain (better peripheral vision because of more rods in retina) and a male brain as well as the parameters reflecting neural consequences (“the neural basis of social orienting and social cognition” [R. Langdon, T. Corner, J. McLaren, M. Coltheart, P.B. Ward, Neuropsychologia, 2006, pp. 417-429]) of encouraging girls to social games and boys to playing with toys, I show that the currently observed lack of interest of women in computer science may be explained using DOVE.
The biological phenomenon simulated by DOVE in the suggested here "nature vs nurture" computational experiment is the finding that in a typical female eye there is a larger number of rods than in a typical male eye. This provides for finer spatial resolution of visual information and for covering a wider visual field. The developmental factor considered in the experiment is the way that infants are treated by their caretakers. Usually, girls are encouraged to social activities while boys are given toys. In consequence, girls are made sensitive to temporal regularities, so important in speech understanding and social cognition, while boys develop expertise in spatial structure recognition. The female brain is provided with both, higher quality information for building transformational invariants and more advanced skills for processing these invariants. Women lack interest in cognitive strategies based on structural invariants, which require focusing on an object's parts and their spatial arrangement. Instead, women prefer strategies based on transformational invariants, in which the dominating role is played by chronologies of events and, hence, it is not strange that women are not enthusiastic about computers. During the last 20 years, computer research and technological development very strongly draw on spatial organisation of information on the computer screen as well as in the human mind. Graphical interfaces for human-computer interaction and object-oriented programming rely on the processes of object recognition, or vision-for-perception, which in the human brain are located in the ventral visual system and are strongly dependent on structural invariants. To women, reliance on structural invariants is in conflict with their preferred strategy for coping with the complexity of the world - the strategy based on transformational invariants. Moreover, performance based on structural invariants increases the load on attentional resources in the human brain, what practically eliminates so often employed by women multitasking. Building computers controlling temporal aspects of information generated by graphical user interfaces and registered by vision-for-action may be a step towards making computers more "woman-friendly".
In summary, DOVE may be seen as an attempt to explain how visual information gathered by the two visual systems in the human brain, the ventral and the dorsal, may help us to survive in everyday life. It will show how small individual differences in the way that the mechanisms involved in visual functioning work in people can lead to essential differences in behavioural strategies used for coping with the complexity of the world. The talk is focused on presenting DOVE as an application of RST. Questions about the neuroscientific research related to my work on DOVE I will be happy to answer after the talk.

20.01.2006 - Jan Doroszewski: "Schemat naturalnej struktury i funkcji wiedzy medycznej - próba rekonstrukcji".

27.01.2006 - Wojciech Jaworski: "Parsowanie wieloznacznych i uszkodzonych dokumentów".

Przedstawię narzędzia, formalizmy i algorytmy służące do analizy wieloznacznych i uszkodzonych dokumentów oraz zbiorów dokumentów. Mogą one służyć zarówno do analizy języka naturalnego jak i importowania dużych zbiorów danych, których format nie jest nam znany.

27.01.2006 - Piotr Zieliński: "Przybliżanie podobieństwa obiektów".

Celem prezentacji jest omówienie zastosowania pojęcia kratowego obiektu rozmytego do modelowania podobieństwa obiektów ustalonego systemu informacyjnego. Ponadto przedstawiona zostanie propozycja rozszerzenia pojęcia intuicjonistycznego zbioru rozmytego do kratowego intuicjonistycznego obiektu rozmytego. Dzięki temu podejściu, opis procesu przybliżania obiektu universum, traktowanego jako kratowy obiekt rozmyty, wydaje się być bardziej przejrzysty.

24.02.2006 - Rafał Latkowski: "Omówienie tematyki przygotowywanej pracy doktorskiej".

Podczas referatu planuję przedstawić zakres przygotowywanej pracy doktorskiej oraz najważniejsze wyniki dotyczące:

  • Podstaw teoretycznych uogólnionych relacji nierozróżnialności;
  • Badań eksperymentalnych nad pewnymi klasami uogólnionych relacji nierozróżnialności;
  • Badań związanych z innymi metodami wnioskowania w oparciu o niekompletną informację.

3.03.2006 - Jan Bazan: "Wykrywanie wzorców wysokiego ryzyka śmierci oraz automatyczne planowanie leczenia u niemowląt cierpiących na niewydolność oddechową metodami teorii zbiorów przybliżonych".

Podczas mojego październikowego referatu na seminarium prezentowałem dane medyczne, które pozyskałem z Polsko-Amerykańskiego Instytutu Pediatrii Collegium Medicum Uniwersytetu Jagiellońskiego. Dane te stanowią dość szczegółowy zapis leczenia ponad 300 noworodków przebywających na Oddziale Patologii i Intensywnej Terapii Noworodków Uniwersyteckiego Szpitala Dziecięcego w Krakowie przez okres od 1 do kilkudziesięciu dni. Wskazałem wtedy dwa kierunki wykorzystania tych danych do ilustracji działania algorytmicznych metod, przeznaczonych do analizy zachowań złożonych obiektów zmieniających się w czasie.
Pierwsza grupa metod wiąże się z metodami wykrywania wzorców zachowania obiektów złożonych, a moje eksperymenty polegały na wykrywaniu wzorców wysokiego ryzyka śmierci z powodu niewydolności oddechowej.
Natomiast druga grupa metod wiąże się z metodami automatycznego planowania zachowania się złożonych obiektów. W tym przypadku moje eksperymenty dotyczyły automatycznego planowania efektywnego leczenia noworodków cierpiących na niewydolność oddechową.
Obecnie chciałbym zrelacjonować obecny stan prac nad rozwojem wspomnianych wyżej algorytmicznych metod oraz przedstawić wyniki eksperymentów komputerowych, które wykazały praktyczną ich przydatność.

3.03.2006 - Dominik ślęzak: "Association Reducts – New Results".

We investigate the notions of an association reduct, which extends and complements previously studied information and decision reducts, in capability of expressing compound, multi-attribute dependencies in data. We provide Boolean, discernibility-based representation enabling to model association reducts in formal terms. We follow with discussion about complexity of optimization problems related to association reducts and summarize the already obtained results concerning heuristic search for optimal, most informative association reducts.

10.03.2006 - Janusz A. Pomykała: "Algebry systemów informacyjnych".

Tematyka wystąpienia:

  • Systemy informacyjne: zupełne, częściowe, wielowartościowe, deterministyczne i niedeterministyczne.
  • Algebry częściowe: podstawowe konstrukcje zastosowane do systemów informacyjnych.
  • Algebra relacyjna Codda i jej rozszerzenie dla systemów informacyjnych.
  • Zastosowania: obiektowość, algebra wiedzy, algebra zbiorów danych.

Bibliografia:

  • P. Burmeister, Partial Algebras, Banach Semester 1991.
  • A. Obtułowicz, Mathematical models of uncertainty with a regard to membrane systems, Natural Computing 2003.
  • L. Polkowski, A. Skowron (Eds.), Rough Sets and Current Trends in Computing, Springer LNAI 1424.
  • J. A. Pomykała, Similarity in relational databases and in information systems theory, Demonstratio Mathematica, vol. XXXV, No 4, 2002.
  • J. Winkowski, Definicja systemu reprezentacji danych, niepublikowane.

17.03.2006 - Nguyen Hung Son: "Approximate Boolean Reasoning: Fundaments and applications".

As boolean algebra has a fundamental role in computer science, the boolean reasoning approach is also an ideological methodology in Artificial Intelligence. In recent years, boolean reasoning approach shows to be a powerful tool for designing effective and accurate solutions for many problems in rough set theory. We present a more generalized approach, called the approximate boolean reasoning (ABR), to modern problems in rough sets as well as their applications in data mining.
We summarize some most recent applications of ABR approach in development of new efficient algorithms in rough sets and data mining.

24.03.2006 - Nguyen Hung Son: "Autoreferat rozprawy habilitacyjnej".

31.03.2006 - Michał Piętal: "Mapy kontaktów jako aproksymacja struktur białek - własności i zastosowania".

Liczba rozwiązanych eksperymentalnie struktur białek rośnie o kilka rzędów wolniej niż liczba zsekwencjonowanych genomów. Ze względu na zastosowania - od medycyny po ochronę środowiska, od kilku lat wzrasta więc presja na modelowanie nieznanych struktur białek w oparciu o wiedzę z kodującej ich sekwencji, wiedzę o innych znanych i ewolucyjnie bliskich (homologicznych) strukturach oraz inne źródła.
Struktury białek lub ich modele obarczone są wieloma czynnikami niepewności natury metodologicznej, pomiarowej oraz probabilistycznej a w kontekście ich numerycznego przetwarzania, dodatkowo - złożoności obliczeniowej. Mapy kontaktów białek wydają się być rozwiązaniem wielu tego rodzaju problemów, posiadając dodatkowo dwie zalety: istotna redukcja nośnika informacji oraz aparat formalizmu matematycznego.
Niniejszy referat, poza wstępem do niektórych z wyżej wymienionych zagadnień, poświęcony będzie omówieniu tematyki map kontaktów białek, ukazaniu ich podstawowych własności i zalet oraz zastosowań. Na koniec, w miarę dostępnego czasu, autor przedstawi swoje autorskie narzędzie służące do analizy map kontaktów: PROTMAP2D.

7.04.2006 - Dominik Ślęzak: "Optimization Problems of Attribute Reduction Revisited: Completion of Characteristics of Various Types of Rough Set Reducts, NP-Hardness, and New Results on o-GA search for Reduct Ensembles".

We complete the characteristics of various types of rough set-based reduction. We show that on top of previously considered decision, information, and association reducts, there are also some reduct-related constructions corresponding to notions of MVD / EMVD in the theory of databases as well as to our previous studies on the data table decomposition. We show a unified framework for proving NP-hardness of optimization problems related to all the above-mentioned types of attribute reduction. We present an interpretation of ensembles of various types of attribute reducts in terms of knowledge bases encoding information about multi-attribute dependencies in data tables. Finally, we discuss some properties of order-based genetic algorithms, in relation to searching for optimal ensembles of various types of attribute reducts in data tables.

21.04.2006 - Sinh Hoa Nguyen: "Ontology driven concept approximation".

We present a hierarchical learning method for approximation of complex concepts from experimental data and domain knowledge. The domain knowledge is represented by an ontology of concepts. The method, called multilayered rough classifier (mlRC), is based on a combination of the rough set approach and the layered learning approach. Some additional constraints among concepts from ontology are used to improve the classification quality of the composed classifiers. We also show how to improve the classification quality of classifiers induced from temporal data by some special features characterizing changes of data in time windows. The implementation details of mlRC based on RSESlib and the results of experiments of the proposed method on the sunspot data are reported.

28.04.2006 - Nguyen Tuan Trung: "Pozyskiwanie wiedzy dziedzinowej: Aspekty kognitywistyczne".

Wiedza dziedzinowa o przetrzeni obiektów jest szczególnie ważna w konstruowaniu efektywnych klasyfikatorów. Przedstawię założenia i realizację procesu jej pozyskiwania drogą interakcji maszyna-ekspert opartą na teorii mereologii przybliżonej, ze szczególnym uwzględnieniem problemu hierarchicznego aproksymowania pojęć. Omówię następnie podobieństwa i wspólne aspekty przedstawianych zagadnień z osiągnięciami z zakresu nauk kognitywnych, będącymi wynikami prac m.in. A. Newella oraz J. Andersona.

5.05.2006 - Marcin Wojnarski: "Human computation or how to label all images on the web".

Tematem referatu będą proste lecz ciekawe gry internetowe, pozwalające wykorzystać "pracę" internautow do gromadzenia użytecznej informacji. Np. mozna nakłonić użytkowników do zabawy w etykietowanie obrazów, co pozwoli znacznie poprawić efektywność wyszukiwarek obrazów lub dostarczy ogromnej ilości danych treningowych do budowy systemow rozpoznawania obrazow. Gry sa na tyle wciagajace, ze korzysta z nich spora liczba osob, dostarczajac przy okazji ogromnej ilosci uzytecznej informacji - niemozliwej do zgromadzenia w inny sposob.
Autorem pomyslu jest Luis von Ahn, ktory stworzyl do tej pory cztery takie gry: ESP, Peekaboom, Verbosity i Phetch. Pierwsza z nich pojawila sie w 2003 roku, ostatnie dopiero sa uruchamiane. Tak wiec tematyka takich gier dopiero zaczyna byc badana i jest tu z pewnoscia duzo ciekawych rzeczy do zrobienia.

19.05.2006 - M. Moshkov, M. Piliszczuk, B. Zielosko: "On partial covers, reducts and decision rules with weights".

In the presentation the accuracy of greedy algorithms with weights for construction of partial covers, reducts and decision rules is considered. Bounds on minimal weight of partial covers, reducts and decision rules based on an information of greedy algorithm work are studied. Results of experiments with software implementation of greedy algorithms are described.

2.06.2006 - Tomasz Terlikowski: "Pewne nowe koncepcje w analizie formuł zdaniowych - w zastosowaniu do zagadnień teorii procesów decyzyjnych".