Projekty badawcze

Metody odwzorowywania ontologii uwzględniające semantykę i wartościowanie atrybutów

Kierownik projektu: Prof. dr hab. inż. Ngoc Thanh Nguyen
Główny wykonawca: mgr inż. Marcin Pietranik
Finansowanie: Narodowe Centrum Nauki
Czas realizacji: 2011-2013

Głównym celem projektu jest opracowanie metod mapowania ontologii. Najważniejszym wkładem do tej szeroko omawianej w literaturze dziedziny jest rozszerzenie definicji ontologii o semantyki najmniejszych elementów występujących w takich strukturach jakimi są atrybuty. Następnie formalne kryteria wykrywania relacji pomiędzy atrybutami są wykorzystywane w procesie wyznaczania poprawnych mapowań.


Metoda wyznaczania personalizowanego scenariusza uczenia w systemach E-learning

Kierownik projektu: Prof. dr hab. inż. Ngoc Thanh Nguyen
Finansowanie: Ministerstwo Nauki i Szkolnictwa Wyższego
Nr projektu: N N516 041937
Typ: promotorski
Czas realizacji: 2009-2011

Głównym celem projektu jest opracowanie metody wyznaczenia efektywnego scenariusza uczenia dla studenta z wykorzystaniem metod personalizacji. Następnie metoda zostanie implementowana w inteligentnym systemie e-learning.


Metody integracji wiedzy w wybranych zadaniach kolektywnej inteligencji

Kierownik projektu: Prof. dr hab. inż. Ngoc Thanh Nguyen
Finansowanie: Ministerstwo Nauki i Szkolnictwa Wyższego
Nr projektu: N N519 407437
Typ: własny
Czas realizacji: 2009-2012

Głównym celem projektu jest opracowanie wachlarzu metod integracji wiedzy opartych o metody kolektywnej inteligencji. Nacisk jest położony na takie aspekty jak przetwarzanie niespójności wiedzy, języki komunikacji w środowiskach wieloagentowych, systemach rekomendacji i przetwarzanie danych niekompletnych.


Modelowanie Kolektywnej Inteligencji Obliczeniowej poprzez Zastoswanie Teorii Konsensusu

Kierownik projektu: Professor Ngoc Thanh Nguyen
Polska Akademia Nauk (PAN) i National Research Foundation (NRF-Korea)
Czas realizacji: 2010-2011

Głównym celem projektu jest opracowanie metod dla kolektywnej inteligencji z wykorzystaniem teorii Consensusu. Główny nacisk jest położony na przetwarzanie niespójności wiedzy w systemach webowych i integracji ontologii.


Metody komputerowe w zadaniach przetwarzania wiedzy w systemach autonomicznych

Kierownik projektu: Dr hab. inż., prof. PWr Radosław Katarzyniak
Finansowanie: Ministerstwo Nauki i Szkolnictwa Wyższego
Nr projektu: N N519 444939
Typ: własny
Czas realizacji: 2010-2013

Głównym celem projektu jest opracowanie efektywnych narzędzi komputerowych pozwalających na rozwiązywanie wybranych problemów przetwarzania wiedzy przez systemy autonomiczne. Zadania dotyczą przede wszystkim gromadzenia, przetwarzania i komunikowania wiedzy przez systemy klasy BDI (ang. belief-desire-intention). Opracowywane są dedykowane metody tworzenia wiedzy i struktur reprezentacji wiedzy oraz strategie autonomicznego generowania lingwistycznych podsumowań wiedzy. Przykładowe zadania to: opracowanie modelu komunikacji semantycznej w systemie wieloagentowym typu BDI, opracowanie modelu ontologii formalnej i ontologii wbudowanej, opracowanie strategii autonomicznego mapowania ontologii w systemach wieloagentowych, opracowanie protokołów interakcji agentów przetwarzających wiedzę kolektywną.


Wielomodelowe metody predykcji dla dynamicznych problemów regresyjnych

Kierownik projektu: Dr inż. Bogdan Trawiński
Finansowanie: Narodowe Centrum Nauki
Nr projektu: N N516 483840
Typ: własny
Czas realizacji: 2011-2014

Głównym celem projektu jest opracowanie nowych modeli i metod predykcji, opartych na podejściu wielomodelowym i hybrydowym. Przewiduje się opracowanie metod, które zapewniałyby niezbędną równowagę pomiędzy czterema zasadniczymi warunkami: były wystarczająco dokładne, stabilne, interpretowalne oraz efektywne. Kryteria te są bardzo ważne w niektórych obszarach zastosowań, w szczególności w przypadku długookresowych wycen wartości, np. wartości nieruchomości, czy wartości pakietów długów sprzedawanych i kupowanych na wolnym rynku.

W związku z właściwością przyrostowego pojawiania się informacji służących do generalizacji na systemy uczące nałożone jest wymaganie rewizji dotychczas nauczonej wiedzy jak tylko pojawiają się nowe obserwacje. Zatem istotnym problemem w predykcji dynamicznych zagadnień regresyjnych jest niestacjonarność danych. Celem wnioskowanego projektu jest opracowanie metod ewoluującego i inkrementacyjnego uczenia dla predykcji zagadnień regresyjnych, które pozwolą na odzwierciedlanie zmiennej w czasie charakterystyki danych.

Można wymienić pięć zasadniczych obszarów badawczych rozważanych w ramach projektu: ewoluujące systemy rozmyte zastosowane w systemach wielomodelowych, samoadaptujące algorytmy genetyczne wykorzystywane do optymalizacji systemów rozmytych, inkrementacyjne algorytmy dla zespołów modeli, wielomodelowa predykcja struktur złożonych (sekwencji, grafów, multigrafów), uczenie inkrementacyjne z wykorzystaniem podprzestrzeni cech i zawężonych próbek danych.


Metody propagacji danych w rozwiązywaniu zadań kolektywnej inteligencji

Kierownik projektu: Dr. Dariusz Król
Finansowanie: Ministerstwo Nauki i Szkolnictwa Wyższego
Nr projektu: N N516 448538
Typ: habilitacyjny
Czas realizacji: 2010-2011

Podstawowym celem projektu jest opracowanie efektywnych metod propagacji danych w nowoczesnych systemach sieciowych i ich zastosowanie w rozwiązywaniu wybranych zadań kolektywnej inteligencji. Takie metody są stosowane, gdy podmioty tworzą autonomiczne i rozproszone źródła danych (wiedzy) a do wykonania zadania potrzebują integracji tych danych (wiedzy). Z powodu dużej złożoności dzisiejszych systemów sieciowych, do których zaliczamy sieci P2P, sieci społeczne czy systemy wieloagentowe projekt wymaga zastosowania algorytmów inspirowanych przyrodą, wielokryterialnej optymalizacji oraz zaawansowanego programowania sieciowego.
W ramach projektu zostaną wykonane następujące zadania:
1. Opracowanie ogólnego modelu propagacji, typów propagacji dla różnych rodzajów danych oraz schematów integracji danych. Ogólna analiza procesów propagacyjnych została już opracowana przez autora wniosku w 3 pracach z tzw. listy filadelfijskiej. Ponadto, zostanie zdefiniowany zbiór możliwych typów propagacji dla danych "pozytywnych" i "negatywnych". Zostaną opracowane algorytmy do wyznaczania wyniku propagacji.
2. Opracowanie algorytmów propagacji consensusu w różnych systemach sieciowych. Propagacja consensusu pozwala na dystrybucję wiedzy na różne platformy implementacyjne. Podobnie jak system z integrowaną wiedzą ma wyższą inteligencję niż systemy składowe tak samo system z możliwością propagacyjną jest efektywniejszy ("pozytywnie" lub "negatywnie") niż systemy bez tej cechy.
3. Opracowanie metod rozwiązywania konfliktów w sieciowym procesie propagacyjnym. Wykorzystana zostanie na tym etapie teoria consensusu, która pozwoli na uniknięcie niepotrzebnych czy szkodliwych.