Program

 

8:30 - 9:00
Instytut Informatyki, sala 25

Rejestracja

9:00 - 9:10
Instytut Informatyki, sala 25

Otwarcie konferencji

Rektor Robert Olkiewicz

9:10 – 10:15
Instytut Informatyki, sala 25

1. sesja

Tomasz Piekot (Wydział Filologiczny)
System GenAI upraszczający tekst potrzebny od zaraz

Od 15 lat polskie firmy i urzędy wprowadzają standard prostej polszczyzny. To opracowana przez Pracownię Prostej Polszczyzny UWr regułowa metoda upraszczania tekstów formalnych, zgodna z normą ISO w zakresie plain language. W istniejących już w Polsce projektach liczby tekstów wymagających uproszczenia są ogromne. Na przykład  ZUS przygotował do stosowania metody UWr 37 tys. piszących pracowników. Urząd miejski w Tychach w rok uprościł około 2000 pism. Niestety, pracownicy urzędów nie mają kompetencji lingwistycznych. Często brakuje im też czasu na tłumaczenie starych tekstów. Doświadczenie i narzędzia PPPUWr pozwalają optymistycznie myśleć o asystencie urzędnika, który będzie w stanie profesjonalnie upraszczać teksty i odpowiadać na pytania urzędników.

Maria Dymitruk (Wydział Prawa, Administracji i Ekonomii)
Sztuczna Inteligencja w sądownictwie: wyzwania i perspektywy badawcze

Wykorzystanie sztucznej inteligencji w sądownictwie to temat ciekawy badawczo. Podejmowany z perspektywy badacza-prawnika wymaga, po pierwsze, nabycia zadowalającego poziomu wiedzy technicznej o AI, a po drugie, sięgnięcia po standardowe metody badań prawnych, tj. interpretację aktów prawnych (w przypadku moich badań w szczególności przepisów konstytucyjnych i kodeksowych regulujących zasady postępowania sądowego). Te podstawowe narzędzia szybko okazują się jednak zbyt ograniczone, aby odpowiedzialnie przeanalizować kwestie dopuszczalności zastosowań AI w toku sądowego procesu stosowania prawa. Dlatego badania na styku AI i prawa często wymagają multiinterdyscyplinarnego podejścia, co w przypadku moich badań wymagało przeanalizowania także perspektywy psychologicznej (zarówno z perspektywy obywatela, który miałby uczestniczyć w procesie sądowym z udziałem AI, jak i sędziego, na którego procesy decyzyjne zaczyna znacząco wpływać AI) i socjologicznej (potencjalny transfer władzy sądowniczej w ręce systemów technologicznych to ważne zagadnienie z perspektywy tego, jak sądy mają wypełniać swoje funkcje społeczne i czy wprowadzenie AI do sądów nie rodzi ryzyka zaburzenia istniejącego konsensusu społecznego w zakresie wymiaru sprawiedliwości). Tę multidyscyplinarną mieszankę nie jest łatwo opanować już teraz, a ostatnie postępy technologiczne (szczególnie w obszarze dużych modeli językowych) wcale tego nie ułatwiają. W przyszłej pracy badawczej planuję skupić się właśnie na tym elemencie, pochylając się nad zmianami, jakie w dokonanych już przeze mnie założeniach o ramach dopuszczalności zastosowań automatyzacji i semiautomatyzacji w sądownictwie, dokonuje tzw. generatywna AI. Jej multimodalność i powszechność rodzi zupełnie nowe ryzyka, nie tylko wywracając założenie o tym, że żeby AI niejako “zaistniała” w sądach, ktoś (najczęściej Ministerstwo Sprawiedliwości) musi wdrożyć i odpowiednio przemyśleć stosowny system AI, ale także tworząc nowe zachowania procesowe (chociażby takie jak potencjalnie coraz powszechniejsze wnioskowanie o dołączanie deepfakes do materiału dowodowego sprawy).

Grzegorz Joachimiak (Wydział Nauk Historycznych i Pedagogicznych)
Sztuczna inteligencja w muzykologii: perspektywy badawcze w Pracowni Muzykologii Cyfrowej

Rozwijanie modeli językowych generatywnej sztucznej inteligencji stało się w ostatnich latach bardzo intensywną gałęzią interdyscyplinarnych badań naukowych. Obecna jest ona również w muzykologii. Jednym z tematów podjętych w Pracowni Muzykologii Cyfrowej Instytutu Muzykologii UWr jest wykorzystanie uczenia maszynowego w obszarze paleograficzno-edytorskim. Chodzi o rozwijanie i wytwarzanie narzędzi z zakresu Optical Music Recognition (OMR) z uwzględnieniem kryteriów edytorstwa muzycznego, z wykorzystaniem danych pochodzących z rękopisów tabulatur lutniowych. Jak chcemy wykorzystywać narzędzia AI? 

Rozpoczęliśmy już wstępne prace w zespole z Department of Computing Goldsmiths University of London, Uniwersyteckim Centrum Humanistyki Cyfrowej UWr, Pracownią Reprografii i Digitalizacji Biblioteki Uniwersyteckiej we Wrocławiu oraz z Poznańskim Centrum Superkomputerowo-Sieciowym. Przeprowadzone badania wstępne pozwalają nam sądzić, że wykorzystanie uczenia maszynowego w celu stworzenia narzędzia do automatycznego odczytu notacji tabulatur lutniowych typu francuskiego w źródłach rękopiśmiennych jest możliwe. Wiąże się to jednak z rozwijaniem narzędzi z zakresu analizy pismoznawczej w źródłach historycznych, w szczególności w zasobach źródeł muzycznych. Celem naszych działań na obecnym etapie jest generowanie plików w formacie Music Encoding Initiative (MEI) z użyciem mechanizmów automatyzacji. Chodzi o możliwość tworzenia edycji cyfrowych w kontekście korpusu muzyki lutniowej i klawiszowej w Polsce i na Śląsku pochodzących ze źródeł rękopiśmiennych zapisanych w notacji tabulaturowej. Interesuje nas również rozwój interfejsów użytkownika umożliwiających odczytywanie zapisu muzyki i interaktywną analizę muzyki zapisaną w notacji tabulaturowej. 

Chodzi zatem w tego rodzaju działaniach, aby uwzględnić obszary klasycznej muzykologii historycznej, uwzględnić aspekt europejskiego dziedzictwa kulturowego i zastosować metody wykorzystujące nowe technologie i zaawansowane narzędzia informatyczne, do czego niezbędna jest już współpraca z informatykami. Taka bliska współpraca niewątpliwie umożliwi pozyskiwanie nowych informacji w procesie badawczym, ale i dostosowanie materiałów w sposób kreujący dalsze działania na poziomie badawczym, dydaktycznym, popularyzatorskim. Jako przykład zostanie wykorzystana kolekcja rękopisów tabulatur lutniowych z dawnego opactwa cystersów z Krzeszowa będąca najobszerniejszą kolekcją z XVIII wieku zawierającą zapis ponad 2000 kompozycji w notacji tabulatury lutniowej typu francuskiego.

Paweł Rychlikowski (Wydział Matematyki i Informatyki)
O zastosowaniach i modyfikacjach modeli językowych

Modele językowe ostatnio robią karierę, w prasie popularnej będąc traktowane jako wręcz synonim 'sztucznej inteligencji'. Podczas wystąpienia chciałbym pokazać nieco mniej typowe zastosowania modeli językowych, które używają tych samych sieci Transformer, co na przykład ChatGPT, ale mają dużo mniejszą skalę i są trenowane od podstaw. Zajmiemy się między innymi modelowaniem muzyki, graniem w gry planszowe, czy pisaniem poezji. Pokażemy, że w tej skali można trenować skuteczne systemy oraz że jest możliwe wzbogacanie danych o tzw. notatki (self notes), które, choć są łatwe do przewidzenia dla modelu, w znaczący sposób pomagają mu w zrozumieniu struktury problemu.

10:35 – 11:45
Instytut Informatyki, sala 25

2. sesja

Tetiana Vovk, Maciej Kryza, Szymon Tomczyk, Małgorzata Werner (Wydział Nauk o Ziemi i Kształtowania Środowiska), Piotr Lipiński (Wydział Matematyki i  Informatyki)
Uczenie maszynowe w naukach o atmosferze

Zastosowania uczenia maszynowego (machine learning,ML) w naukach o atmosferze zyskują na znaczeniu, a Zakład Klimatologii i Ochrony Atmosfery na Uniwersytecie Wrocławskim aktywnie uczestniczy w tym dynamicznie rozwijającym się obszarze. W ciągu ostatnich dwóch lat rozpoczęliśmy szereg projektów, które przybliżają nas do pełniejszego zrozumienia procesów atmosferycznych i ich lepszego prognozowania dzięki metodom uczenia maszynowego. Pierwszą skuteczną próbą zastosowania ML w naszych badaniach była implementacja algorytmu Random Forest do udoskonalenia modelowania stężeń w powietrzu atmosferycznym pyłu zawieszonego PM 2.5 na obszarze Polski, wykorzystując do uczenia m.in. dane z modelu pogody Weather Research and Forecasting (WRF) oraz informacje o ludności, emisjach zanieczyszczeń i użytkowaniu terenu. Kolejnym krokiem wdrożenia metod ML w naszym zakładzie było użycie zespołu algorytmów opartych o drzewa decyzyjne (m.in. Random Forest i Gradient Boosting) do prognozowania stężeń pyłku roślin alergennych, z wyprzedzeniem od 1 do 3 dni, wykorzystując numeryczne prognozy pogody i pomiary stężenia pyłku z poprzednich dób.

Kolejne kroki obejmują m.in. zastosowanie metod interpretowalnego uczenia maszynowego (XAI) z użyciem analizy wartości Shapleya, aby zbadać wpływ różnych czynników środowiskowych na stężenia zanieczyszczeń atmosferycznych w Europie. Zadania te mają być realizowane w ramach projektu NCN Preludium. Projekt ma na celu odkrycie dotąd nieznanych czasowych i przestrzennych zależności między jakością powietrza, a czynnikami klimatycznymi, gospodarczymi i demograficznymi.

Uzupełnieniem naszych działań w kierunku rozwijania AI w naukach o atmosferze jest wdrożenie systemu automatycznego rozpoznawania alergennego pyłku roślin Swisens Poleno w czasie rzeczywistym, który stanowi krok naprzód w monitorowaniu jakości powietrza. Informacja o aktualnym stężeniu alergenów w powietrzu jest niezwykle istotna dla osób uczulonych, których liczba systematycznie rośnie, m.in. ze względu na zachodzące zmiany klimatu AI jest tu wykorzystywane do automatycznego rozpoznawania, przy wykorzystaniu m.in zdjęć holograficznych i fluorescencji, różnych alergizujących taksonów roślin.

Krzysztof Graczyk (Wydział Fizyki i Astronomii)
Uczenie głębokie dla fizyki

Techniki głębokiego uczenia (GU) stały się kluczowym narzędziem w różnych obszarach fizyki, pomagając w przyspieszeniu i optymalizacji systemów obliczeniowych. Algorytmy GU umożliwiają odkrywanie nowych relacji i praw fenomenologicznych. W mojej prezentacji krótko omówię zastosowania GU w fizyce, nad którymi pracujemy. Po pierwsze, naszym celem jest opracowanie wspieranej przez sztuczną inteligencję wersji NuWro, generatora zdarzeń Monte Carlo używanego do symulacji oddziaływań neutrin z jądrami atomowymi w zakresie energii typowym dla eksperymentów oscylacji na liniach długich i krótkich. Po drugie, omówimy nasze prace nad rozwojem technik GU do badania przepływu płynów i właściwości dyfuzyjnych w materiałach porowatych. Na koniec skomentuję inne bieżące projekty i plany.

Michał Majkowski (Wydział Biotechnologii)
Obrazowanie oraz analiza obiektów i procesów biologicznych na Wydziale Biotechnologii

Podczas wystąpienia opowiem o pytaniach, które stawiamy w Wydziałowej Pracowni Mikroskopowej, oraz poszukiwaniu na nie odpowiedzi. Wyjaśnię, dlaczego w pracowni mamy kilka mikroskopów i czym one się różnią. Będzie też o postrzeganiu i liczeniu kropek, kresek i plam, o tym, jak je opisać, i co z tego wynika.

Piotr Lipiński (Wydział Matematyki i Informatyki)
Odkrywanie ukrytych struktur danych

Nowoczesne algorytmy uczenia maszynowego podczas swojego działania często tworzą pewne pomocnicze reprezentacje danych - zanurzenia oryginalnych próbek danych w pomocniczej przestrzeni wektorowej - które mogą być traktowane jako reprezentacje danych w pewnej ukrytej przestrzeni danych. Jednym z prostych przykładów są słowa języka naturalnego i ich reprezentacja w formie wektorów liczbowych (na przykład otrzymywane podejściem word2vec). Bardziej złożonym, fragmenty kodu źródłowego języku programowania, produkty lub użytkownicy w systemach rekomendujących, fragmenty obrazów satelitarnych czy fragmenty ścieżek GPS, wszystkie ostatecznie reprezentowane przez wektory liczbowe w sposób określany przez algorytm podczas uczenia modelu. Algorytmy uczenia maszynowego tworzą takie wektorowe reprezentacje próbek danych w nieprzypadkowy sposób, tak aby zachować najważniejsze zależności między próbkami danymi, pozwalające na rozwiązywanie rozważanego problemu. Badanie takich ukrytych struktur danych przynosi wiele dodatkowej wiedzy, nie tylko o działaniu algorytmu uczenia maszynowego, ale przede wszystkim o charakterystyce samych danych, trudnej do odkrycia bezpośrednio z oryginalnych danych.

12:00 – 13:20
Instytut Informatyki, sala 25

3. sesja

Tomasz Niedzielski, Bartłomiej Miziński (SARUAV sp. z o.o. oraz Wydział Nauk o Ziemi i Kształtowania Środowiska Uniwersytetu Wrocławskiego)
Zastosowanie sztucznej inteligencji do detekcji ludzi na zdjęciach lotniczych na potrzeby poszukiwania osób zaginionych

Celem referatu jest przedstawienie możliwości automatycznego wykrywania osób zarejestrowanych na zobrazowaniach lotniczych wykonanych z niskiego pułapu kamerami zainstalowanymi na bezzałogowych statkach powietrznych, powszechnie nazywanych dronami. Zadanie to jest realizowane przez algorytmy zaimplementowane w autorskim oprogramowaniu SARUAV (ang. search and rescue unmanned aerial vehicle). Detekcja ludzi jest wykonywana na zbiorze nadirowych (obiektyw kamery skierowany pionowo w dół w stosunku do geoidy) zdjęć JPG, wykonanych z pokryciem podłużnym wynoszącym około 80% i pokryciem poprzecznym na poziomie 60%, z wysokości platformy bezzałogowej zapewniającej terenowe wielkości piksela (ang. ground sampling distance – GSD) z przedziału 1,0–2,0 cm/px. Tak przygotowany materiał zdjęciowy jest przetwarzany szeregowo (zdjęcie po zdjęciu) z wykorzystaniem konwolucyjnej sieci neuronowej (ang. convolutional neural network – CNN), dając w wyniku odpowiednio zgrupowane geograficzne koordynaty miejsc przebywania osoby wraz z ich prezentacją w systemie informacji geograficznej. System informatyczny SARUAV jest wdrożony w wielu krajach europejskich oraz jednym azjatyckim (stan na 9 września 2024) i do tej pory dwukrotnie przyczynił się do odnalezienia osób zaginionych w terenach otwartych. 

Pierwsze odnalezienie miało miejsce w czerwcu 2021 roku w Beskidzie Niskim w południowo-wschodniej Polsce. System SARUAV został wykorzystany przez Grupę Bieszczadzką GOPR, po niecałej dobie od zaginięcia mężczyzny i po wcześniejszym wykorzystaniu innych powszechnie stosowanych metod poszukiwawczych. Oprogramowanie wskazało miejsce przebywania człowieka, co pozwoliło na szybkie dotarcie ratowników do osoby poszkodowanej, udzielenie pomocy i transport do miejsca postoju zespołu ratownictwa medycznego. Mężczyzna został uratowany.

Drugie odnalezienie z wykorzystaniem systemu SARUAV miało miejsce w sierpniu 2024 roku na pograniczu włosko-austriackim w trudnym terenie górskim. Ratownicy organizacji Bergrettungsdienst Südtirol, stacjonujący w Sand in Taufers, podjęli decyzję o zastosowaniu dronów i analizie zdjęć lotniczych w oprogramowaniu SARUAV dopiero po wcześniejszej realizacji misji poszukiwawczych dwoma helikopterami. Detekcja z użyciem SARUAV była skuteczna, co pozwoliło na dotarcie do osoby poszkodowanej, która niestety nie przeżyła.

Rzeczywiste akcje poszukiwawczo-ratownicze prowadzone z użyciem systemu SARUAV pokazują, że sztuczna inteligencja wkracza w obszar działania ochotniczych i zawodowych służb ratowniczych. Dotyczy to ratownictwa górskiego, ratownictwa wodnego, policji i straży pożarnej z wielu krajów Europy.

Aneta Jezierska, Sylwester Mazurek,  Jarosław J. Panek (Wydział Chemii)
Zastosowania metod uczenia maszynowego w chemii – przeszłość i przyszłość

Chemia, jako nauka o przemianach i złożoności substancji, w naturalny sposób związana jest z gromadzeniem i analizą wielkiej ilości danych. Procesy chemiczne są nieraz kontrolowane przez wiele czynników, których nie zawsze musimy być świadomi lub być w stanie je opisać – zatem w chemii przydatne okazują się metody analiz statystycznych, redukcji wymiarowości danych, automatycznego wyszukiwania korelacji np. struktura-aktywność biologiczna/właściwość fizykochemiczna itp. Wszystkie te zagadnienia są wprost stworzone do tego, by zastosować do ich rozwiązywania techniki uczenia maszynowego [1]. Na Wydziale Chemii UWr takie techniki stosowane są dzięki współpracy z naukowcami z National Institute of Chemistry w Ljubljanie, Słowenia. 

W naszej prezentacji przedstawimy wykorzystanie metodologii sieci neuronowych w następujących zastosowaniach chemicznych:
określenia czynników rządzących uwodornieniem ketonów do alkoholi przez sztuczne metaloenzymy [2]
przewidywania aktywności biologicznej, w tym toksyczności dla organizmów wodnych oraz kancerogenności chemikaliów [3]
klasyfikacji cząsteczek aromatycznych i przewidywania ich właściwości na podstawie prostych deskryptorów, w tym wielkości kwantowochemicznych [4]
analizy ilościowej substancji czynnych w preparatach farmaceutycznych [5]
oraz analiz dyskryminacyjnych jednostek chorobowych na bazie danych spektroskopowych.

Jako nasz wkład w propagowanie metod uczenia maszynowego przedstawimy inicjatywę Forum Sztucznej Inteligencji i Nauki Jutra [6] powstałą na naszym Wydziale.

Bibliografia

[1] Zupan J., Gasteiger J. „Neural Networks in Chemistry and Drug Design: An Introduction”, Wiley-VCH Verlag GmbH, 1999

[2] Mazurek S., Ward T. R., Novič M. „Counter propagation artificial neural networks modeling of an enantioselectivity of artificial metalloenzymes”, Molecular Diversity, 2007, 11, 141-152

[3] (a) Jezierska A., Vračko M., Basak S. C. „Counter-propagation artificial neural network as a tool for the independent variable selection: structure-mutagenicity study on aromatic amines”, Molecular Diversity, 2004, 8, 371-377 (b) Fjodorova N., Vračko M., Tušar M., Jezierska A., Novič M., Kühne R., Schüürmann G. „Quantitative and qualitative models for carcinogenicity prediction for non-congeneric chemicals using CP ANN method for regulatory uses”, Molecular Diversity, 2010, 14, 581-594, (c) Fjodorova N., Vračko M., Jezierska A., Novič M. „Counter propagation artificial neural network categorical models for prediction of carcinogenicity for non-congeneric chemicals”, SAR and QSAR in Environmental Research, 2010, 21, 57-75 

[4] Panek J., Jezierska A., Vračko M. „Kohonen network study of aromatic compounds based on electronic and nonelectronic structure descriptors”, Journal of Chemical Information and Modeling, 2005, 45, 264-272 

[5] (a) Mazurek S., Szostak R. “Quantitative determination of diclofenac sodium in solid dosage forms by FT-Raman spectroscopy”, Journal of Pharmaceutical and Biomedical Analysis, 2008, 48, 814-821, (b) Mazurek S., Szostak R. “Quantification of atorvastatin calcium in tablets by FT-Raman spectroscopy”, Journal of Pharmaceutical and Biomedical Analysis 2009, 49, 168-172, (c) Mazurek S., Szostak R. “Quantification of aspartame in commercial sweeteners by FT-Raman spectroscopy”, Food Chemistry 2011, 125, 1051-1057, (d) Mazurek S., Szostak R. “Quantification of active ingredients in pharmaceutical suspensions by FT Raman spectroscopy”, Vibrational Spectroscopy 2017, 93, 57-64

[6] https://makromol.chem.uni.wroc.pl/pl/forum-sztucznej-inteligencji-i-nauki-jutra

Berenika Dyczek (Wydział Nauk Społecznych)
Rola metody analizy sentymentu (Sentiment Analysis) w naukach społecznych oraz wpływ crowdsourcingu na tworzenie i analizę zbiorów danych (datasets)

Celem wystąpienia jest analiza metodologicznych wyzwań związanych z zastosowaniem analizy sentymentu (sentiment analysis) w badaniach społecznych oraz rola crowdsourcingu w procesie tworzenia i oceny zbiorów danych (datasets). Omówione zostaną zarówno zalety, jak i ograniczenia crowdsourcingu, szczególnie w kontekście różnorodności społeczno-kulturowej uczestników oraz ich wpływu na etykietowanie danych. Ponadto przeanalizowany zostanie wpływ specyfiki zbiorów danych pochodzących z różnych platform na wiarygodność analiz sentymentu. Zostanie przedstawiona krytyczna ocena algorytmów stosowanych do analizy sentymentu oraz ich zdolność do uchwycenia złożoności emocjonalnej i społecznej komunikacji w różnych kontekstach.

Michalina Marcia (Wydział Prawa, Administracji i Ekonomii)
Sztuczna inteligencja a efektywne prawo do obrony w postępowaniu karnym

Włączenie sztucznej inteligencji (AI) do rzeczywistości prawnej poszczególnych państw zdążyło już wzbudzić wiele wątpliwości z punktu widzenia istniejących podstawowych gwarancji praw człowieka, w tym prawa do obrony. Celem wystąpienia jest przedstawienie, w jaki sposób zastosowania AI w procesie karnym mogą wpłynąć na prawo do efektywnej obrony w postępowaniu karnym, ze szczególnym uwzględnieniem prawa do informacji i czynnego udziału w postępowaniu. Z jednej strony w trakcie wystąpienia zostaną zaprezentowane korzyści, uzasadniające użycie AI w postępowaniu karnym, z drugiej wskazane zostanie, jak narzędzia AI, takie jak m. in. systemy predykcyjne, środki identyfikacji, czy zautomatyzowanej oceny dowodów, mogą wpłynąć na prawo do obrony. Wskazane zostaną podstawowe problemy związane z wykorzystaniem systemów AI, mające znaczenie dla efektywnego wykonywania uprawnień przez oskarżonego, takie jak ograniczona transparentność, wyjaśnialność, tendencje dyskryminacyjne, a także jakie parametry narzędzi AI mają zasadniczy wpływ na skuteczność prawa do obrony.

Joanna Wojdon, Dorota Wiśniewska (Wydział Nauk Historycznych i Pedagogicznych)
Między lękiem a fascynacją – sztuczna inteligencja w edukacji historycznej

W referacie spojrzymy na sztuczną inteligencję z perspektywy osób zaangażowanych w edukację historyczną: począwszy od uczniów jako motoru przemian, przez nauczycieli eksperymentujących lub zmuszonych, by zareagować na sytuację, gdzie zadania domowe odrabia Chat GPT, po osoby zaangażowane w kształcenie i doskonalenie zawodowe nauczycieli. Postawimy pytania o szanse i wyzwania - merytoryczne, praktyczne i etyczne.


13:20 – 15:00
Instytut Informatyki, obok sali 119

Lunch i sesja posterowa

Szymon Tomczyk, Małgorzata Werner, Maciej Kryza, Tetiana Vovk, Małgorzata Malkiewicz, Karol Bubel (Wydział Nauk o Ziemi i Kształtowania Środowiska)
Poster: Sztuczna inteligencja w rozpoznawaniu alergennych ziaren pyłku roślin

Alergia wziewna to nieprawidłowa reakcja organizmu na białka zawarte m.in. w pyłkach roślin, przedostające się do organizmu przez układ oddechowy. W ostatnich latach notowany jest wzrost zachorowalności na alergię wziewną w Europie, w tym w Polsce. Wyniki badań wskazują, że nawet 30% społeczeństwa zmaga się z tym problemem, szczególnie w dużych miastach. W Polsce do najbardziej alergennych taksonów roślin zaliczana jest leszczyna, olsza, brzoza, a także wiele gatunków z rodziny traw oraz bylica. Im więcej ziaren pyłku w powietrzu, tym objawy alergiczne są silniejsze. Dlatego kluczowe jest zastosowanie odpowiednich narzędzi, które pozwolą określić stężenie alergennych ziaren pyłku w powietrzu. Wówczas możliwe jest odpowiednio szybkie ostrzeżenie osób z dolegliwościami alergicznymi, a lekarze alergolodzy mogą lepiej diagnozować pacjentów i wdrażać odpowiednie leczenie.

Współcześnie najpopularniejszą metodą określania wielkości stężeń jest użycie pułapki pyłkowej typu Hirsta (metoda manualna). Jednak wówczas możliwe jest jedynie poznanie dobowych wartości stężeń z poprzedniego tygodnia. Niezwykle ważną kwestią jest wdrożenie pomiarów, które pozwolą na określenie wielkości stężeń w czasie rzeczywistym. Jednym z takich urządzeń jest Swisens Poleno Jupiter, pracujący od początku 2024 roku w Zakładzie Klimatologii i Ochrony Atmosfery UWr. Detektor oparty jest na algorytmie uczenia maszynowego - Neural Network, który pozwala na rozpoznawanie i zliczanie ziaren pyłku roślin w czasie rzeczywistym. Urządzenie zasysa powietrze, a następnie wszystkie cząstki o odpowiednim przedziale wielkości przechodzą przez detektor i są poddawane analizie. Rozpoznawanie ziaren pyłku oparte jest o wykorzystanie zdjęć holograficznych oraz zbadanie spektrum fluorescencji kolejnych cząstek. Detektor rozpoznaje i zlicza ziarna pyłku 14 taksonów roślin.

Aktualnie urządzenie działa w trybie testowym. Na bieżący sezon pylenia roślin zaimplementowany został algorytm opracowany na próbkach pyłku ze Szwajcarii, czyli miejsca, gdzie urządzenie powstało. Porównanie wyników z detektora z danymi z pomiarów manualnych wskazało, że Swisens Poleno Jupiter wykrywa wiele fałszywych sygnałów, co oznacza konieczność poprawy algorytmu rozpoznawania. W ciągu sezonu pylenia 2024 prowadzona była kampania pomiarowa ziaren pyłku, która miała na celu zgromadzenie nowych zestawów danych o lokalnych ziarnach pyłku. Dane te zostaną wykorzystane do rozwinięcia nowej, poprawionej wersji algorytmu rozpoznawania. Bieżące dane pomiarowe oraz dane z kampanii są na bieżąco gromadzone (jeden sezon to kilka – kilkanaście TB danych) i mogą być udostępnione do dalszych analiz, w tym rozwijania nowych algorytmów detekcji.

Maciej Matyka, Dawid Strzelczyk, Krzysztof Graczyk (Wydział Fizyki i Astronomii)
Poster: Głębokie uczenie dla transportu masy w mediach porowatych

Rozważamy splotowe sieci neuronowe (CNN) do przewidywania podstawowych właściwości transportu masy przez media porowate. Rozważane są dwa rodzaje transportu - przepływ płynu i dyfuzja. Używamy metody Lattice-Boltzmanna (LBM), aby uzyskać dane numeryczne do szkolenia sieci; mianowicie uzyskujemy pola prędkości przepływu płynu i mapy stężenia gazu w skali porów. Badamy, w jaki sposób CNN są skuteczne w przewidywaniu parametrów makroskopowych, takich jak przepuszczalność, porowatość i krętość, w oparciu jedynie o informacje o geometrii próbek. Ostatecznie adaptujemy architekturę U-Net do badania zdolności CNN do przewidywania złożonych przestrzennych map stężenia w zjawiskach dyfuzyjnych.

Remigiusz Durka, Krzysztof Graczyk (Wydział Fizyki i Astronomii)
Poster: Badanie rezonansowych rozszerzeń (super)algebr Poincaré/AdS za pomocą nowoczesnych ram obliczeniowych

Badania w dziedzinie fizyki teoretycznej, zwłaszcza te dotyczące automatyzacji aspektów algebraicznych, napotykają na liczne wyzwania. Tradycyjne podejścia, często oparte na abstrakcyjnym rozumowaniu i ścisłych definicjach, zazwyczaj opierają się na metodach typu brute-force, które mogą być bardzo nieefektywne i czasochłonne. W naszych wcześniejszych pracach badaliśmy rozszerzenia (super)algebr Poincaré i Anti-de Sittera (AdS), wykazując, jak nowoczesne narzędzia obliczeniowe mogą zoptymalizować konstrukcję algebraicznych struktur. Stosując metody oparte na wzorcach, znacząco zoptymalizowaliśmy eksplorację rozległych przestrzeni potencjalnych kandydatów na algebry, odkrywając szeroką klasę nowych (super)algebr Liego istotnych dla rozszerzonych teorii supergrawitacji.

Beata Kowal, Krzysztof Graczyk, NuWro collaboration (Wydział Fizyki i Astronomii)
Poster: Modelowanie przekrojów poprzecznych rozpraszania lepton-jądro za pomocą technik głębokiego uczenia się 

Dla powodzenia przyszłych eksperymentów oscylacji neutrin, takich jak DUNE czy HyperKamiokande, niezbędna jest dokładna wiedza o tym, jak neutrina oddziałują z jądrowymi atomowymi. Faktycznie, aby zmierzyć parametry oscylacji i zbadać asymetrię materia-antymateria w sektorze leptonowym istnieje potrzeba uzyskania dokładnego modelu opisującego przekroje czynne na rozpraszanie neutrin na jądrach atomowych. Istnieje wiele podobieństw między oddziaływaniami elektronów i neutrin z jądrowymi atomowymi. Jednym z podejść do modelowania oddziaływań neutrin jest wykorzystanie wyników fizyki rozpraszania elektronów do budowy modelu oddziaływań neutrino-jądro. Nasz plakat pokazuje, w jaki sposób techniki głębokiego uczenia, takie jak uczenie transferowe, mogą być wykorzystywane do modelowania oddziaływań elektron-jądro i neutrino-jądro.

Jose Luis Bonilla, Jan Sobczyk, Krzysztof Graczyk, NuWro collaboration (Wydział Fizyki i Astronomii)
Poster: GANs dla neutrin

Neutrina są jednymi z najbardziej nieuchwytnych cząstek fundamentalnych. NuWro jest generatorem zdarzeń Monte Carlo, pakietem oprogramowania pozwalającym symulować oddziaływania neutrin z jądrami atomowymi w oparciu o wyniki teoretyczne i eksperymentalne. Generatora neutrin NuWro powstał w 2004 roku we Wrocławiu. Projekt został zapoczątkowany i prowadzony do tej pory przez prof. Sobczyka. Generative Adversarial Networks (GAN) to technika sztucznej inteligencji, w której dwie sieci neuronowe, generator i dyskryminator, są trenowane do konkurowania ze sobą. Generator trenuje, aby odtworzyć pewną próbkę zgodnie z podstawowym rozkładem i oszukać dyskryminator, podczas gdy dyskryminator trenuje, aby odróżnić prawdziwą próbkę od wygenerowanej. Rezultatem powinno być wierne odtworzenie takiego rozkładu. Technika ta może wygenerować realistyczne próbki oddziaływań neutrin i uchwycić cechy, których teoria nie jest w stanie opisać. Przedstawione zostaną pierwsze próby odtworzenia rozkładów przypadków generatora NuWro przy użyciu techniki generatywnej, w której początkowe energie neutrin są określone, a zdarzenia są dokładnie reprezentowane.

Cezary Juszczak, Krzysztof Graczyk (Wydział Fizyki i Astronomii)
Poster: Biblioteka C++ dla Bayesowskich sieci neuronowych

Poster przedstawia bibliotekę C++ w której zaimplementowano bayesowskie sieci neuronowe w przybliżeniu MacKaya. Pakiet wykorzystano do analizy rozpraszania elektron-proton, zbadania problemu promienia protonu i wyodrębnienia czynnika osiowego z pomiarów rozpraszania neutrino-deuteron. Dla każdego modelu sieci neuronowej automatycznie obliczana jest evidence, która pozwala wybrać optymalny model spośród zespołu modeli. Plakat prezentuje bibliotekę, jej funkcjonalności i nowe rozszerzenia, takie jak moduł Physics Informed Neural Network.

Paweł Witkowicz, Janusz Miśkiewicz (Wydział Fizyki i Astronomii)
Poster: Zastosowanie modelu LSTM do pomiaru złożoności szeregów czasowych

Złożoność szeregów czasowych stanowi ważne zagadnienie w dziedzinie analizy szeregów czasowych. Wynika to z faktu, że jednym z najistotniejszych kwestii jest ocena losowości szeregu czasowego, jego determinizmu i możliwości predykcji. Standardowym narzędziem stosowanym do oceny złożoności jest entropia informacyjna (z szeregiem modyfikacji). Jednakże jej kluczową cechą jest traktowanie szeregu czasowego jako zbioru, bez uwzględniania porządku, który jest immanentną cechą szeregu czasowego. Ostatnio obserwujemy gwałtowny rozwój sztucznej inteligencji (ang. artificial intelligence (AI)), za pomocą której jesteśmy wstanie zbudować modele w oparciu o zebrane uprzednio dane. W przedstawianej pracy analizowana jest możliwość określenia złożoności szeregu czasowego w oparciu o jakość dopasowanego modelu AI.

Klaudia Balcer, Piotr Lipiński (Wydział Matematyki i Informatyki)
Poster: Modelowanie niepewności danych rekomendacyjnych wynikającej z ekspozycji użytkownika

Niepewność jest immanentną cechą danych, nawet tych dotyczących śmierci i podatków. Wynika ona z niedoskonałych metod pomiaru, błędów ludzkich, częściowej losowości zjawisk i innych czynników. W przypadku sesyjnych systemów rekomendacyjnych jednym ze znaczących źródeł niepewności jest ekspozycja użytkownika na wybrane treści/produkty/usługi – nieznana w momencie modelowania – wynikająca m.in. z działań marketingowych i wcześniej używanego systemu rekomendacyjnego. 

W referacie przedstawimy odejście od konwencji traktowania sesji użytkownika jako deterministycznej deklaracji zainteresowania i włączenie pewnej niepewności do szkolenia systemu rekomendacji opartego na sesji. W związku z tym proponujemy rozważenie gęstego zainteresowania użytkownika i niewidocznych potencjalnych celów oraz nauczenie się ich poprzez wstrzyknięcie pewnego szumu do prefiksów i sufiksów sesji.

Po pierwsze, zakłócamy reprezentacje elementów szumem z rozkładu prawdopodobieństwa von Misesa-Fishera sprawiając, że ukryta reprezentacja sesji jest gęsta (nie tylko zawiera się w gęstej przestrzeni). Po drugie, dodajemy fałszywe cele i dostosowujemy funkcję straty do wielu celów.

Przeprowadziliśmy eksperymenty numeryczne  na powszechnie używanych zbiorach danych i ich wariantach z różnymi współczynnikami rzadkich przedmiotów. Nasza ewaluacja obejmuje nie tylko trafność rekomendacji, ale także jakość zanurzeń produktów i objawy obciążenia popularnością. Wyniki pokazują, że zachowując trafność rekomendacji, nasz model jest w stanie zapewnić wyższą jakość reprezentacji, szczególnie pod względem rozróżnialności rzadkich przedmiotów, a także zmniejszyć inne objawy obciążenia popularnością (średnią popularność rekomendowanych przedmiotów i pokrycie).

Mikołaj Słupiński, Piotr Lipiński (Wydział Matematyki i Informatyki)
Poster: Rekurencyjne systemy dynamiczne

W obecnym świecie mamy więcej danych, niż jesteśmy w stanie ręcznie poetykietować. Z tego powodu metody samonadzorowane cieszą się coraz większym zainteresowaniem. Czasoprzestrzenna segmentacja danych wzbudza ciekawość neuronaukowców, biologów i finansistów. Przedstawiamy dwa nowe modele, które umożliwiają segmentację bez nadzoru, rozwijając rekurencyjną strukturę. Proponujemy nowy model o nazwie Recurrent Explicit Duration Switching Linear Dynamical Systems (REDSLDS), który włącza rekurencyjne zmienne czasu trwania do modelu rSLDS. Proponujemy również schemat wnioskowania i uczenia się, który obejmuje wykorzystanie rozszerzenia Pólya-gamma. Opieramy się na wcześniejszych pracach nad Sticky HDP-HMM i rozłącznym lepkim HDP-HMM, opracowując bardziej ogólny model: Recurrent Sticky HDP-HMM (RS-HDP-HMM).

Łukasz Halada, Klaudia Balcer, Piotr Lipiński (Wydział Matematyki i Informatyki)
Poster: Wyjaśnianie modeli głębokiego uczenia maszynowego dla danych sekwencyjnych i temporalnych

Wyjaśnialna sztuczna inteligencja jest nie tylko trendem w nauce, ale przede wszystkim realną potrzebą związaną z praktycznymi zastosowaniami modeli uczenia maszynowego oraz wdrożeniami zaawansowanych systemów. Poster przedstawia sposoby wyjaśniania modeli głębokiego uczenia maszynowego dla danych sekwencyjnych i temporalnych, których modelowanie stanowi szczególne wyzwanie ze względu na zależności między kolejnymi obserwacjami. Przedstawimy systematykę podejść do wyjaśnienia modeli temporalnych.  Nadawszy kontekst, skupimy się na wyjaśnianiu rekomendacji generowanych przez sesyjne systemy rekomendujące, w tym na niedawno opublikowanym przez nas podejściu wykorzystującym popularny algorytm ewolucyjny Grammatical Evolution do generowania reguł wyjaśniających. Zaproponowane podejście umożliwia równoważne przedstawienie wyjaśnień w formie łatwego do implementacji wyrażenia gramatycznego jak również w języku naturalnym (w formie przystępnej dla użytkowników).

Michał Kowalczykiewicz, Piotr Lipiński  (Wydział Matematyki i Informatyki)
Poster: Zanurzenia snippetów w ewolucyjnym generowaniu kodu źródłowego

Badania skupiają się na podejściach uczenia maszynowego w inżynierii oprogramowania, w szczególności na uczeniu się wektorowych reprezentacji kodu źródłowego i integrowaniu ich z algorytmami ewolucyjnymi, które ewoluują programy komputerowe. Dotyczą Grammatical Evolution, przykładowego algorytmu ewolucyjnego mającego na celu optymalizację programów komputerowych, oraz podejścia code2vec, które ma na celu konstruowanie efektywnych reprezentacji wektorowych kodu źródłowego.

Maria Szlasa, Piotr Lipiński  (Wydział Matematyki i Informatyki)
Poster: Półnadzorowane uczenie maszynowe w segmentacji wielospektralnych obrazów satelitarnych 

Poster dotyczy wykorzystania metod uczenia półnadzorowanego do usprawnienia uczenia głębokich sieci neuronowych typu U-Net rozpoznających obszary spalone pożarami na zdjęciach satelitarnych. Uczenie półnadzorowane umożliwia uczenie modeli poprzez wykrywanie różnic między próbkami danych bez potrzeby etykietowania tych próbek, co ogranicza problemy z niedostępnością lub bardzo wysokimi kosztami pozyskiwania danych etykietowanych potrzebnych w dużych ilościach dla tradycyjnych metod głębokiego uczenia maszynowego.

Radosław Miernik, Jakub Kowalski  (Wydział Matematyki i Informatyki)
Poster: Regular Games: język ogólnego opisu gier oparty o automaty skończone

General game playing to dziedzina mająca na celu wyeliminowanie czynnika ludzkiego z procesu tworzenia różnych strategii grania. Skupienie się na graniu nie w jedną ale we wszystkie gry jakiejś klasy to nie tylko bezpośredni krok w kierunku silnej SI, ale także źródło wielu usprawnień całej grupy algorytmów opartych o przeszukiwanie przestrzeni stanów (np. Monte Carlo Tree Search).

Celem Regular Games jest być językiem niskiego poziomu, prostym do analizy, optymalizacji i efektywnej symulacji. Wzorując się na nowoczesnych językach programowania, modułowa architektura oddziela warstwy analizy kodu źródłowego, walidacji (w tym typów), optymalizacji i generacji kodu. Całość pozwala na wydajną emulację innych języków ogólnego opisu gier (np. Regular Boardgames, Stanford's GDL).

15:00 – 17:00
Instytut Informatyki, sala 119

Dyskusja panelowa

Sztuczna inteligencja - szansa czy zagrożenie dla nauki

Rok temu Science opublikowało wyniki badań ankietowych przeprowadzonych wśród ponad 1600 uczonych z całego świata na temat przydatności narzędzi AI dla ich dziedzin. Z jednej strony ponad połowa uważa, że narzędzia AI będą bardzo ważne lub wręcz niezbędne. Z drugiej strony spora część ankietowanych wyrażała też obawy, że AI w negatywny sposób wpłynie na sposób prowadzenia badań. Cieszyć się, czy bać. To będzie temat prowadzonej dyskusji.

Uczestnicy dyskusji: