Dr hab. Krzysztof Michalik, prof. Uniwersytetu WSB Merito Chorzów rozwija system LogosXAI. To narzędzie, które pozwala lepiej zrozumieć decyzje podejmowane przez sztuczną inteligencję. Wyniki badań nad systemem zostały opublikowane w prestiżowych wydawnictwach Springer i zaprezentowane na międzynarodowych konferencjach naukowych.
XAI (ang. Explainable Artificial Intelligence, czyli wyjaśnialna sztuczna inteligencja) to nowy nurt badań w AI. Jego celem jest sprawienie, by decyzje algorytmów nie były dla człowieka tajemnicą.
- Dzięki XAI, lekarz może zobaczyć, dlaczego system AI zaproponował daną diagnozę i na jakich danych się oparł. To daje większe zaufanie do technologii i pomaga w decyzjach klinicznych. W bankowości dzięki XAI wiadomo, dlaczego system przyznał lub odrzucił kredyt. Klient i analityk widzą kryteria, które miały największy wpływ. W edukacji LogosXAI pozwala studentom eksperymentalnie sprawdzić, jak działają sieci neuronowe: mogą usuwać poszczególne neurony i obserwować, jak zmienia się dokładność modelu. To uczenie się przez praktykę, które sprawia, że sztuczna inteligencja przestaje być abstrakcją - wyjaśnia dr hab. Krzysztof Michalik, prof. Uniwersytetu WSB Merito.
Obecnie większość modeli działa jak „czarna skrzynka” - widzimy dane wejściowe i wynik, ale nie mamy wglądu w proces decyzyjny. - LogosXAI pozwala częściowo wyjaśnić działanie głębokich sieci neuronowych - technologii niezwykle skutecznych, ale wciąż nieprzejrzystych dla użytkowników - tłumaczy dr hab. Michalik.
- Dzięki XAI, lekarz może zobaczyć, dlaczego system AI zaproponował daną diagnozę i na jakich danych się oparł. To daje większe zaufanie do technologii i pomaga w decyzjach klinicznych. W bankowości dzięki XAI wiadomo, dlaczego system przyznał lub odrzucił kredyt. Klient i analityk widzą kryteria, które miały największy wpływ. W edukacji LogosXAI pozwala studentom eksperymentalnie sprawdzić, jak działają sieci neuronowe: mogą usuwać poszczególne neurony i obserwować, jak zmienia się dokładność modelu. To uczenie się przez praktykę, które sprawia, że sztuczna inteligencja przestaje być abstrakcją - wyjaśnia dr hab. Krzysztof Michalik, prof. Uniwersytetu WSB Merito.
Obecnie większość modeli działa jak „czarna skrzynka” - widzimy dane wejściowe i wynik, ale nie mamy wglądu w proces decyzyjny. - LogosXAI pozwala częściowo wyjaśnić działanie głębokich sieci neuronowych - technologii niezwykle skutecznych, ale wciąż nieprzejrzystych dla użytkowników - tłumaczy dr hab. Michalik.
Publikacje i wystąpienia podczas światowych konferencji
Pierwszy artykuł, "XAI and Hybrid Systems: Toward a Transparent AI for Education and Beyond", ukazał się w tomie Intelligent Systems and Applications (Springer, seria Lecture Notes in Networks and Systems). Badanie zostało zaprezentowane podczas jedenastej Międzynarodowej Konferencji Intelligent Systems Conference (IntelliSys), która w 2025 roku odbyła się w Amsterdamie. Autor w artkule wskazuje, że hybrydowe podejście do AI może łączyć skuteczność sieci neuronowych z lepszą interpretowalnością wyników.
Drugi artykuł - "AI for Education, Education of AI: Exploring the Role of Explainable AI (XAI) through LogosXAI" – ukazał się w prestiżowej serii Lecture Notes in Computer Science (Springer). Został przedstawiony podczas 26. Międzynarodowej Konferencji poświęconej sztucznej inteligencji w edukacji (AIED 2025), która odbyła się w Palermo na Sycylii. Do publikacji zakwalifikowano jedynie ok. 35% zgłoszonych prac, w tym pracę naukowca z Uniwersytetu WSB Merito.
- Studenci dzięki LogosXAI mogą dosłownie zajrzeć do wnętrza sieci neuronowej
i zobaczyć, jak usuwanie poszczególnych neuronów wpływa na dokładność modelu. To uczenie się przez eksperyment, które ułatwia zrozumienie zasad działania AI - mówi dr hab. Michalik.
Pierwszy artykuł, "XAI and Hybrid Systems: Toward a Transparent AI for Education and Beyond", ukazał się w tomie Intelligent Systems and Applications (Springer, seria Lecture Notes in Networks and Systems). Badanie zostało zaprezentowane podczas jedenastej Międzynarodowej Konferencji Intelligent Systems Conference (IntelliSys), która w 2025 roku odbyła się w Amsterdamie. Autor w artkule wskazuje, że hybrydowe podejście do AI może łączyć skuteczność sieci neuronowych z lepszą interpretowalnością wyników.
Drugi artykuł - "AI for Education, Education of AI: Exploring the Role of Explainable AI (XAI) through LogosXAI" – ukazał się w prestiżowej serii Lecture Notes in Computer Science (Springer). Został przedstawiony podczas 26. Międzynarodowej Konferencji poświęconej sztucznej inteligencji w edukacji (AIED 2025), która odbyła się w Palermo na Sycylii. Do publikacji zakwalifikowano jedynie ok. 35% zgłoszonych prac, w tym pracę naukowca z Uniwersytetu WSB Merito.
- Studenci dzięki LogosXAI mogą dosłownie zajrzeć do wnętrza sieci neuronowej
i zobaczyć, jak usuwanie poszczególnych neuronów wpływa na dokładność modelu. To uczenie się przez eksperyment, które ułatwia zrozumienie zasad działania AI - mówi dr hab. Michalik.
Nowa metoda HiNeS-P
W obu publikacjach prof. Michalik opisuje własną metodę HiNeS-P (High-Impact Neuron Selection - Pruning), czyli selekcji i przycinania neuronów o największym wpływie na wynik działania sieci.
- W skrócie chodzi o to, by wskazać te elementy sieci, które naprawdę decydują
o rezultacie, a następnie uprościć model poprzez usunięcie mniej istotnych neuronów. Dzięki temu sieć staje się mniejsza, szybsza i łatwiejsza do zrozumienia, a przy tym nie traci znacząco na jakości - wyjaśnia naukowiec.
Dzięki HiNeS-P można więc nie tylko ograniczyć koszty obliczeń i dostosować sieć do pracy na mniejszych urządzeniach (tzw. sprzęcie brzegowym), ale także lepiej zrozumieć, które fragmenty sieci mają kluczowe znaczenie dla podejmowanych decyzji.
- To trochę jak odsianie szumu w rozmowie - zostaje tylko to, co naprawdę liczy się dla sensu wypowiedzi - mówi prof. Michalik. Sztuczna inteligencja coraz częściej towarzyszy nam w codziennym życiu - od aplikacji w telefonie po systemy medyczne.
- Dzięki badaniom nad XAI mamy szansę nie tylko korzystać z jej wyników, ale też zrozumieć, jak powstają. To krok w stronę AI, której możemy ufać, bo widzimy, jak działa - podsumowuje badacz z Uniwersytetu WSB Merito Chorzów.
W obu publikacjach prof. Michalik opisuje własną metodę HiNeS-P (High-Impact Neuron Selection - Pruning), czyli selekcji i przycinania neuronów o największym wpływie na wynik działania sieci.
- W skrócie chodzi o to, by wskazać te elementy sieci, które naprawdę decydują
o rezultacie, a następnie uprościć model poprzez usunięcie mniej istotnych neuronów. Dzięki temu sieć staje się mniejsza, szybsza i łatwiejsza do zrozumienia, a przy tym nie traci znacząco na jakości - wyjaśnia naukowiec.
Dzięki HiNeS-P można więc nie tylko ograniczyć koszty obliczeń i dostosować sieć do pracy na mniejszych urządzeniach (tzw. sprzęcie brzegowym), ale także lepiej zrozumieć, które fragmenty sieci mają kluczowe znaczenie dla podejmowanych decyzji.
- To trochę jak odsianie szumu w rozmowie - zostaje tylko to, co naprawdę liczy się dla sensu wypowiedzi - mówi prof. Michalik. Sztuczna inteligencja coraz częściej towarzyszy nam w codziennym życiu - od aplikacji w telefonie po systemy medyczne.
- Dzięki badaniom nad XAI mamy szansę nie tylko korzystać z jej wyników, ale też zrozumieć, jak powstają. To krok w stronę AI, której możemy ufać, bo widzimy, jak działa - podsumowuje badacz z Uniwersytetu WSB Merito Chorzów.


