piątek, 26 kwietnia, 2024

Nasze serwisy:

Więcej

    Polscy naukowcy pomogą zrozumieć, jak działa sztuczna inteligencja

    Zobacz również

    Piotr Sankowski, prezes IDEAS NCBR i profesor w Instytucie Informatyki na Uniwersytecie Warszawskim, otrzymał czwarty już w swojej karierze naukowej grant European Research Council. Jest pierwszym Polakiem, któremu się to udało. Jego zespół zajmie się badaniami podstawowymi z obszaru Explainable AI, czyli objaśniania w jaki sposób algorytmy podejmują decyzje. Powstałe w wyniku prac polskich naukowców biblioteki danych pomogą innym twórcom budować rozwiązania AI oraz algorytmy optymalizacyjne lepiej zrozumiałe dla użytkowników.

    - Reklama -

    W parę miesięcy od wybuchu popularności generatywnej sztucznej inteligencji pojawiły się w sieci zestawy promptów, czyli sprawdzonych zapytań do modeli językowych. Dzięki zastosowaniu w nich konkretnych zwrotów ChatGPT czy Midjourney wydobywają z siebie bardziej przewidywalne wyniki. Autorami tych promptów są zawansowani użytkownicy, którzy usiłują odgadnąć, w jaki sposób myślą algorytmy AI – najczęściej metodą prób i błędów. 

    W przypadku większości narzędzi opartych na sztucznej inteligencji, nie tylko końcowi użytkownicy nie są w stanie wyjaśnić, jak ona działa. Nie wiedzą o tym także jej twórcy. Mogą dzięki testom nauczyć się przewidywać, np. jaką odpowiedź zwróci ich model językowy przy konkretnym zapytaniu, ale nie umieją wyjaśnić, dlaczego tak się dzieje. 

    – Wyzwania związane z wyjaśnieniem wyników działania algorytmów nie dotyczą tylko głębokich sieci neuronowych, ale także prostszych algorytmów optymalizacyjnych, które mogą mieć nawet dowody poprawności. Prowadząc nasze badania zdaliśmy sobie sprawę, że użytkowników takie dowody nie interesują, nawet jeśli byliby w stanie je zrozumieć.  Mimo to chcą oni dowiedzieć się dlaczego algorytm podjął konkretną decyzję – komentuje prof. Piotr Sankowski, prezes IDEAS NCBR i lider grupy badawczej.

    Stworzeniu takich wyjaśnień poświęcone są badania w projekcie EXplainable ALgorithmic Tools (EXALT) prowadzonym przez Piotra Sankowskiego w centrum badawczo-rozwojowym w obszarze sztucznej inteligencji IDEAS NCBR. – Naszym zdaniem, fundamentalną sprawą jest, abyśmy dobrze zrozumieli jak tworzyć wyjaśnienia prostych algorytmów zanim uda nam się z sukcesem wyjaśnić zaawansowane algorytmy AI w ramach prac nad Explainable AI (XAI) – dodaje Piotr Sankowski. 

    Czego dotyczyć będzie grant EXALT? 

    Na realizację projektu EXplainable ALgorithmic Tools (EXALT) Piotr Sankowski otrzymał grant Europejskiej Rady ds. Badań Naukowych (European Research Council – ERC) w wysokości 150 tys. euro do zrealizowania w ciągu 18. miesięcy. To już czwarty grant badawczy w jego karierze naukowej, jaki otrzymał od tej prestiżowej agencji, co samo w sobie jest unikatowym osiągnięciem w polskiej nauce.  

    – Przedmiotem naszych badań będą proste algorytmy optymalizacyjne, takie jak w nawigacji GPS wytyczające najkrótszą drogę dla pojazdu czy przypisujące pracownikom zadania do wykonania, aby zmaksymalizować efektywność. Do nich stworzona zostanie „nakładka”, czyli dodatkowy algorytm, który ma ustalić „dlaczego” dany algorytm podjął określoną decyzję. Może to być użyteczne przy tworzeniu rozwiązań opartych na sztucznej inteligencji w obszarach takich jak medycyna, obsługa klienta, sprzedaż, czy wspomniane systemy nawigacyjne. Kwestią otwartą pozostaje to w jaki sposób ta informacja będzie przekazywana użytkownikowi końcowemu – wyjaśnia Piotr Sankowski prezes IDEAS NCBR i lider grupy badawczej.  

    Docelowo prace zespołu posłużą do powstania biblioteki oprogramowania, którą następnie będzie można wykorzystać do tworzenia objaśnianych algorytmów optymalizacji kombinatorycznej. 

    Dlaczego świat potrzebuje Explainable AI? 

    Już sama informacja, że “nawet twórcy sztucznej inteligencji jej nie rozumieją” dodatkowo wypaczona w popularnych narracjach może budzić obawy przed jej stosowaniem szczególnie u osób mniej biegłych w dziedzinie technologii cyfrowych. To z kolei może stwarzać presję na decydentów, by prawnie zahamować rozwój AI np. ze względu na kwestie związane z prywatnością danych. Zwłaszcza, że dostarcza ona coraz bardziej zaawansowanych rozwiązań, które już teraz znajdują zastosowanie nie tylko w biznesie, ale także np. w medycynie. Dzięki narzędziom XAI udaje się już poczynić postępy m.in. w diagnostyce chorób płuc i analizach zdjęć rentgenowskich.  

    – Sztuczna inteligencja potrafi popełniać głupie błędy, w zadaniach, które ludziom często wydają się oczywiste. Przykładowo w odróżnianiu psów i kotów na zdjęciach, widząc zwierzę na dworze, założy, że to pies, bo statystycznie w dostarczonej jej bazie fotografii psy częściej występowały poza domem. Jednak wiedząc, że algorytm AI wykształcił taki mechanizm jesteśmy w stanie go skorygować, aby otoczenie nie było tak istotnym kryterium rozpoznawania zwierząt – opowiada Piotr Sankowski. 

    Narzędzie, które także dla naukowców przypomina “czarną skrzynkę” wyrzucającą z siebie ciągi danych, z czasem może stać się trudniejsze do rozwijania. Dzięki wdrażaniu rozwiązań z obszaru XAI twórcy czatbotów mogliby lepiej zrozumieć, kiedy modele językowe halucynują i ograniczyć takie zachowania, a producenci autonomicznych pojazdów byliby bardziej pewni niezawodności systemów stojących za sterowaniem pojazdami. Z kolei lekarze, który z stawianiu diagnoz korzystać będą z analiz dostarczonych przez sztuczną inteligencję, będą znali nie tylko jej końcową rekomendację, ale również ścieżkę “rozumowania”, jaka doprowadziła algorytm do takich wniosków. Będą więc mieli więcej informacji o zdrowiu pacjentów i będą mogli podejmować na ich podstawie lepsze decyzje. 

    ŹródłoIdeas NCBR
    guest
    0 komentarzy
    Inline Feedbacks
    View all comments
    - Reklama -

    Najnowsze

    Samsung prezentuje serię dokumentów o kultowych dyscyplinach olimpijskich

    Samsung, oficjalny partner Igrzysk Olimpijskich i Paralimpijskich, prezentuje serię filmów dokumentalnych poświęconych kultowym dyscyplinom olimpijskim, takim jak skateboarding, breakdance,...