piątek, 9 maja, 2025

Nasze serwisy:

Więcej

    AI – standardy i przyszłość. Europejskie warsztaty w NASK

    Zobacz również

    UE chce by rewolucja AI była bezpieczna i zgodna z europejskimi wartościami – oparta na wspólnych, sprawdzonych standardach. To właśnie tym zagadnieniom poświęcone były warsztaty w NASK w zorganizowane ramach polskiej prezydencji w Unii Europejskiej. Wnioski ze spotkania będą przydatne m.in. podczas czerwcowego posiedzenia Rady UE.

    - Reklama -

    Rozwój sztucznej inteligencji w Unii Europejskiej wchodzi na kolejne etapy – zarówno na poziomie inwestycji, jak i wdrażania regulacji. Spotkanie w siedzibie NASK miało charakter edukacyjny i doradczy. Jego celem było zebranie opinii różnych interesariuszy na potrzeby dalszych prac Rady ds. AI oraz Komisji Europejskiej. Wszystko to ma istotne znaczenie w kontekście wdrożeń opublikowanego w ubiegłym roku AI Act. Polska prezydencja podejmuje działania wspierające efektywne wdrożenie tych przepisów w całej Unii.

    – Trwa wyścig o to, kto pierwszy ustanowi standardy bezpieczeństwa sztucznej inteligencji. Jeśli nie zrobimy tego teraz, większość naszych firm, naszych instytucji publicznych – zwłaszcza tych, które chronią nasze dane i nasze rejestry – będzie wdrażać AI bez żadnych standardów. Dziś otwieramy kolejny rozdział, bo musimy dać naszym firmom pewność, że wdrażają te technologie zgodnie ze standardami, którym mogą ufać. Dlatego ten warsztat dotyczy zaufania, przyspieszenia inwestycji, a – szczerze mówiąc – również przyszłości rozwiązań AI w Unii Europejskiej – mówił Dariusz Standerski, wiceminister cyfryzacji.

    Warsztaty zostały zaplanowane tak, aby dostarczyć uczestnikom szerokiej perspektywy, dać możliwość spojrzenia na AI zarówno od strony standaryzacji i bezpieczeństwa sztucznej inteligencji w Unii Europejskiej, z punktu widzenia instytucji oraz sektora przemysłowego, jak i organizacji standaryzacyjnych.

    Standardy mogą na pierwszy rzut oka wydawać się tematem nudnym i mało atrakcyjnym na warsztat czy konferencję. Ale w rzeczywistości to niezwykle fascynujący, dotykający wielu obszarów i kluczowy temat w kontekście bezpieczeństwa sztucznej inteligencji. Dzisiejszy warsztat to okazja, by wspólnie z ekspertami z różnych sektorów odpowiedzieć na fundamentalne pytania: czy standardy bezpieczeństwa AI już istnieją, czy są dobre, gotowe do wdrożenia i użyteczne w praktyce – zaznaczał Paweł Kostkiewicz, dyrektor ds. certyfikacji w NASK.

    Spotkanie rozpoczęło wystąpienie Kiliana Grossa, zastępca dyrektora działającego w ramach Komisji Europejskiej Urzędu ds. Sztucznej Inteligencji (AI Office). Przedstawił on unijną perspektywę na proces standaryzacji bezpieczeństwa sztucznej inteligencji.

    W Europie mamy zgodność co do tego, że chcemy być liderem w dziedzinie AI. Chcemy, żeby ta technologia była bezpieczna, zgodna z naszymi wartościami i służyła ludziom – podkreślał przedstawiciel Komisji Europejskiej.

    Kilian Gross podkreślił, że AI Act nie jest regulacją wymierzoną przeciwko rozwojowi sztucznej inteligencji, lecz przeciwnie – ma stworzyć ramy umożliwiające jej bezpieczne wdrażanie w całej Unii Europejskiej. Celem przepisów jest bowiem zbudowanie zaufania społecznego i biznesowego do sztucznej inteligencji poprzez minimalizowanie ryzyk oraz jasne określenie obowiązków dla twórców i użytkowników systemów AI.

    Ekspert zwrócił szczególną uwagę na cyberbezpieczeństwo, jako jeden z kluczowych i obowiązkowych filarów AI Act. Wskazał, że sztuczna inteligencja ma na nie wpływ w obu kierunkach: może być wsparciem dla ataków (np. automatyzacja phishingu, generowania złośliwego oprogramowania), ale może także wzmacniać ochronę systemów i danych. Dlatego AI Act przewiduje obowiązki zapewnienia przez dostawców bezpiecznego działania modeli i systemów sztucznej inteligencji, zwłaszcza tych wdrażanych w sektorach wrażliwych i krytycznych, takich jak np. transport, medycyna, usługi publiczne czy energetyka.

    W swoim wystąpieniu Gross podkreślał, że AI Act ma zapewnić harmonijne, innowacyjne i bezpieczne wdrażanie sztucznej inteligencji w Europie, a cyberbezpieczeństwo stanowi jeden z jego fundamentalnych, obowiązkowych elementów. Ostatecznie, to Komisja zdecyduje o kształcie norm i standardów, które pozwolą na praktyczne bezpieczeństwo europejskich konsumentów i obywateli.

    Podczas spotkania zabrali głos także eksperci z wiodących organizacji standaryzacyjnych – Scott Cadzow z ETSI i Sebastian Hallensleben, Sebastian Hallensleben, który przewodniczy pracom nad standardami wdrożenia AI w ramach CEN/CENELEC JCT21. Uczestnicy warsztatów poznali też praktyczne spojrzenie na stosowanie standardów, o czym opowiadał m.in. przedstawiciel Microsoftu Nicholas Butts. Z kolei ekspert z SGS Michał Cichocki opowiadał o pierwszych certyfikacjach w obszarze AI opartych na normie 4201. Uczestnicy mieli także okazję zapoznać się z kodeksem dobrych praktyk opracowanym przez Brytyjskie Narodowe Centrum Cyberbezpieczeństwa (UK NCSC). Ostatni głos w dyskusji należał do Karoliny Seweryn z NASK, która mówiła o budowie bezpiecznych i godnych zaufania rozwiązań AI na przykładzie polskiego modelu językowego PLLuM.

    Cyberbezpieczeństwo i rozwój sztucznej inteligencji stanowią jeden z kluczowych priorytetów polskiej prezydencji w Radzie Unii Europejskiej, która rozpoczęła się 1 stycznia 2025 roku i potrwa do końca czerwca 2025 roku. W dobie dynamicznych przemian technologicznych, Polska przyjęła ambitną agendę działań, które mają na celu przyspieszenie rozwoju AI w całej UE. Podczas naszego przewodnictwa priorytetem jest poszukiwanie konkretnych rozwiązań: inwestycyjnych, wspierających wynalazców oraz o standardach i normach, które przełożą się na bezpieczeństwo produktów i usług z AI.

    ŹródłoNASK
    0 komentarzy
    najnowszy
    najstarszy oceniany
    Inline Feedbacks
    View all comments
    - Reklama -

    Najnowsze

    Razer Clio  – Niezbędny dodatek do Twojego fotela gamingowego

    Razer zaprezentował dziś Razer Clio – innowacyjne akcesorium do fotela gamingowego, które pozwala cieszyć się dźwiękiem o jakości porównywalnej...