Różnice
Różnice między wybraną wersją a wersją aktualną.
Poprzednia rewizja po obu stronach Poprzednia wersja Nowa wersja | Poprzednia wersja | ||
pl:start [2025/06/18 12:23] – [Maj] agata.kozina_ue.wroc.pl | pl:start [2025/07/10 20:34] (aktualna) – k.kaczmarek_ibspan.waw.pl | ||
---|---|---|---|
Linia 2: | Linia 2: | ||
===== 2025 ===== | ===== 2025 ===== | ||
+ | |||
+ | ==== Lipiec ==== | ||
+ | |||
+ | === Opinia na temat na temat „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” === | ||
+ | |||
+ | Polskie Stowarzyszenie Sztucznej Inteligencji przekazało do Minsterstwa Cyfryzacji szczegółową opinię i rekomendacje na temat „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” (https:// | ||
+ | |||
+ | Zwracamy uwagę na następujące kluczowe aspekty, które powinny być rozwinięte i doprecyzowane w programie rozwoju, w tym : | ||
+ | |||
+ | 1. **Kadra i rozwój kompetencji** | ||
+ | Potrzebne są konkretne programy rozwoju kadry akademickiej w Polsce poparte mierzalnymi celami, harmonogramami i wskaźnikami, | ||
+ | |||
+ | 2. **Badania naukowe oraz szersze uwzględnienie społeczności badawczej w planowanym ekosystemie** | ||
+ | W opiniowanym dokumencie w niewielkim stopniu uwzględnione jest prowadzenie badań naukowych z zakresu sztucznej inteligencji. W sposób szczególny w polityce rozwoju AI powinny być wskazane cele i środki angażujące młodych badaczy w projekty realizowane na uczelniach, w instytutach i w konsorcjach publiczno-prywatnych. | ||
+ | Ponadto, zauważamy że w opisywanym ekosystemie AI nie uwzględniono stowarzyszeń zajmujących się problematyką AI, takich jak np. PSSI, PTSN oraz polskie oddziały stowarzyszeń międzynarodowych jak IEEE i Komitetu Informatyki PAN (w ramach którego działa Sekcja SI). | ||
+ | |||
+ | 3. **Infrastruktura i dane** | ||
+ | Infrastruktura to między innymi serwery z GPU, komputery kwantowe, systemy pamięci oraz systemy bezpiecznego i „zielonego” zasilania. Warto rozszerzyć politykę rozwoju o aspekt zasilania AI w Polsce: zapotrzebowanie na energię w tym zakresie, źródła energii, planowana dynamika wykorzystania źródeł energii oraz rozproszenie | ||
+ | (bezpieczeństwa) źródeł. Ponadto konieczne jest wspieranie większego dostępu środowiska naukowego do nowo rozwijanej infrastruktury, | ||
+ | |||
+ | 4. **Strategiczne obszary - Medycyna** | ||
+ | Kluczowe jest wskazanie w polityce rozwoju konkretnych działań w zakresie zastosowań AI w medycynie dotyczących zasad wykorzystania narzędzi AI w medycynie w Polsce, programów finansowania dostępu do narzędzi AI (w szczególności narzędzi w | ||
+ | chmurach), systemu monitoringu AI w medycynie w połączeniu z działaniami prawnymi w zakresie AI wysokiego ryzyka (zgodnie z wypracowywanymi aktualnie zasadami przez UE – do 18 lipca – „Commission launches public consultation on high-risk AI systems”). | ||
+ | Ponadto, konieczne jest zaplanowanie konkretnych działań mających na celu budowanie krajowego repozytorium danych obrazowych. | ||
+ | |||
+ | 5. **Wiarygodność - aspekty etyczne i prawne** | ||
+ | Opis godnej zaufania AI powinien być również doprecyzowany w kontekście aspektów etycznych, wyjaśnialnej AI, kodeksów branżowych, | ||
+ | |||
+ | Z pełną treścią opinii można zapoznać się pod linkiem: {{ dokumenty: | ||
+ | |||
+ | **Apelujemy o większe zaangażowanie polskich uczelni, instytutów oraz stowarzyszeń w kształtowanie tej polityki oraz włączenie przedstawicieli do planowanych form monitorowania realizacji omawianej polityki.** | ||
==== Czerwiec ==== | ==== Czerwiec ==== | ||
Linia 17: | Linia 48: | ||
Pan dr inż. Piotr Bielak, za pracę „Methods for selected problems in unsupervised graph representation learning”, | Pan dr inż. Piotr Bielak, za pracę „Methods for selected problems in unsupervised graph representation learning”, | ||
- | === Ponadto finalistami konkursu zostali | + | === Ponadto finalistami konkursu zostali |
Dawid Rymarczyk, praca doktorska „ Interpretable Deep Learning with Prototypical Parts for Supervised and Weakly-Supervised Learning”, | Dawid Rymarczyk, praca doktorska „ Interpretable Deep Learning with Prototypical Parts for Supervised and Weakly-Supervised Learning”, | ||
Linia 33: | Linia 64: | ||
Tomasz Tarasiewicz, | Tomasz Tarasiewicz, | ||
+ | |||
+ | Skład Jury: | ||
+ | |||
+ | - Jan Bazan – członek Jury | ||
+ | - Urszula Boryczka – członkini Jury | ||
+ | - Tadeusz Burczyński – członek Jury | ||
+ | - Michał Choraś – członek Jury | ||
+ | - Grzegorz Dudek – członek Jury | ||
+ | - Mariusz Flasiński – członek Jury | ||
+ | - Piotr Jędrzejowicz – członek Jury | ||
+ | - Krzysztof Krawiec – członek Jury | ||
+ | - Halina Kwaśnicka – przewodnicząca Jury, prowadziła proces oceny, nie głosowała | ||
+ | - Jacek Mańdziuk – członek Jury – wstrzymał się od końcowego głosowania | ||
+ | - Danuta Rutkowska – członkini Jury | ||
+ | - Marek Sikora – członek Jury | ||
+ | - Andrzej Skowron – członek Jury – wstrzymał się od końcowego głosowania | ||
+ | - Andrzej Śluzek – członek Jury | ||
+ | - Jarosław Wąs – członek Jury | ||
+ | - Adam Wojciechowski – członek Jury | ||
+ | |||