on-line4600.0015-10-2025 - 06-11-202513-10-2025 48
Sztuczna inteligencja: Praktyczne zastosowania, etyczne wyzwania i regulacyjne pułapki. AI (szczególnie generatywna) staje się kluczowym elementem procesów biznesowych, co rodzi ogromne wyzwania prawne, etyczne i compliance. Konieczne staje się zatem zrozumienie, jak ją bezpiecznie i zgodnie z przepisami wdrażać.
Kurs ma charakter praktyczny – bazuje na rzeczywistych przykładach, rekomendacjach instytucji nadzorczych oraz dobrych praktykach branżowych.
Opis i cel

Opis

Kurs ma charakter praktyczny – bazuje na rzeczywistych przykładach, rekomendacjach instytucji nadzorczych oraz dobrych praktykach branżowych.

AI (szczególnie generatywna) staje się kluczowym elementem procesów biznesowych, co rodzi ogromne wyzwania prawne, etyczne i compliance. Coraz więcej organizacji potrzebuje specjalistów, którzy zrozumieją, jak bezpiecznie i zgodnie z przepisami wdrażać AI – w tym w obszarach takich jak automatyzacja decyzji, analiza danych czy tworzenie treści.

W ramach kursu omówione najważniejsze aspekty sztucznej inteligencji z punktu widzenia zgodności i ochrony danych, ze szczególnym uwzględnieniem:

  • RODO – wymogi dotyczące przetwarzania danych osobowych przez systemy AI, w tym zasady minimalizacji danych, prawo do informacji, oceny skutków dla ochrony danych (DPIA) oraz zarządzanie ryzykiem profilowania i automatycznych decyzji,
  • AI Act – kluczowe obowiązki dla dostawców i użytkowników systemów AI wysokiego ryzyka, wymogi dotyczące transparentności, nadzoru oraz zarządzania ryzykiem, które mają bezpośrednie przełożenie na praktykę compliance i ochronę danych,
  • Digital Markets Act (DMA) – regulacje dotyczące transparentności algorytmów i przeciwdziałania praktykom monopolistycznym na platformach cyfrowych, co wpływa na sposoby wdrażania AI w organizacjach i współpracę z regulatorami,
  • Dyrektywa NIS2 – zasady zarządzania cyberbezpieczeństwem systemów AI, obowiązki raportowania incydentów oraz implementacja środków ochronnych w kontekście ryzyka technologicznego,
  • Dyrektywa o prawie autorskim (DSM) – praktyczne wyzwania związane z wykorzystywaniem danych chronionych prawem autorskim przez systemy AI, w tym aspekty legalnego dostępu do danych i ograniczenia dotyczące eksploracji tekstu i danych (TDM).

Miejsce realizacji

Szkolenie realizowane w formie online live (transmisja na żywo). 

Cel kursu

Przygotowanie do  efektywnego i odpowiedzialnego wdrażania i monitorowania rozwiązań AI w organizacji

Efekty uczenia się

  • Absolwent kursu identyfikuje ryzyka związane z wdrażaniem AI w organizacji,
  • ocenia skutki dla ochrony danych (DPIA) w projektach opartych na AI,
  • wdraża AI w sposób etyczny, transparentny i zgodny z prawem,
  • opracowuje wewnętrzne polityki i procedury uwzględniające nowe technologie.

Sposób walidacji

Test teoretyczny z wynikiem generowanym automatycznie

 

 

Uczestnicy

Kurs skierowany jest do przedstawicieli różnych sektorów odpowiedzialnych za zgodność, ochronę danych oraz wdrażanie nowych technologii, w szczególności do:

  • Inspektorów Ochrony Danych (IOD)
  • Specjalistów i menedżerów ds. compliance
  • Prawników wewnętrznych i doradców prawnych
  • Specjalistów ds. IT, bezpieczeństwa informacji i cyberbezpieczeństwa
  • Członków zarządów oraz kadry kierowniczej odpowiedzialnej za innowacje technologiczne
  • Kierowników projektów transformacji cyfrowej
  • Audytorów wewnętrznych i zewnętrznych
  • Przedstawicieli startupów i firm technologicznych wdrażających rozwiązania oparte na AI
  • Specjalistów ds. etyki biznesu w kontekście rozwiązań cyfrowych

 

Program kursu

MODUŁ I – 15–16 października 2025 r.

AI a ochrona danych osobowych – podstawy prawne i regulacyjne (16 h)

Podstawy prawne przetwarzania danych osobowych w kontekście AI

  • Pojęcie danych osobowych w systemach opartych na AI
  • Zautomatyzowane podejmowanie decyzji a art. 22 RODO
  • Zgoda, uzasadniony interes, ocena legalności przetwarzania

Nowe regulacje UE: AI Act, DSA, DMA – przegląd i wpływ na compliance
Ryzyko i odpowiedzialność prawna przy wdrażaniu AI

  • Zarządzanie ryzykiem prawnym i regulacyjnym
  • Obszary szczególnego ryzyka: biometria, profilowanie, scoring kredytowy
  • Bezpieczeństwo danych a AI – analiza luk i incydenty naruszenia ochrony danych

Warsztaty: Praktyczne podejście do DPIA w projektach AI

  • Krok po kroku: Jak przeprowadzić DPIA dla systemu AI
  • Analiza rzeczywistego przykładu wdrożenia AI
  • Identyfikacja zagrożeń i przeciwdziałań

MODUŁ II – 22–23 października 2025 r.

Technologie AI i ich zgodność – wyzwania techniczne i organizacyjne (16 h)

Rodzaje i zastosowania sztucznej inteligencji w organizacjach

  • Generatywna AI, uczenie maszynowe, NLP – przegląd technologii
  • Typowe przypadki użycia AI w HR, finansach, marketingu i compliance
  • Ocena zgodności systemów AI z wymaganiami RODO i AI Act
  • Transparentność algorytmów i wyjaśnialność (explainability)
  • Czy „czarna skrzynka” jest zgodna z RODO?
  • Działania modeli AI
  • Transparentność wobec użytkownika końcowego

Bezpieczeństwo systemów AI i kontrola dostępu

  • Standardy i dobre praktyki (np. ISO/IEC 27001)
  • Cyberbezpieczeństwo a zgodność – jak chronić dane osobowe w systemach AI
  • Kontrola dostępu, audyt logów, retencja danych w kontekście AI

Standardy i dobre praktyki (np. ISO/IEC 27001)

Cyberbezpieczeństwo a zgodność – jak chronić dane osobowe w systemach AI

Kontrola dostępu, audyt logów, retencja danych w kontekście AI

Warsztaty: Audyt AI w praktyce

  • Przygotowanie do audytu zgodności systemu AI
  • Lista kontrolna audytora
  • Identyfikacja luk i propozycje działań naprawczych

MODUŁ III – 29–30 października 2025 r.

Metodyka wdrażania i monitorowania zgodności projektów AI (16 h)

 

Zaangażowanie IOD i działu compliance w cyklu życia projektu

Tworzenie procedur i polityk dotyczących AI

  • Polityka etycznego stosowania AI w organizacji
  • Rejestr systemów AI – dobre praktyki dokumentacyjne
  • Wewnętrzne procedury oceny i zatwierdzania rozwiązań opartych na AI

Warsztaty: Opracowanie wewnętrznej polityki AI dla organizacji. Identyfikacja zastosowań AI w firmie

  • Opracowanie polityki AI zgodnej z RODO i AI Act
  • Uwzględnienie aspektów etycznych i operacyjnych
  • Przykładowe wzorce polityk i procedur

MODUŁ IV – 6 listopada 2025 r.

Kompetencje miękkie, etyka i przyszłość zawodu IOD w świecie AI (10 h)

Psychologiczne i etyczne aspekty stosowania AI

  • Rola etyki w projektowaniu i wdrażaniu rozwiązań opartych na AI
  • AI a uprzedzenia, dyskryminacja i odpowiedzialność społeczna
  • Komunikacja z interesariuszami: jak tłumaczyć działanie systemów AI
  • Rola IOD i działu compliance w świecie szybko zmieniających się technologii
  • Nowe kompetencje i wyzwania dla specjalistów compliance
  • Narzędzia wspomagające pracę IOD
  • Przyszłość regulacji – jak się przygotować do ciągłych zmian

PETYTORIUM

Egzamin certyfikujący (1 h)

Test dostępny przez tydzień na platformie ePIKW

 

Warunki uczestnictwa

1. REKRUTACJA

Przesłanie na adres eszkolenia@pikw.pl wypełnionych i podpisanych dokumentów: 

2. OPŁATA

  • Zgłoszenie indywidualne - Opłacenie udziału na podstawie faktury pro forma, najpóźniej na trzy dni przed rozpoczęciem zajęć.
  • Zgłoszenie instytucjonalne - Opłacenie udziału 14 dni po otrzymaniu faktury VAT (po zakończeniu zajęć).

 

Kontakt

 

Urszula Kamińska - Specjalista ds. Szkoleń 

e-mail: u.kaminska@pikw.pl 

kom. 533 606 007 | fax (22) 620 94 36