·11 min czytania

Prawo w czasach AI: od chińskiego smoka po polskiego Bielika

pracownicy korzystający z AI

Sztuczna inteligencja rozwija się w tempie, za którym trudno nadążyć, a regulacje prawne dopiero się rodzą. Jak w technologicznym wyścigu zbrojeń odnajduje się Polska i Europa? Kto ma prawa do grafiki wygenerowanej przez Midjourney? I dlaczego dron bojowy pomylił czołg z chmurą? O szansach, zagrożeniach i prawnych labiryntach AI rozmawiamy z Natalią Lener-Bobek, radczynią prawną i partnerka radcą prawnym z kancelarii Sawaryn i Partnerzy.

Wywiad z mec. Natalią Lener-Bobek

Kamil Ciosmak (inEwi): Spotykamy się, aby porozmawiać o temacie, który zdominował ostatnie miesiące – sztucznej inteligencji. Ilość rozwiązań może przytłaczać: z jednej strony amerykańscy giganci jak OpenAI, z drugiej Chiny z modelami takimi jak DeepSeek, a w tle polskie akcenty, jak Bielik. Jak w ogóle odnaleźć się w tym gąszczu informacji?

Natalia Lener-Bobek: Aby to zrozumieć, warto spojrzeć na to przez pryzmat geopolityki, bo to ona dyktuje warunki gry. Mamy tu wyraźny podział: Stany Zjednoczone, Chiny, Europa i nasze polskie podwórko.

Stany Zjednoczone są zdecydowanym liderem. To tam powstał ChatGPT, a swoje rozwiązania dokładają Meta, Google czy Elon Musk. Ale Chiny bardzo szybko nadrabiają dystans, wypuszczając modele takie jak DeepSeek. Co ciekawe, chińskie modele często uczą się szybciej i taniej dzięki tzw. metodzie destylacji – korzystają z wiedzy, którą wcześniej zdobyło OpenAI, po prostu „scrapując” (pobierając) dane z ich rozwiązań.

Trzeba pamiętać, że pierwsze modele językowe uczyły się na absolutnie wszystkim, co było dostępne w internecie – od artykułów, przez YouTube, nie zważając na prawa autorskie. Dopiero teraz zaczynają się pojawiać umowy licencyjne i pozwy, o czym jeszcze powiemy. Mamy więc technologiczny wyścig zbrojeń. Po zmianach politycznych w USA, przy prezydenturze Trumpa i wpływach Elona Muska, ten wyścig jeszcze przyspieszy, bo Amerykanie realnie obawiają się chińskiej konkurencji.

K: A gdzie w tym wszystkim jest Europa?

Europa niestety została nieco w tyle, skupiając się w ostatnich latach bardziej na regulowaniu niż na tworzeniu technologii. Wiele osób słyszało o AI Act. Panuje błędne przekonanie, że ten unijny akt reguluje całą sztuczną inteligencję. W rzeczywistości dotyczy on głównie systemów tzw. wysokiego ryzyka, co może stanowić jakieś 10% rynku AI. Nie jest więc tak, że AI Act wszystkiego nam zabrania.

Problem Europy leży raczej w przeregulowaniu ogólnym W Unii Europejskiej i chaosie legislacyjnym. Wizyta JD Vance’a w Europie i sygnały płynące od Big Techu dały do zrozumienia, że jeśli Unia nie stanie się bardziej elastyczna, może zostać odcięta od najnowszych technologii.Czy te groźby są realne? Trudno w tym momencie powiedzieć, ale na pewno są źródłem nacisku USA na UE.  Europa próbuje budować suwerenność technologiczną, a ostatnie dokumenty unijne kładą ogromny nacisk na edukację. Co istotne, jeśli nie nauczymy społeczeństwa – od studentów po seniorów aktywnych zawodowo – korzystania z AI, to Europa pozostanie z tyłu wyścigu.

K: Wspomniałaś o edukacji i gonieniu czołówki. Czy na naszym polskim podwórku mamy się czym pochwalić?

Zdecydowanie tak. Mamy ElevenLabs – firmę rozpoznawalną na całym świecie, współpracującą z największymi podmiotami. Mamy też wspomnianego przez Ciebie Bielika. To duży, polski model językowy, który powstał oddolnie, z inicjatywy prywatnej, bez finansowania państwowego.

Bielik rozwija się świetnie – ostatnio pojawiła się informacja o jego integracji z Perplexity i wsparciu od Nvidii, co jest ogromną nobilitacją. Wokół tego projektu tworzy się bardzo zaangażowana społeczność. Przykładem jest projekt „Sójka”. To inicjatywa, w której każdy z nas może pomóc w „czyszczeniu” danych. Wyświetla nam się tekst i oceniamy, czy jest np. mową nienawiści, czy jest poprawny . Dzięki temu model uczy się na lepszych, zweryfikowanych danych.

Polska kreatywność jest ogromna, mamy wybitnych specjalistów. Niestety, czasem systemowo rzucamy im kłody pod nogi. Przykładem była afera wokół spółki IDEAS i profesora Sankowskiego – wybitnego naukowca, który w wyniku politycznych roszad stracił funkcję na rzecz osoby z nadania politycznego. Skończyło się to odejściem wielu ekspertów. Na szczęście sytuacja się prostuje, prof. Sankowski wrócił do gry w nowej strukturze, mamy też państwowy model PLLuM. Dzieje się więc dużo, zwłaszcza oddolnie.

Pracownicy korzystające podczas pracy z AI

Czy AI zabierze nam pracę?

K: Mimo tego rozwoju, w społeczeństwie wciąż widać podział. Jedni są entuzjastami, inni boją się, że sztuczna inteligencja zabierze im pracę. Czy ten strach jest uzasadniony?

Moim zdaniem AI nie zabierze nam pracy, ale zmieni sposób, w jaki ją wykonujemy. Osoby, które nie nauczą się biegle korzystać z tych narzędzi, mogą w przyszłości mieć trudności na rynku pracy – staną się swego rodzaju "cyfrowymi analfabetami".

To naturalny proces, podobny do rewolucji przemysłowej. Kiedy wchodziła maszyna parowa, wszyscy wieszczyli koniec pracy ludzkiej, a tymczasem pracy przybyło. Nagłówki w stylu "AI zabierze nam pracę" świetnie się klikają, ale niepotrzebnie polaryzują społeczeństwo. Zamiast straszyć, powinniśmy skupić się na edukacji. Mieliśmy ostatnio wystarczająco dużo powodów do lęku – pandemię, wojny – nie róbmy z technologii kolejnego straszaka.

Nauka obsługi AI nie jest trudna – to nie jest nauka nowego języka obcego od zera. To kwestia poznania kilku zasad i, co najważniejsze, zaczęcia używania tych narzędzi w praktyce.

Błędy, uprzedzenia i kompromitacje algorytmów

Mówisz o edukacji i oswajaniu AI. Ale czy tym systemom można ufać bezgranicznie?

Absolutnie nie. Musimy pamiętać, że modele są tylko odbiciem danych, na których zostały nauczone. A nasze społeczeństwo bywa uprzedzone. Mam kilka historii, które to świetnie obrazują.

Pierwsza dotyczy Amazona. Stworzyli aplikację opartą na AI do wstępnej selekcji CV, by przyspieszyć rekrutację. Okazało się, że system wybierał głównie białych mężczyzn. Nie dlatego, że ktoś go tak złośliwie zaprogramował, ale dlatego, że model uczył się na historycznych danych Amazona, gdzie w przeszłości pracowali głównie biali mężczyźni.

Jeszcze groźniejszy był przypadek systemu Compass w USA, który pomagał sędziom oceniać ryzyko recydywy u przestępców. Algorytm okazał się rasistowski – osobom o innym kolorze skóry przypisywał wyższe ryzyko i sugerował surowsze wyroki .

Są też przykłady zabawne, ale pouczające. Firma DPD wdrożyła chatbota do obsługi klienta. Coś poszło nie tak i bot zaczął pisać klientom, że DPD jest najgorszą firmą na świecie, a do tego używał wulgaryzmów. Inna sytuacja: podczas meczu piłkarskiego kamera sterowana przez AI, która miała śledzić piłkę, pomyliła ją z... łysą głową trenera. Przez większość meczu widzowie oglądali zbliżenia na głowę trenera zamiast akcji na boisku .

Z kolei w kontekście wojny na Ukrainie – która jest niestety wielkim poligonem doświadczalnym dla AI – drony mające wykrywać czołgi początkowo nauczyły się wykrywać chmury. Bo to chmury były najczęściej występującym elementem na zdjęciach, na których trenowano model. To pokazuje, jak łatwo o błąd, jeśli dane treningowe nie są idealne.

Pracownik IT podczas weryfikacji pracy serwerów

Mroczna strona: deepfakes i tragedie ludzkie

K: Te błędy bywają zabawne, ale wspomniałaś też o zagrożeniach, które śmieszne nie są.

Tak, są historie, które mrożą krew w żyłach. W USA głośny był przypadek nastolatka, który korzystał z serwisu AI Characters. Stworzył sobie wirtualną towarzyszkę o imieniu Daenerys (postać z „Gry o Tron”). Chłopak wszedł w głęboką relację romantyczną z chatbotem. Kiedy pisał o swoich problemach psychicznych, bot – zamiast skierować go po pomoc – pisał rzeczy w stylu „zobaczymy się po drugiej stronie”. Chłopak popełnił samobójstwo. Jego matka pozwała twórców aplikacji .

Podobny przypadek miał miejsce w Belgii. Mężczyzna, który bardzo martwił się o klimat i swój ślad węglowy, zapytał AI, co zrobić, by pomóc planecie. Chatbot zasugerował, że najlepszym wyjściem będzie, jeśli on „zniknie”. Mężczyzna również odebrał sobie życie .

To pokazuje, jak wielka odpowiedzialność ciąży na dostawcach, ale też na nas – rodzicach i opiekunach. Dzieci i osoby starsze są szczególnie narażone, bo mogą nie mieć tego filtra, który pozwala odróżnić maszynę od człowieka.

Do tego dochodzą deepfakes. Oszustwo „na wnuczka” ewoluowało – teraz oszuści dzwonią głosem wnuczka, sklonowanym przez AI. Mamy fałszywe filmy pornograficzne niszczące życie kobietom i nie tylko, mamy deepfake’i polityczne, (np. z Obamą), niebezpieczeństwo związane z sharentingiem zyskuje nowy wymiar . Weryfikacja tego, co jest prawdą, a co fałszem, staje się kluczowym wyzwaniem naszych czasów.

Prawa autorskie: kto jest właścicielem dzieła AI?

K: Przejdźmy do biznesu. Wiele firm wdraża AI, by generować grafiki, kod czy teksty. Kto tak naprawdę jest autorem tych dzieł?

To jest prawny „Dziki Zachód”. Możemy wyróżnić trzy główne sytuacje, w zależności od tego, jak pracujemy z narzędziem:

  1. AI jako asystent (Narzędzie): Jeśli AI tylko nam pomaga – np. poprawia przecinki w tekście, koryguje kolory na zdjęciu zrobionym przez nas – sprawa jest prosta. To my jesteśmy twórcami, a AI jest tylko pędzlem. Prawa autorskie należą do nas .

  2. AI jako twórca (Generowanie): Jeśli wpisujemy prompt (np. „stwórz plakat Bieszczad”) i zostawiamy maszynie pełną swobodę, a ona generuje gotowy produkt – wtedy prawa autorskie nie należą do nikogo. Prawo autorskie chroni tylko dzieła człowieka. Maszyna nie może być autorem .

  3. Intensywna współpraca (Szara strefa): Najtrudniejsza sytuacja to ta, w której wielokrotnie modyfikujemy prompty, „rzeźbimy” efekt końcowy. Intuicja mówi nam, że to nasze dzieło, ale sytuacja jest znacznie bardziej skomplikowana.

Mamy głośny przykład z USA. Artysta stworzył obraz, pracując nad nim 80 godzin i wpisując ponad 600 promptów. Urząd ds. Praw Autorskich (US Copyright Office) odmówił rejestracji tego dzieła, twierdząc, że element ludzki był niewystarczający, a główną pracę wykonał algorytm. Podobnie było z komiksem „Zarya of the Dawn” – uznano, że tekst i układ strony są chronione, ale same grafiki wygenerowane przez Midjourney już nie. Oznacza to, że każdy może wziąć te grafiki i wykorzystać je u siebie.

K: To brzmi jak pułapka dla firm, na przykład software house’ów.

Dokładnie tak. Wyobraź sobie programistę, który generuje fragmenty kodu w całości przez AI (np. Copilot czy Cursor). Jeśli ten kod został stworzony w 100% przez maszynę, to w świetle obecnych interpretacji „nie należy do nikogo”.

Jeśli taki software house w umowie z klientem napisze, że „przenosi na niego autorskie prawa majątkowe do całego kodu”, to składa oświadczenie niezgodne z prawdą. Nie można przenieść praw, których się nie posiada. Dlatego umowy IT muszą się zmienić. Zamiast polegać tylko na prawach autorskich, powinniśmy zabezpieczać się ochroną know-how, tajemnicą przedsiębiorstwa i klauzulami poufności. Oczywiście można zadać sobie pytanie, czy to ryzyko jest realne? Czy ktoś będzie w stanie dowieść, że programista stworzył przykładowi całą grę w AI? Ocena stopnia ryzyka zależy od sytuacji, pewnie można na pewnym stopniu ogólności powiedzieć, że ryzyko nie jest wysokie ale jednak istnieje. Biznes potrzebuje więc skutecznych mechanizmów, które zabezpieczą legalne korzystanie z AI podczas realizacji umów lub produktów wewnętrznych. 

Ryzyko naruszeń: Myszka Miki i Reksio

A co z drugą stroną medalu? Czy używając AI, możemy nieświadomie ukraść czyjąś własność?

Tak. Modele uczyły się na wszystkim, co znalazły w sieci. Mamy głośne pozwy: New York Times pozwał OpenAI, udowadniając, że chatbot potrafi wygenerować całe fragmenty ich płatnych artykułów. Z kolei Disney i Universal pozywają twórców generatorów grafik, bo wystarczy wpisać „żółty ludzik z kreskówki”, a model generuje Minionka, naruszając prawa do postaci.

Jestem związana z Bielskiem-Białą, więc bliski jest mi przykład Studia Filmów Rysunkowych. Jeśli wpiszesz w generator „piesek z łatką w stylu starej polskiej animacji”, często dostaniesz Reksia. Czy to fair wobec rysowników, którzy tworzyli te postacie latami?.

Dlatego wielcy gracze (Microsoft, Google) wprowadzają tzw. Copyright Shields. Obiecują, że jeśli zostaniesz pozwany za naruszenie praw autorskich przez ich narzędzie, oni wezmą to na siebie. Ale uwaga na regulaminy! Ta ochrona nie zadziała, jeśli użytkownik działał celowo (np. wpisał „stwórz Myszkę Miki”) lub wiedział, że narusza prawo. W mojej ocenie w przyszłości sytuację tę będą regulowały wielkie umowy licencyjne między takimi wytwórniami jak np. Disney, a dostawcami narzędzi AI. Po raz kolejny trzeba pamiętać o tym, że zmiana już się dzieje i będzie postępować bardzo szybko, a tym samym konieczne jest ubranie jej w jakieś sensowne ramy prawne - jeśli nie ustawami, to rozsądnymi umowami. 

prawniczka korzystająca z AI

RODO i wycieki danych

K: Czy wrzucanie firmowych dokumentów do ChataGPT jest bezpieczne?

Jeśli korzystasz z darmowych, otwartych narzędzi – absolutnie nie. Zasada jest prosta: w darmowym narzędziu płacisz swoimi danymi. Model uczy się na tym, co mu wpiszesz.

Mieliśmy już przypadki wycieków w biznesie. W Niemczech jedna firma przygotowywała pozew przeciwko drugiej i wrzuciła jego treść do narzędzia AI, żeby go dopracować. Jakiś czas później ten pozew – po odpowiednim zapytaniu – „wyskoczył” prawnikom strony przeciwnej w tym samym narzędziu. Podobnie było ze strategią marketingową w branży energetycznej.

Dlatego nigdy nie wrzucaj danych osobowych (PESEL, nazwiska), tajemnic firmy ani umów do darmowych chatbotów. Jeśli musisz pracować na takich danych, korzystaj z rozwiązań płatnych (np. Azure OpenAI) lub wersji Enterprise, które w regulaminach gwarantują, że nie trenują modelu na Twoich danych. A nawet wtedy – dla bezpieczeństwa – warto te dane zanonimizować i zapoznać się ze zrozumieniem z dokumentami danego narzędzia.

Halucynacje prawnicze

K: Czy prawnicy też używają AI?

Używają, ale muszą być bardzo ostrożni. Zmora to tzw. halucynacje. AI potrafi zmyślać fakty w bardzo przekonujący sposób. Zdarzali się już prawnicy, którzy w sądzie powoływali się na wyroki i sygnatury akt wygenerowane przez ChatGPT. Sąd sprawdzał te sygnatury i okazywało się, że takie sprawy nigdy nie istniały.. AI to świetny asystent, ale trzeba go sprawdzać jak studenta na stażu.

Jak bezpiecznie wdrożyć AI w firmie? Lista kroków

K: Podsumowując - AI daje ogromne możliwości, ale też niesie ryzyka. Co powinien zrobić przedsiębiorca, by spać spokojnie?

  1. Due Diligence narzędzi: Zanim pozwolisz pracownikom korzystać z nowej aplikacji AI, sprawdź jej regulamin. Gdzie są serwery? Czy firma trenuje model na Twoich danych?.

  2. Polityka AI: Wprowadź jasne zasady. Określ, z jakich narzędzi wolno korzystać, a z jakich nie. Wypisz rodzaje danych (np. dane klientów), których pod żadnym pozorem nie wolno wpisywać w prompty.

  3. Aktualizacja umów: Jeśli jesteś software housem lub agencją, bądź uczciwy. Poinformuj klienta, że korzystasz z AI. Ureguluj odpowiednio kwestie praw autorskich, know how, czy informacji poufnych.

  4. Archiwizacja: Jeśli tworzysz coś ważnego przy pomocy AI, archiwizuj proces twórczy – zapisuj prompty, kolejne wersje projektu. To może być jedyny ratunek, jeśli będziesz musiał udowodnić w sądzie, że to Ty jesteś autorem. Nie zapomnij przy tym o punkcie numer 3. 

  5. Edukacja: Nie zakładaj, że pracownicy wiedzą to, co Ty. Przeszkol ich z bezpiecznego promptowania i RODO.

K: Gdzie można Cię znaleźć, jeśli ktoś potrzebuje wsparcia w kwestiach prawa w AI?

Pracuję w kancelarii Sawaryn i Partnerzy. Mamy siedzibę w Warszawie, ale ja działam z naszego oddziału w Bielsku-Białej. Specjalizujemy się w obsłudze firm IT, e-commerce i firm technologicznych, ale nie tylko. Pomagamy układać bezpieczne umowy, negocjować kontrakty, wdrażać RODO i dbać o compliance naszych klientów. Staramy się być prawnikami „z ludzką twarzą” – mówimy językiem biznesu, a nie paragrafów. Zapraszam też na mój profil na LinkedIn, gdzie na bieżąco i po ludzku opisuję nowinki ze świata prawa i AI.

Rozmawiał: Kamil Ciosmak (inEwi)

Zobacz podobne artykuły:

AI w HR: rewolucja czy ryzyko? Kompleksowa analiza wyzwań od Jooble

Kompleksowa analiza AI w HR. Odkryj, jak AI automatyzuje rekrutację i zwiększa retencję. Zbadaj korzyści i wyzwania etyczne związane z danymi w algorytmach.

Uścisk dłoni

Transformacja cyfrowa: jak kształtuje współczesny biznes?

🤖 Transformacja cyfrowa przedsiębiorstw rewolucjonizuje współczesny biznes. Jak optymalizować procesy z wykorzystaniem AI i uczenia maszynowego?

Transformacja cyfrowa przedsiębiorstw

Inteligentne harmonogramy pracy z AI

Inteligentne harmonogramy pracy z wykorzystaniem AI to nowoczesne rozwiązanie, które w znaczący sposób pomogą tworzyć grafiki pracy. Sprawdź więcej!

Inteligentne harmonogramy pracy z AI
Oceń ten artykuł

#udostępnij jeżeli ten artykuł jest przydatny:

Warto również przeczytać te artykuły.

Sprawdź inne propozycje opracowane przez naszych ekspertów.

Sprawdź też inne artykuły!

Zobacz wszystkie

299950+ użytkowników!

Tworzymy narzędzia, które dopasowują się do Ciebie, a nie na odwrót - ponieważ każdy pracuje w wyjątkowy sposób.

Załóż darmowe konto
Szczęśliwy użytkownik platformy inEwi