Czerwiec 2025: dwa przełomowe wyroki w ciągu dwóch dni. Antropic i Meta wygrały sprawy o fair use – ale to nie koniec historii.
Gdzie jest granica fair use przy trenowaniu AI?
Najnowsze orzecznictwo USA, linie demarkacyjne i co to znaczy dla twórców używających Midjourney, Stable Diffusion czy ChatGPT.
Rok 2025: pierwsze poważne rozstrzygnięcia
Przez ostatnie 2 lata firmy AI mówiły: "fair use nas chroni". Wydawcy i twórcy mówili: "to kradzież na masową skalę". W czerwcu 2025 sądy w Kalifornii po raz pierwszy powiedziały swoje.
| Sprawa | Wynik | Dlaczego |
|---|---|---|
| Bartz v. Anthropic 23.06.2025 |
Fair use ✓ | Trenowanie = "spektakularnie transformatywne", brak replikacji w outputach |
| Kadrey v. Meta 25.06.2025 |
Fair use ✓ | Autorzy nie udowodnili szkody rynkowej, mimo pirackich źródeł |
| Thomson Reuters v. ROSS 02.2025 |
NIE fair use ✗ | Produkty bezpośrednio konkurowały – ROSS = zamiennik Westlaw |
Co to jest fair use (dla normalnych ludzi)
Fair use to doktryna w USA, która mówi: "okej, możesz użyć cudze dzieło bez zgody, jeśli..."
Sąd patrzy na 4 rzeczy:
- Transformatywność – czy robisz coś nowego, czy kopiujesz 1:1?
- Charakter dzieła – fakty vs. twórcze dzieło (np. novel)
- Ile skopiowałeś – całość czy fragment?
- Szkoda rynkowa – czy zabiłeś autorowi sprzedaż?
W kontekście AI: punkt 1 (transformatywność) i punkt 4 (szkoda) są najważniejsze.
Bartz v. Anthropic: "spektakularnie transformatywne"
Autorzy pozwali Anthropic (twórca Claude'a), bo firma użyła 7+ milionów książek do trenowania. Część była pirackimi kopiami.
Kluczowe cytaty z wyroku:
- "Trenowanie modelu do generowania języka jest fundamentalnie różne od czytania książki"
- "To jak uczenie dzieci pisania – nie można zabronić wykorzystania dzieł do nauki"
- "Nie wykazano, że Claude replikuje lub substytucyjnie zastępuje oryginalne dzieła"
Kadrey v. Meta: gdy nie udowodnisz szkody
Meta trenowała LLaMA na książkach z "shadow libraries" (pirackimi repo). Autorzy, w tym Sarah Silverman, pozwali.
Różnica w rozumowaniu:
- Chhabria NIE uznał, że transformatywność automatycznie = fair use
- Podkreślił, że LLM-y mogą generować "miliony wtórnych dzieł" w ułamku czasu
- "Market dilution" (rozmycie rynku) może w przyszłości przesądzić o przegranej AI
Thomson Reuters v. ROSS: kiedy fair use NIE działa
ROSS Intelligence stworzył konkurencję dla Westlaw (bazy prawniczej Thomson Reuters). Użyli danych Westlaw do trenowania.
Dlaczego przegrali:
- Bezpośrednia konkurencja – produkt końcowy zastępował Westlaw
- ROSS nie był "generatywny" – zwracał istniejące opisy przypadków
- Punkt 1 (transformatywność) i punkt 4 (szkoda) były niekorzystne
Lekcja: Jeśli tworzysz zamiennik produktu źródłowego – fair use prawdopodobnie cię nie ochroni.
NYT vs OpenAI: sprawa, która wciąż trwa
New York Times pozwał OpenAI w grudniu 2023. Sprawa jest kontynuowana po odrzuceniu wniosku o oddalenie w marcu 2025.
Zarzuty NYT:
- OpenAI użył milionów artykułów bez zgody i wynagrodzenia
- ChatGPT może generować niemal dosłowne reprodukcje artykułów
- Chatboty stanowią substytucję dla wizyt na nytimes.com (szkoda rynkowa)
Ta sprawa może trafić do Sądu Najwyższego. Będzie kluczowa dla całej branży.
Co z obrazkami? Getty vs Stability AI
Getty Images pozwało Stability AI (Stable Diffusion) w UK za wykorzystanie milionów obrazów do trenowania.
Dlaczego?
- Problemy dowodowe – trudność wykazania, że trenowanie miało miejsce w UK
- Brak świadków – nikt z Stability nie potrafił opisać całego procesu
- Zbyt późne poprawki – Getty nie zmieniło pozwu na czas
Wnioski: Nawet duże firmy mają problem z udowodnieniem naruszeń w AI. Dokumentacja jest kluczowa.
Muzyka: Concord Music vs Anthropic
Wydawcy muzyczni (Universal, Concord, ABKCO) pozwali Anthropic za wykorzystanie tekstów piosenek w Claude.
Sprawa o wykorzystanie tekstów do trenowania wciąż trwa. Sąd odrzucił wniosek o wstępny zakaz.
Japonia: "raj dla machine learning"
Dla kontrastu: Japonia przyjęła w 2019 jeden z najbardziej liberalnych systemów dla AI.
- Trenowanie AI = OK bez zgody właściciela praw
- Dotyczy też użytku komercyjnego
- Obejmuje materiały z nielegalnych źródeł (choć technicznie zabronione)
- Wyjątek: gdy celem jest "czerpanie przyjemności" lub "niesłuszna szkoda"
Filozofia: Ochrona na outputach, nie inputach. Jeśli output szkodzi twórcy – wtedy włączają się normalne zasady prawa autorskiego.
Gdzie jest granica? Praktyczne linie
✅ Prawdopodobnie fair use:
- Wysoka transformatywność – trenowanie do tworzenia nowych rodzajów treści
- Brak replikacji – model nie odtwarza dosłownie źródeł
- Legalnie pozyskane kopie (choć nie wystarcza)
- Brak dowodu szkody rynkowej – ciężar na powodach
❌ Prawdopodobnie NIE fair use:
- Biblioteki pirackich kopii – nawet jeśli nie wszystkie są używane
- Output replikujący dzieła – dosłowne cytaty lub substytucyjne zamienniki
- Bezpośrednia konkurencja – produkt końcowy zastępuje oryginał
- Celowe "podbieranie stylu" – trenowanie na małym zbiorze dzieł jednego autora
Co to znaczy dla ciebie (używasz Midjourney/SD)
Kiedy możesz mieć problem:
- Próbujesz odtworzyć konkretnego artystę z imienia (np. "in style of Greg Rutkowski")
- Genererujesz coś, co replikuje chronione dzieło
- Robisz to komercyjnie na dużą skalę
Jak się zabezpieczyć:
- Unikaj promptów z nazwiskami żyjących artystów
- Jeśli coś wygląda jak 1:1 kopia – nie publikuj
- Dodaj własną wartość (edit, compositing, kontekst)
Praktyczne wnioski dla firm AI
1. Dokumentacja jest kluczowa
- Prowadź szczegółowe zapisy źródeł danych
- Dokumentuj, gdzie odbywa się trenowanie (jurysdykcja)
- Zachowaj dowody legalnego pozyskania
2. Jakość outputów ma znaczenie
- Wdrażaj skuteczne zabezpieczenia przeciwko replikacji
- Monitoruj przypadki dosłownych cytatów
- Testuj czy model może odtworzyć chronione dzieła
3. Analiza rynkowa
- Oceń czy produkt końcowy konkuruje z dziełami źródłowymi
- Dokumentuj transformatywność
- Bądź gotowy wykazać brak szkody rynkowej
Co będzie dalej?
- Apelacje są nieuniknione – sprawy Anthropic i Meta prawdopodobnie trafią wyżej
- Sąd Najwyższy może zabrać głos – eksperci przewidują ostateczne rozstrzygnięcie tam
- Różnice między sądami – poszczególni sędziowie różnie to widzą
- Brak jednolitych standardów – każda sprawa indywidualnie
Kluczowa zmiana narracji: Rok temu firmy AI były pewne, że fair use je chroni. Dziś wiedzą, że to zależy od szczegółów implementacji i dowodów.
Lista kontrolna: jak się zabezpieczyć
Dla twórców treści:
- ☐ Dodaj klauzule "no AI training" w warunkach użytkowania
- ☐ Użyj technicznych środków ochrony (robots.txt, authentication)
- ☐ Monitoruj główne modele AI na obecność swoich treści
- ☐ Rozważ strategię licencjonowania
Dla firm AI:
- ☐ Przeprowadź audyt źródeł danych treningowych
- ☐ Wzmocnij zabezpieczenia outputów
- ☐ Przygotuj strategię prawną (transformatywność, brak szkody)
- ☐ Rozważ licencjonowanie tam, gdzie ryzyko jest wysokie
Śledź: @midjourneyartpl – efektywne wykorzystanie AI.
FAQ
Czy mogę używać Midjourney komercyjnie?
Tak, jeśli masz płatną subskrypcję. To Midjourney ma problem z trenowaniem, nie ty z używaniem. Unikaj tylko replikowania konkretnych chronionych dzieł.
Co jeśli użyję prompta "in style of [artist]"?
Styl sam w sobie nie jest chroniony. Ale jeśli output wygląda jak kopia konkretnego dzieła – to już problem. Im bardziej transformujesz, tym bezpieczniej.
Czy powinienem się martwić?
Jeśli jesteś indywidualnym twórcą używającym AI do własnych projektów – nie. Jeśli jesteś firmą trenującą własne modele – tak, potrzebujesz prawnika.