Czerwiec 2025: dwa przełomowe wyroki w ciągu dwóch dni. Antropic i Meta wygrały sprawy o fair use – ale to nie koniec historii.

Gdzie jest granica fair use przy trenowaniu AI?

Najnowsze orzecznictwo USA, linie demarkacyjne i co to znaczy dla twórców używających Midjourney, Stable Diffusion czy ChatGPT.

Disclaimer: To nie porada prawna. Jeśli planujesz coś poważnego – szukaj prawnika. Tu tylko streściłem, co się dzieje w sądach amerykańskich.

Rok 2025: pierwsze poważne rozstrzygnięcia

Przez ostatnie 2 lata firmy AI mówiły: "fair use nas chroni". Wydawcy i twórcy mówili: "to kradzież na masową skalę". W czerwcu 2025 sądy w Kalifornii po raz pierwszy powiedziały swoje.

Sprawa Wynik Dlaczego
Bartz v. Anthropic
23.06.2025
Fair use ✓ Trenowanie = "spektakularnie transformatywne", brak replikacji w outputach
Kadrey v. Meta
25.06.2025
Fair use ✓ Autorzy nie udowodnili szkody rynkowej, mimo pirackich źródeł
Thomson Reuters v. ROSS
02.2025
NIE fair use ✗ Produkty bezpośrednio konkurowały – ROSS = zamiennik Westlaw

Co to jest fair use (dla normalnych ludzi)

Fair use to doktryna w USA, która mówi: "okej, możesz użyć cudze dzieło bez zgody, jeśli..."

Sąd patrzy na 4 rzeczy:

  1. Transformatywność – czy robisz coś nowego, czy kopiujesz 1:1?
  2. Charakter dzieła – fakty vs. twórcze dzieło (np. novel)
  3. Ile skopiowałeś – całość czy fragment?
  4. Szkoda rynkowa – czy zabiłeś autorowi sprzedaż?

W kontekście AI: punkt 1 (transformatywność) i punkt 4 (szkoda) są najważniejsze.

Bartz v. Anthropic: "spektakularnie transformatywne"

Autorzy pozwali Anthropic (twórca Claude'a), bo firma użyła 7+ milionów książek do trenowania. Część była pirackimi kopiami.

Wyrok: Sędzia Alsup uznał, że trenowanie modelu AI jest "spectacularly transformative" – fundamentalnie różne od czytania czy kopiowania książki.

Kluczowe cytaty z wyroku:

ALE: Sędzia pozwolił na kontynuację roszczeń o "piractwo" – zatrzymywanie nielegalnych kopii i generowanie dosłownych fragmentów przez chatbota to osobna sprawa.

Kadrey v. Meta: gdy nie udowodnisz szkody

Meta trenowała LLaMA na książkach z "shadow libraries" (pirackimi repo). Autorzy, w tym Sarah Silverman, pozwali.

Wyrok: Sędzia Chhabria też uznał fair use, ale był bardziej ostrożny niż Alsup.

Różnica w rozumowaniu:

Ale: Autorzy przegrali, bo nie przedstawili dowodów szkody rynkowej. Sam fakt, że Meta użyła pirackich źródeł, nie wystarczył.

Thomson Reuters v. ROSS: kiedy fair use NIE działa

ROSS Intelligence stworzył konkurencję dla Westlaw (bazy prawniczej Thomson Reuters). Użyli danych Westlaw do trenowania.

Wyrok: To NIE jest fair use. Pierwsza poważna przegrana firm AI.

Dlaczego przegrali:

Lekcja: Jeśli tworzysz zamiennik produktu źródłowego – fair use prawdopodobnie cię nie ochroni.

NYT vs OpenAI: sprawa, która wciąż trwa

New York Times pozwał OpenAI w grudniu 2023. Sprawa jest kontynuowana po odrzuceniu wniosku o oddalenie w marcu 2025.

Zarzuty NYT:

Kontrowersja: W maju 2025 sąd nakazał OpenAI zachowanie wszystkich logów konwersacji użytkowników – dotykając prywatności 400 mln ludzi.

Ta sprawa może trafić do Sądu Najwyższego. Będzie kluczowa dla całej branży.

Co z obrazkami? Getty vs Stability AI

Getty Images pozwało Stability AI (Stable Diffusion) w UK za wykorzystanie milionów obrazów do trenowania.

Czerwiec 2025: Getty wycofało główne roszczenia o naruszenie praw autorskich.

Dlaczego?

Wnioski: Nawet duże firmy mają problem z udowodnieniem naruszeń w AI. Dokumentacja jest kluczowa.

Muzyka: Concord Music vs Anthropic

Wydawcy muzyczni (Universal, Concord, ABKCO) pozwali Anthropic za wykorzystanie tekstów piosenek w Claude.

Marzec 2025: Częściowa ugoda – Anthropic utrzymuje "guardrails" przeciwko generowaniu tekstów.

Sprawa o wykorzystanie tekstów do trenowania wciąż trwa. Sąd odrzucił wniosek o wstępny zakaz.

Japonia: "raj dla machine learning"

Dla kontrastu: Japonia przyjęła w 2019 jeden z najbardziej liberalnych systemów dla AI.

Artykuł 30-4 japońskiej ustawy o prawie autorskim:

Filozofia: Ochrona na outputach, nie inputach. Jeśli output szkodzi twórcy – wtedy włączają się normalne zasady prawa autorskiego.

Gdzie jest granica? Praktyczne linie

✅ Prawdopodobnie fair use:

❌ Prawdopodobnie NIE fair use:

Co to znaczy dla ciebie (używasz Midjourney/SD)

Krótka odpowiedź: Jeśli używasz Midjourney czy Stable Diffusion do własnych projektów – na razie jesteś OK. To Midjourney/Stability mają problem prawny, nie ty.

Kiedy możesz mieć problem:

Jak się zabezpieczyć:

Praktyczne wnioski dla firm AI

1. Dokumentacja jest kluczowa

2. Jakość outputów ma znaczenie

3. Analiza rynkowa

Co będzie dalej?

Niepewność prawna trwa:

Kluczowa zmiana narracji: Rok temu firmy AI były pewne, że fair use je chroni. Dziś wiedzą, że to zależy od szczegółów implementacji i dowodów.

Lista kontrolna: jak się zabezpieczyć

Dla twórców treści:

Dla firm AI:

Zobacz oryginalną sztukę tworzoną z Midjourney
Śledź: @midjourneyartpl – efektywne wykorzystanie AI.

FAQ

Czy mogę używać Midjourney komercyjnie?

Tak, jeśli masz płatną subskrypcję. To Midjourney ma problem z trenowaniem, nie ty z używaniem. Unikaj tylko replikowania konkretnych chronionych dzieł.

Co jeśli użyję prompta "in style of [artist]"?

Styl sam w sobie nie jest chroniony. Ale jeśli output wygląda jak kopia konkretnego dzieła – to już problem. Im bardziej transformujesz, tym bezpieczniej.

Czy powinienem się martwić?

Jeśli jesteś indywidualnym twórcą używającym AI do własnych projektów – nie. Jeśli jesteś firmą trenującą własne modele – tak, potrzebujesz prawnika.