AI w pracy kreatywnej: kaganiec czy overdrive?

W debacie o narzędziach do generowania tekstu, obrazu czy muzyki ścierają się dwie skrajne obawy. Rośnie strach przed fałszywymi materiałami, naruszeniami praw autorskich oraz utratą kontroli artystów nad własną twórczością. Jednocześnie pojawia się lęk, że zbyt restrykcyjne przepisy zduszą eksperymentowanie i odetną twórców od nowych możliwości.

Redakcja

Loading the Elevenlabs Text to Speech AudioNative Player…

Świat na stylu biznesu i sztuki stoi dziś przed dylematem: czy utrzymywać generatywną sztuczną inteligencję w ramach ścisłych regulacji, czy zaufać mechanizmom rynkowym i swobodzie innowacji?

Podczas Generative Revolution Day wybrzmiały dwie wyraźnie odmienne wizje, przedstawione przez dr Tamillę Triantoro oraz producenta muzycznego Steve’a Lillywhite’a. I choć to dyskusja ekspercka, jej wnioski są bardzo konkretne. Dotyczą kosztów, ryzyka oraz kierunku przyszłych inwestycji.

Więcej pod materiałem video

Iluzja demokratyzacji i pułapka wyzysku

Dr Tamilla Triantoro, badaczka systemów AI z Quinnipiac University, analizując mechanizmy zachęt i układ sił wokół nowych technologii, wskazuje, że często odtwarzają one, a nawet wzmacniają istniejące nierówności rynkowe. Według niej obietnica pełnej demokratyzacji dzięki sztucznej inteligencji może więc okazać się uproszczeniem. Podobnie jak to miało miejsce w przypadku platform streamingowych, które miały dać wolny dostęp do odbiorców, a okazało się, że widoczność zależy przede wszystkim od budżetu, a nie od jakości treści.

– Ekosystem bez zasad nie tworzy innowacji. Z perspektywy systemowej prowadzi do awarii rynku. Brak regulacji zachęca do szybkiego przejmowania danych i produkowania treści na skróty, zamiast do budowania zrównoważonych partnerstw. To zakłóca cały rynek pracy twórczej – podkreśla.

Triantoro krytycznie ocenia również wykorzystywanie modeli opartych na danych, obrazach i muzyce, pozyskanych bez wyraźnej zgody autorów. Jej zdaniem proponowane jednorazowe wypłaty rekompensat nie rozwiązują problemu.

–  Model jednorazowego wykupu tworzy relację opartą na wyzysku, a nie na współpracy. Zachęca do krótkoterminowego przejmowania zasobów zamiast do długofalowego partnerstwa ze środowiskiem twórców – uważa.

W odpowiedzi postuluje oparcie relacji między firmami technologicznymi a twórcami na trzech filarach: jasnej zgodzie, rzetelnym uznaniu autorstwa oraz stałym wynagradzaniu za wykorzystanie materiałów do trenowania modeli.

Sztuka podążająca za technologią

Odmienne podejście prezentuje Steve Lillywhite, producent muzyczny i laureat wielu nagród Grammy. W jego ocenie sztuczna inteligencja jest tylko kolejnym etapem rozwoju narzędzi, podobnie jak wcześniej nowe instrumenty czy technologie nagraniowe.

– Forma sztuki podąża za technologią. Najpierw pojawia się technologia, a dopiero potem rodzi się nowa estetyka – uważa.

Choć algorytmy potrafią wiernie odtwarzać style z przeszłości, nie stworzyły dotąd dzieła, które w oczywisty sposób przewyższałoby oryginały. Przełomy pojawiają się dopiero wtedy, gdy ludzie wykorzystują narzędzia w sposób nieprzewidziany.

– Kiedy ktoś wynalazł wzmacniacz do gitar, dopiero gdy ktoś wziął nóż i przeciął głośnik, uzyskano przesterowanie. I nagle wynaleziono ten wspaniały dźwięk, który stał się częścią największych nagrań, jakie kiedykolwiek powstały. A ten wzmacniacz nie był przecież stworzony do przesterowania, ale bez niego nie byłoby w ogóle ciężkiej muzyki rockowej. Istnieje więc zdecydowanie zasada, która mówi, że technologia jest wymyślana przez techników, ale to ludzie kreatywni wynoszą ją potem na wyższy poziom.

Z tej perspektywy zbyt wczesne i nadmierne regulacje mogą ograniczyć przestrzeń do eksperymentowania. Lillywhite zadaje więc pytanie, czy każdorazowa, rygorystyczna ochrona istniejącego porządku rzeczywiście sprzyja rozwojowi. Wskazuje, że w niektórych branżach to właśnie brak ścisłej ochrony przyczynił się do podniesienia jakości poprzez konkurencję i swobodę działania.

Kalkulacja ryzyka

Aby lepiej zrozumieć wagę tych dwóch podejść, rozważmy przykład agencji realizującej kampanie dla marek konsumenckich.

Jeśli postawi ona na swobodę i zacznie korzystać z otwartych modeli bez sprawdzenia źródeł danych, początkowo może odnotować znaczący wzrost efektywności. Projekty powstaną szybciej, a koszty spadną.

Z czasem jednak pojawi się ryzyko prawne. Kampanie oparte na treściach wygenerowanych z wykorzystaniem chronionych prac konkretnych artystów, bez ich zgody, mogą prowadzić do roszczeń o naruszenie praw własności intelektualnej.

Alternatywą jest korzystanie wyłącznie z licencjonowanych, ściśle uregulowanych narzędzi. Taka decyzja może na początku ograniczyć swobodę twórczą i zwiększyć koszty dostępu do technologii. Jednocześnie buduje jednak stabilną ochronę przed utratą reputacji oraz zaufania klientów, dla których zgodność z prawem w całym łańcuchu dostaw jest warunkiem współpracy. Jednak tu rośnie ryzyko, że ci klienci, którym zależy na kosztach i czasie przejdą do firm preferujących pierwszy z tych dwóch modeli działania.

Strategia na czas niepewności

Zmieniający się krajobraz technologiczny wymaga nowego podejścia do zarządzania innowacją. Jest to decyzja organizacyjna i – przy jej podejmowaniu – warto połączyć oba podejścia – minimalna ograniczanie kreatywności przy używaniu narzędzi AI oraz maksymalizowanie bezpieczeństwa przez odpowiedni ich dobór.

Pierwszym krokiem powinno być sprawdzenie dostawców narzędzi pod kątem przejrzystości zasad dotyczących zgody, autorstwa i wynagrodzenia twórców, których materiały wykorzystano do trenowania modeli. Drugi element to stworzenie wewnętrznych zasad korzystania z AI, które zapewnią zgodność z prawem, a jednocześnie pozostawią przestrzeń do eksperymentowania.

Dopiero mając takie fundamenty, organizacje mogą zachęcać zespoły do twórczego wykorzystywania bezpiecznych narzędzi. A wyważone połączenie odpowiedzialności prawnej z odwagą eksperymentowania może stać się realnym źródłem trwałej przewagi rynkowej.

Podziel się

Może Cię zainteresować