Wstęp W naszym świecie krążą dwa przekłamania na temat kreatywności i Sztucznej Inteligencji. Zwolennicy pierwszego z nich uważają, że nowe technologie zabijają tę kreatywność, zwolennicy drugiego natomiast przekonują innych, że AI – tylko dlatego, że jest – rozwija kreatywność, przeistaczając szarego człowieka w Kreatywnego He-Mana dysponującego magicznym kluczem do wrót digitalnego wszechświata nieskończonych możliwości. Jak przystało na stałego bywalca niejednej loży szyderców, z fascynacją spoglądam na walkę, którą w social mediach toczą jedni z drugimi, a że posiadam całkiem sporo praktycznego doświadczenia na gruncie pracy z kreatywnością przy zastosowaniu różnych technologii, postanowiłem dorzucić od siebie parę słów do dyskusji. Bo moim zdaniem AI nie zabija wcale niczyjej kreatywności. Przy okazji jednak wcale jej również nie rozwija. Sama idea „zabijania kreatywności” wydaje mi się niedorzeczna, ponieważ kreatywności – nie zapominajmy o tym – nikt z nas nie posiada na własność, nie nosi jej w sobie. Kreatywność to proces, który inicjujemy, kiedy zachodzi akurat potrzeba skonfrontowania się z czymś, co dla nas nowe i nieznane. Sztuczna Inteligencja jest natomiast po prostu jedną z opcji, którą możemy dołączyć do zestawu narzędzi, którymi się posługujemy. Czy Chat GPT zabije czyjąś kreatywność lub też doprowadzi kogokolwiek do kreatywnej ekstazy tylko dlatego, że jest Chatem GPT? Szczerze w to wątpię. Kiedy zostałem poproszony o napisane tego tekstu uznałem, że największą wartością, jaką mogę wnieść do dyskusji na temat AI, będzie case study konkretnego przypadku, z pomocą którego zademonstruję przykład wykorzystania Sztucznej Inteligencji podczas procesu kreatywnego, który przeprowadziłem od początku do końca, będąc jego głównym uczestnikiem, nie tylko obserwatorem. W rozważaniach na temat Sztucznej Inteligencji zbyt wiele jest moim zdanem wizjonerstwa i ekscytacji tym, co dopiero może nadejść, a za mało twardego stąpania po ziemi – poruszania się w tych realiach, które jesteśmy w stanie ocenić tu i teraz, na przykład z punktu widzenia użytkowników, którym udało się cokolwiek stworzyć właśnie z pomocą tych narzędzi, w temacie których tak chętnie się wypowiadamy. Dlatego też między innymi postanowiłem napisać ten tekst bez zbędnego entuzjazmu, zwracając uwagę tylko na to, gdzie w moim procesie twórczym – co pokażę na konkretnych przykładach – AI wniosło już jakąś wartość. Czytając treści na temat AI stanowczo za wiele dostrzegam przekazów w stylu „AI rozwija kreatywność”, gdzie autorzy wymieniają po prostu rozmaite apki, które – zgodnie z zaleceniami producentów – mogą służyć realizacji konkretnych celów, natomiast bardzo rzadko widuję konkretne opisy procesów kreatywnych „od kuchni”, w których takie modele AI rzeczywiście brały udział. I nie mam tutaj na myśli postów z cyklu: „wpisałem prompt w Midjourney i wyskoczył mi taki oto obrazek”. Kiedy używam określenia proces kreatywny, mówię o realizacji projektu, w którym pojawiają się: pomysł, selekcja, testy, eksperyment, a także finalizacja koncepcji w odniesieniu do konkretnego celu, jaki dana osoba przed sobą postawiła. Mój artykuł w niezobowiązujący sposób krążyć będzie dokoła dwóch pytań: 1. Czy w 2025 roku można w ogóle rozmawiać o człowieku, który tworzy cokolwiek bez udziału technologii? 2. Czy w 2025 roku jesteśmy w stanie używać AI w taki sposób, w jaki używaliśmy narzędzi istniejących wcześniej? A wszystko to zakończę opisem konkretnego procesu, którego efektem jest kompozycja muzyczna mojego autorstwa. I PRAKTYKA I TEORIA 1. Tester i użytkownik Prawdziwy problem z technologią (którąkolwiek) dotyczy moim zdaniem sytuacji, kiedy przejawiamy względem niej nadmierną niechęć, lub też wykazujemy się zbyt wielkim entuzjazmem, nie posiadając praktycznych doświadczeń w kontekście możliwości jej wykorzystania – na przykład na polu tej specjalizacji, w ramach której na co dzień się poruszamy. Uogólnianie, generalizowanie, że AI jest jednoznacznie złe, albo dobre, to moim zdaniem spore nadużycie, a jedynym lekarstwem wydaje mi się próba odpowiedzenia sobie na pytanie: „czy technologia taka do czegokolwiek mi się przyda?”. Nie mam jednak na myśli samego testowania. Testowanie jest oczywiście niezbędne w fazie uczenia, jednak testowanie takie (a więc klikanie pośród ogółu dostępnych opcji) niewiele ma moim zdaniem wspólnego z byciem użytkownikiem – z zastosowaniem narzędzia w realnie istniejących warunkach podczas realizacji konkretnego zadania, projektu. Dopiero to drugie pozwala sprawdzać wąski zakres możliwości danej technologii w prawdziwych, życiowych sytuacjach – pozwala przekonać się, czy to, co robię na co dzień naprawę zyska dodatkową wartość, po włączeniu nowej zabawki, o której wszyscy tak chętnie rozmawiają. Pisząc te słowa, nie prezentuję ani postawy przeciwnika, ani entuzjasty AI. Gdyby dyskusje przeciwników z entuzjastami były drogą szybkiego ruchu, ja stałbym dokładnie pośrodku – na pasie zieleni. Przy okazji jednak – co koniecznie należy w tym miejscu dodać – nie uważam się ani trochę za specjalistę w dziedzinie AI (swoją droga niewielu znam takich specjalistów). Jestem umiarkowanie zaawansowanym użytkownikiem, na polu dość wąskiej specjalizacji. W tym samym czasie jednak, posiadam dość bogate, sięgające dwudziestu pięciu lat wstecz doświadczenie na polu działań o charakterze kreatywnym przy zastosowaniu bardzo wielu technologii (od archaicznych analogów po AI) i pewnie właśnie ta perspektywa pomaga mi (być może błędnie) postrzegać AI nie tylko jako przełom, ale też ciągłość. Technologia wyznacza kierunek naszych poszukiwań i pomaga nadać pomysłom formę – formę, która nierzadko zmienia się nie do poznania przy zastosowaniu innego narzędzia. Z drugiej strony jednak technologia taka potrafi również bardzo wiele utrudnić, kiedy na przykład nietransparentny interfejs zakłóci płynność pracy (pamiętam jak w dawnych czasach komunikację z hardware'owym digitalem utrudniała konieczność nawigacji pomiędzy „stronami” wyświetlanymi na kilkucentymetrowych ekranach). Tych kwestii nie da się do końca sprawdzić na drodze samego klikania – na zasadzie testowania wszystkich dostępnych opcji, bez próby zastosowania danej technologii do realizacji konkretnego celu. Dopiero „na placu boju” okazuje się, czy coś naprawdę się sprawdza. Natomiast z samych zachęt gorących entuzjastów, czy też przestróg zagorzałych przeciwników niewiele z reguły wynika. 2. Technologie w procesie kreatywnym Nasze rozumienie samego procesu tworzenia ogranicza mocno (albo zaburza) koncepcja człowieka jako osoby indywidualnie i jednostkowo odpowiedzialnej za wyłanianie się jakiejś treści – za wygenerowanie pomysłu. Może się nam więc wydawać, że sam człowiek jest wystarczający, żeby „wymyślać wszystkie te wspaniałe rzeczy”. Kreatywność nie jest jednak po prostu „wypluciem” koncepcji z wnętrza głowy odciętej od reszty świata. Kreatywność to pomysł, który nie powstaje wcale w próżni, ponieważ pomysł taki jest wytwarzany, sprawdzany i realizowany w konkretnych ramach, w których zawierają się możliwości oraz ograniczenia, jakie wynikają z działania w tym konkretnym otoczeniu, w jakim dany twórca funkcjonuje podczas procesu tworzenia. Na otoczenie takie składają się między innymi narzędzia, którymi się posługujemy – od młotka, po AI. Narzędzia te – nawet jeżeli to my, jako ludzie, nimi poruszamy, traktując samych siebie jako jedyną siłę sprawczą (jesteśmy niezwykle egotycznymi istotami, więc uwielbiamy przypisywać samym sobie zasługi za wszystko) – nie tylko wyznaczają kierunek temu, co udaje się nam stworzyć lecz również nadają temu czemuś formę. Zastanów się proszę przez moment: czy fakt pisania tekstu za pomocą maszyny do pisania, pióra i komputerowego edytora tekstu będzie mieć wpływ na efekt finalny? Nawet jeżeli mamy tu do czynienia z – jak pewnie powie niejedna osoba – przelewaniem myśli na papier, to jednak metoda tego przelewania bardzo wiele zmienia. Bo czy proces cyfrowej edycji już napisanego tekstu jest dokładnie taki sam jak podczas pisania piórem? W teorii można by pewnie powiedzieć, że tak, jednak łatwość, z jaką – śledząc efekty swojej pracy – jesteśmy w stanie przenosić fragmenty tekstu w edytorze między stronami sprawia, że udaje się nam – właśnie z pomocą technologii – osiągać efekty odmienne od tych, które osiągnęlibyśmy pisząc tylko piórem (gdzie przekładanie akapitów nie jest już takie proste, o ile nie potniemy kartki papieru na kawałki, za pomocą kolejnego narzędzia, czyli nożyczek). Być może nie zdajemy sobie nawet sprawy, jak wielką zmianą dla procesu kreatywnego jest sekwencja skrótów Ctrl/Cmnd + C, Ctrl/Cmnd+V. Niby mała rzecz, a cieszy. I tak wiele zmienia. Gdy redaguję ten tekst, akapity wędrują z miejsca na miejsce, zmieniając tym samym mój tok myślenia, a ja – w tej wyłaniającej się na nowo narracji – dopisuję kolejne fragmenty, odrzucają poprzednie. Czy straciłbym wiele, gdybym nałożył sobie ograniczenie twierdząc, że przy zastosowaniu komputera to już nie jest prawdziwe pisanie? Jestem przekonany, że tak. 3. Czy w 2025 roku tworzymy jeszcze bez użycia technologii? W 2025 roku niezwykle trudno jest mi wyobrazić sobie człowieka, który rzeczywiście jest w stanie tworzyć coś bez udziału technologii – technologii rozumianej jako narzędzie, które nie tylko „przedłuża” twórcę ale też wyznacza kierunek temu, co ów twórca robi. Pisząc, posługujemy się ołówkiem, długopisem, klawiaturą, komputerem, ekranem dotykowym. Grając muzykę korzystamy z instrumentów, a także elektronicznych metod przetwarzania dźwięku. Malując wybieramy konkretny rodzaj farb, które nanosimy jakimś sposobem (na przykład za pomocą pędzla) na odpowiednia powierzchnię (płótno, papier, ściana). Tworząc grafikę – metodą wklęsłodruku lub wypukłodruku – decydujemy się na materiał, w którym wycinamy, lub trawimy rowki (linoleum, drewno, metal), posługując się w tym celu chemią (jeżeli zachodzi taka potrzeba), a następnie na specjalnym papierze odbijamy odbitkę – z reguły za pomocą prasy. Bez względu na dziedzinę – w sztuce, nauce, biznesie, marketingu – wszędzie posługujemy się konkretnymi technologiami, które nie tylko nas wspierają, ale też wyznaczają kierunek temu, co chcemy osiągnąć i na wiele różnych sposobów nas ograniczają (co nie oznacza jednak, że któraś z nich – nawiązując do przekonań, o których wspominałem na początku – zabija lub rozwija naszą kreatywność tylko dlatego, że istnieje). W inny sposób muzykę komponuje człowiek korzystający tylko z klarnetu, a inaczej pianista. Ten drugi dysponuje możliwością grania akordów i melodii, kiedy ten pierwszy posługuje się głównie melodią. Klarnecista jest jednak w stanie grać dźwięki długie, modulowane, których z akustycznego fortepianu nie da się wydobyć. Ale czy klarnecista naprawdę jest ograniczony tylko do samej melodii? Dysponując jedynie klarnetem, tak. Dokładając jednak do tego instrumentu kolejne narzędzia, które pozwolą mu nagrać, a następnie przetworzyć dźwięk, jego możliwości zostaną poszerzone w ogromnym stopniu, a konstruowanie akordów przestanie być problemem. I gdybym miał wskazać wyjątki od konieczności posługiwania się narzędziami w procesie twórczym, na pewno byliby to wokaliści, którzy rzeczywiście na poziomie wykonawczym nie potrzebują żadnych „przedłużeń”, ponieważ noszą instrument w sobie. Sprawa komplikuje się, kiedy postanawiają swój głos nagrać, ewentualnie wzmocnić, bo wtedy udział technologii okazuje się nieunikniony. Wraz z celem, który pragniemy osiągnąć, na horyzoncie może pojawić się również technologia, która umożliwi nam osiągnięcie takiego celu. Moim zdaniem warto po nią sęignąć. 4. "Ludzkie" i "odhumanizowane" Gdzieś po drodze wykształcił się model myślenia, który oddziela „technologie ludzkie” od tych „odhumanizowanych” – „prawdziwe” od „sztucznych”. I tak na przykład o wiele łatwiej jest nam powiedzieć, że ktoś „gra naprawdę muzykę”, kiedy posługuje się gitarą elektryczną wpiętą do wzmacniacza niż wtedy, kiedy ta sama osoba korzysta z elektronicznej klawiatury fortepianowej sterującej wirtualnym instrumentem zainstalowanym na dysku komputera. Pewna „fizyczność” kształtów i form, które kulturowo uznajemy za „prawdziwe” prowadzi do poważnych nadużyć, a z wirtualnym światem wtyczek i aplikacji radzimy sobie wyjątkowo źle, pomimo tak wielu lat jakie upłynęły od ich upowszechnienia. Tymczasem jakość tego, co tworzymy wynika ze sprzężenia zwrotnego między tym, kto inicjuje proces kreatywny, a tym, co ów proces – na poziomie technicznym – wspiera. Kreatywność zawiera w sobie również kompetencje i zdolności jakich nabywamy na polu konkretnej dziedziny. Umiejętność posługiwania się narzędziami wchodzi w zakres tych kompetencji i bardzo ciężko jest dowieść, że jakieś narzędzia są lepsze lub gorsze tylko dlatego, że takie są nasze przekonania. Poza tym brzmienie struny wzbudzanej przez gitarzystę korzystającego z gitary elektrycznej jest tak samo „sztuczne” jak dźwięk wydobywany z instrumentu wirtualnego – struna drga, jednak dźwięk jest wzmacniany przez przystawkę, przesyłany jako sygnał po kablu do efektów, przedwzmacniacza, końcówki mocy, by trafić finalnie do głośnika. Cały ten proces ma więc niewiele wspólnego z domniemaną „ludzką prawdą” na temat dźwięku i tylko przekonania każą nam myśleć, że to gitarzysta naprawdę gra muzykę, natomiast ten ktoś z wirtualnym instrumentem udaje, ewentualnie pozwala maszynie, żeby muzyka grała się sama. To, że jakaś technologia kojarzy się komuś z automatyzacją procesów, nie oznacza jeszcze wcale, że dla innych nie będzie ona źródłem twórczych poszukiwań. I nie dotyczy to wcale tylko muzyki. Jeżeli więc z jakiegoś powodu komukolwiek wydaje się, że fortepian jest instrumentem lepszym od samplera, świadczyć to będzie jedynie o jego uprzedzeniach, a także mocno ograniczonym punkcie widzenia na ludzką kreatywność. Myśląc o jakiejkolwiek technologii w kategoriach niespełniania przez nią oczekiwań, jakie pokładaliśmy w technologiach wcześniejszych, zamykamy sami sobie drogę na możliwości eksplorowania tego, co nie zostało jeszcze odkryte. Fortepian solo, a więc instrument Fryderyka Chopina, sam w sobie jest po prostu wyjątkowo ciężkim meblem. Na fortepianie takim możemy nieudolnie grać gamę C-dur, lecąc palcami po białych klawiszach, możemy trzymać na nim kwiatki, składać pranie po ściągnięciu z suszarki. Możemy jednak również dokonać cudów, którymi zachwycą się tysiące odbiorców na całym świecie. Żadne narzędzie samo w sobie nie jest ani dobre, ani złe. Żadne też, nie wytwarza takich samych efektów w rękach różnych osób. W przypadku AI różnica jest moim zdaniem taka, że rzeczywiście posługując się nią o wiele prościej jest zapomnieć o tym, że jakąś strunę wypadałoby jednak szarpnąć, zamiast bezkrytycznie czekać aż struna taka (metaforycznie) zostanie szarpnięta przez maszynę, która podejmie za nas wszelkie możliwe decyzje – które zostaną nam podane w formie gotowca przystosowanego do łatwej bezproblemowej konsumpcji. CIEKAWOSTKA #1: Kiedy w latach 60. XX wieku na rynku pojawił się instrument muzyczny nazwany Mellotronem, jego twórca pragnął skonstruować po prostu coś, co pozwoli amatorom grać muzykę w zaciszu domowego ogniska. Pod każdym klawiszem, na kawałku taśmy magnetycznej znajdował się nagrany dźwięk żywego instrumentu (na przykład klarnetu), a dodatkowo wyposażono go w gotowe do użycia rytmy perkusyjne oraz gotowe frazy (również nagrane na taśmie). Ten „samograj dla amatorów” stał się jednak – w rękach profesjonalistów – jedną z ikon muzyki popularnej, a jeśli kojarzysz słynny wstęp w „Strawberry Fields Forever” The Beatles, został on nagrany właśnie na Mellotronie – na tej zabawce, która miała w zaciszu domowego ogniska umilić życie muzykującym amatorom. Mellotron doczekał się wielu edycji, a w obecnych czasach produkuje się go w wersji cyfrowej. W gronie słynnych użytkowników tego instrumentu znaleźli się między innymi: Pink Floyd, Aerosmith, Radiohead, King Crimson, R.E.M., Genesis, Black Sabbath, Marilyn Manson, Elton John, Oasis, Nine Inch Nails, Led Zeppelin, Foo Fighters, The Smashing Pumpkins i inni. Całkiem nieźle jak na zabawkę dla amatorów, prawda? Materiały promocyjne Mellotronu z 1965 roku: https://www.youtube.com/watch?v=HdkixaxjZCM The Beatles "Strawberry Fields Forever" z charakterystycznym intrem zagranym na Mellotronie: https://www.youtube.com/watch?v=HtUH9z_Oey8 CIEKAWOSTKA #2: Jeżeli znasz piosenkę „Clint Eastwood” projektu Gorillaz, która w 2001 roku podbiła listy przebojów, być może zaskoczy Cię fakt, że utwór bazuje na presecie z instrumentu Omnichord produkowanego przez firmę Suzuki z przerwami od 1981 roku. Zakładam, że między rokiem 1981 a 2001 sporo muzyków posiadało ten nietypowy instrument, wyposażony w ów preset, jednak to właśnie Damonowi Albarnowi udało się stworzyć na jego bazie utwór, który dotarł na szczyty list przebojów w wielu krajach na całym świecie. Pomyśl o tym, kiedy następnym razem zarzucisz jakiemuś narzędziu, że „zabija kreatywność” tylko dlatego, że automatyzuje dany proces. W poniższym linku możesz zobaczyć Damona Albarna, który pokazuje w jaki sposób rozpoczał pracę nad utworem "Clint Eastwood" Gorillaz https://youtube.com/shorts/Wn0NtSNeQEQ?si=pDOKHgyXR2Ixdfj1 II CASE STUDY Jeżeli interesuje Cię w jaki sposób w praktyce wykorzystałem AI podczas kompozycji „Ainythingoes” – utworu, który wydałem parę miesięcy temu pod pseudonimem Blare For A na składance „Made in Poland” w labelu Go!Boys Record – możesz czytać dalej. Przykład własnej pracy przytaczam tutaj z dwóch względów: Po pierwsze, żeby odnieść się do czegoś namacalnego, w czym rzeczywiście brały udział aplikacje bazujące na AI. Po drugie, żeby ostudzić nieco futurystyczne zapędy osób, które uważają, że ze Sztucznej Inteligencji (pomimo ogromnego zróżnicowania jakie kryje się za tym terminem) nie da się korzystać w taki sam sposób, w jaki korzystaliśmy z technologii wcześniejszych. Utworu „Ainythingoes” możesz posłuchać pod jednym z poniższych linków: Spotify: https://open.spotify.com/album/0bI7CQLs15gAF2rLOkDnUC?si=LrNgUMoRSJuXgXPi3FRMKA YouTube: https://www.youtube.com/watch?v=LvHAGtTmyqw&list=OLAK5uy_lbjoPyvZ0waQsrt7KihF9BEfF4qxr7Frc&index=3 TIDAL: https://tidal.com/browse/album/395560915?u W dalszej części, krok po kroku, wyjaśnię na jakim etapie pracy i w jakim zakresie korzystałem z AI. Zaznaczę jednak od razu, że ani razu nie był to proces z cyklu: „O Sztuczna Inteligencjo, skomponuj dla mnie piosenkę w stylu, który wskazuję w prompcie”. 1. Narzędzia W procesie twórczym (bez względu na charakter pracy – artystyczny czy komercyjny) nastawiam się zawsze na możliwość skorzystania ze wszystkiego, co mam pod ręką, zamiast stwarzać dla siebie ograniczenia w stylu: „teraz będę korzystać tylko z AI”, ewentualnie „zrobię wszystko, co w mojej mocy, żeby z AI nie korzystać”. Narzędzia nie są sobie równe i moim zdaniem po to sprawdzamy jak działają w praktyce – po to nabywamy wiedzę na temat ich możliwości – żeby w przyszłości mieć świadomość tego, jaki efekt będziemy w stanie osiągnąć przy zastosowaniu każdego z nich. Proces tworzenia „Ainythingoes” – od pierwszych pomysłów, aż po produkcję gotowej kompozycji – podzielony był na dwie sesje. Pierwsza z nich miała miejsce od 19 lipca do 6 sierpnia 2023 roku, kiedy powstała wstępna forma utworu. Druga natomiast – po wielu miesiącach przerwy – przebiegała od 27 maja do 10 czerwca 2024, kiedy dopisałem wstęp oraz zakończenie, a następnie zmiksowałem utwór, zrobiłem mastering i przygotowałem go do publikacji. Jak więc widzisz, nie był to wcale proces „za jednym kliknięciem myszy”, lecz staromodna, żmudna robota. Pomysł natomiast – jak na eksperyment przystało – potrzebował chwili, żeby przybrać tę formę, w jakiej możesz posłuchać go dzisiaj na Spotify. Żeby w ogromnym skrócie przybliżyć Tobie na czym polega taka praca, zamieszczam poniżej screen z sesji tego utworu. Widać na nim oprogramowanie typu DAW (Digital Audio Workstation) Reaper – jest to standardowe środowisko zainstalowane na moim komputerze, do którego trafia u mnie absolutnie każdy dźwięk – zarówno analogowy (na przykład gitara), jak i cyfrowy (w tym również instrumenty wirtualne oraz efekty współpracy z AI). W programie tym nie tylko nagrywam, ale też aranżuję, miksuję, produkuję muzykę i wykonuję mastering. Środowisko takie jest otwarte o tyle, że mogę instalować w nim wtyczki (efekty, procesory dźwięku, instrumenty wirtualne i tak dalej – jeden z takich plug-inów widać na screenie), które pochodzą od zewnętrznych dostawców (tu warto dodać, że z pozycji takiego software'u jestem w stanie sterować również zewnętrznym hardware'm, co nadal robię). Ten typ oprogramowania (nie tak funkcjonalny jak obecnie) pojawił się już w latach 80. XX wieku, natomiast przełom lat 80. i 90. przyniósł możliwość nagrywania dźwięku pochodzącego z zewnątrz bezpośrednio na dysk komputera. Tak więc technologii, z której korzystam dzisiaj, do 2025 roku zdążyła wyrosnąć już bardzo długa broda. Ja sam zresztą po raz pierwszy zetknąłem się z oprogramowaniem tego typu już w 1997 roku, a pracuję na nim mniej więcej od roku 2000. To, co na screenie znajduje się po prawej stronie, to wszystkie partie oraz ślady, które składają się na kompozycję „Ainythingoes” (jest ich 56) i są osadzone na osi czasu (dwa liczniki na samym dole to timecode oraz podział na takty). Po lewej natomiast widać mikser, z pozycji którego mam dostęp do ustawień wszystkich efektów, a także instrumentów wirtualnych – smyczków, fortepianów, samplerów, syntezatorów i tak dalej. Tak więc efekty pracy z AI na etapie tworzenia „Ainythingoes” wrzucałem pomiędzy inne ślady znajdujące się po stronie prawej, a poddawałem je dalszej obróbce za pomocą efektów „zapiętych” w mikserze po stronie lewej. Pracę nad „Ainythingoes” rozpocząłem bez udziału AI, od zaimprowizowania na zwykłej, elektronicznej klawiaturze fortepianowej (w pojedynczym podejściu) partii chóru męskiego – brzmienia pochodzącego z biblioteki „Men Of The North”, z włączonym harmonizerem (efekt zmieniający wysokość dźwięku). Brzmienie to, zostało przygotowane przez dostawcę na bazie nagrań chóru prawdziwych żyjących osób, którzy dźwięk po dźwięku, w różnych artykulacjach, zarejestrowali materiał źródłowy, który następnie został przygotowany tak, żebym mógł grać z jego pomocą jak na fortepianie. W późniejszym czasie, w kolejnych fazach produkcji wielokrotnie przetwarzałem tę partię (między innymi za pomocą modeli AI). W odtwarzaczu poniżej możesz odsłuchać partii chóru, którą zamieszczam w tym artykule, żeby podkreślić, że w tym konkretnym przypadku praca kreatywna nie tylko nie rozpoczęła się od promptu, ale też na samym początku AI nie miało nic wspólnego z zainicjowanym przeze mnie procesem kreatywnym. Już pierwszego dnia uznałem, że celowo unikać będę grania akordów na instrumentach, a w zamian stworzę wielośladową strukturę dźwięków o nietypowej artykulacji, które będą rozstrajać się, tworząc wielogłosowość oscylującą wokół zaledwie dwóch dźwięków – F i A – na których wszystko się tutaj opiera. Nawiązałem w ten sposób do czterech tradycji: minimalizmu lat 60., studyjnej techniki The Wall Of Sound, Krautrocka oraz muzyki techno. Na dalszym etapie – posiadając tę trwającą ponad dwie minuty partię chóru – dokładałem do niego, jak to z reguły robię, metodą prób i błędów kolejne brzmienia – elementy rytmiczne, basy, smyczki, głosy, syntezatory, sample i tak dalej. Na tym etapie nadal nie korzystałem z AI z bardzo prostej przyczyny – każdy generator typu text-to-music sprawiał, że wybuchałem śmiechem. Poszukiwałem czegoś, co pozwoli mi osiągnąć efekty, jakich nie byłem w stanie uzyskać za pomocą tych narzędzi, które już posiadałem, a generatory – no cóż – wypluwały kalki tego, co już doskonale znałem, na dodatek brzmiały jak mp3 w jakości 128kb/s zasysane z Soulseeka w dawnych czasach. 2. Pierwsze podejście do AI W międzyczasie, na którejś z grup internetowych poświęconych Sztucznej Inteligencji, ktoś opowiedział mi o projekcie, który udało się uratować właśnie dzięki AI, a konkretnie dzięki dedykowanej dla podcasterów prostej aplikacji od Adobe, która została stworzona w celu poprawiania jakości źle nagranego ludzkiego głosu. Spędziłem parę dni na testach tego narzędzia, które z mową ludzką rzeczywiście radziło sobie całkiem nieźle. Postanowiłem więc sprawdzić, co stanie się, jeśli przygotuję materiał dźwiękowy, który będzie niezgodny z zaleceniami producenta. Dodając do ludzkiego głosu nadmierną ilość pogłosu, a także zakłócenia, hałasy i odgłosy maszynowe, dość szybko zorientowałem się, że aplikacja cudownie „halucynuje”, kiedy nie jest w stanie odnaleźć w nagraniu wyraźnych głosek, które automatycznie zastępuje wyrazami wypowiadanymi w nieistniejącym języku. Tak, to był dla mnie prawdziwy przełom i tak rozpoczęła się moja kreatywna współpraca z AI – od przymuszania jej do popełniania błędów, ponieważ błędy te, wykraczały poza wszystko, co do tej pory byłem w stanie uzyskać. Kolejnym krokiem było przetestowanie możliwości aplikacji z materiałem muzycznym, z którym nie tylko kompletnie sobie nie radziła (ostatecznie to skromne narzędzie typu narrow przygotowano, żeby poprawiać źle nagrany głos podcasterów amatorów), ale też zamieniała wszystko na dziwną mowę, którą – przy zmieniającej się wysokości dźwięku usiłowała „śpiewać”. Znając więc wiele sposobów na zmuszanie tego narzędzia do popełniania błędów mogłem zabrać się do wykorzystania go podczas kontynuacji prac nad „Ainythingoes”. Przepuszczałem przez aplikację bardzo różne ślady – na przykład fragmenty nagrań, jakie kiedyś wykonałem w tłumie ludzi, gdzie słychać było wiele głosów przy ogromnym pogłosie – a następnie ciąłem na kawałki efekty tych eksperymentów, tworząc z nich przestrzenie, zrytmizowane partie ludzkich głosów, efekty i tak dalej. W kilku przypadkach już raz przeprocesowane ślady przepuszczałem przez model ponownie – czasami robiłem to po zmiksowaniu materiału przetworzonego z brzmieniem „czystym” – na przykład smyczków. Efekty były oczywiście za każdym razem odległe od ideału, z czego naprawdę bardzo się cieszyłem, ponieważ taki „zły efekt” był od samego początku celem moich poszukiwań. Poniżej w odtwarzaczu możesz odsłuchać pociętych fragmentów wokalnych, których użyłem w tej sesji: A wszystko to robiłem w dokładnie taki sam sposób, w jaki od lat korzystałem z innych procesorów efektów – analogowych i cyfrowych, zarówno wirtualnych, jak i takich, które posiadałem pod postacią hardware'u. 3. Drugie podejście do AI W drugim podejściu, po wielu miesiącach przerwy, natknąłem się na kolejne narzędzie bazujące na AI. Tym razem było to rozwiązanie dedykowane dla muzyków amatorów, czy też osób, które chciałyby muzyką pobawić się w niezobowiązujący sposób, na przykład podmieniając wokal we własnej lub czyjejś piosence na inny głos ludzki dostępny w bazie modeli. Po pierwszych testach – zgodnie z zaleceniami dostawcy narzędzia –ponownie zadałem sobie pytanie: co stanie się jeśli model wokalny otrzyma ode mnie coś, co wokalem nie jest. Albo kiedy partie wokalne przepuszczę przez model, który generuje brzmienie wiolonczeli, gitary. Efekty – ponownie pełne błędów generowanych przez „krztuszący się” modele – okazały się dla mnie na tyle obiecujące, że do teraz pozostaję subskrybentem tej usługi, natomiast spora cześć tego, co dograłem do „Ainythingoes” już w połowie 2024 roku składała się z wielowarstwowych efektów pracy z modelami, które pozwoliły mi uzyskać na przykład finalne brzmienie bębnów, które w niskim paśmie częstotliwości są mieszanką klasycznych elementów perkusyjnych z generowanym przez AI brzmieniami wiolonczeli oraz gitar. Uzyskane w ten sposób dźwięki wykracza poza to, co udało by się zagrać na prawdziwym akustycznym instrumencie bez zastosowania Sztucznej Inteligencji. Poniżej, jako „PRZYKŁAD#3” oraz „PRZYKŁAD#4” możesz odsłuchać efektów procesowania elementów rytmicznych przez modele wokalne oraz instrumentalne. Podsumowanie Udział AI w powstawaniu „Ainythingoes” nie był dominujący. Na etapie kompozycji, aranżacji oraz produkcji tego utworu wykorzystałem wiele rozwiązań technicznych, które znam od lat, a na żadnym z etapów nie stosowałem promptów, bo te nie były mi potrzebne do komunikacji z tymi aplikacjami, z których korzystałem. To w jaki sposób Ty będziesz korzystać z AI – o ile postanowisz to zrobić – zależeć będzie w ogromnym stopniu od Twojej kreatywności, co nie oznacza jednak wcale, że sama Sztuczna Inteligencja stanie się Twoim kreatywnym Świętym Graalem. Od wielu miesięcy obserwuję, jak ludzie zaprzepaszczają potencjał AI tylko dlatego, że nastawiają się na „szybko” oraz „jak najlepiej”. Moim zdaniem nietrudno jest wymagać od jakiejkolwiek maszyny, że zrealizuje zadanie szybciej i dokładniej od człowieka, a kiedy rozmawiamy o kreatywności i Sztucznej Inteligencji nie wydaje mi się, żeby korzystanie z tych dwóch określeń naprawdę mogło być kartą przetargową. Tak, Chat GPT analizuje dla mnie dokumenty w mgnieniu oka, a aplikacje bazujące na AI pomagają mi ratować sesje nagraniowe, po których ślad zaginął na jakimś dawno zepsutym dysku, kiedy ja jestem w posiadaniu jedynie pliku mp3. Co więcej, automatyzacja w środowisku komputerowym jest dla mnie zwykłą codziennością od wielu lat i naprawdę przestałem się fascynować tym, że digital jest ode mnie lepszy, bardziej wydajny – że potrafi sięgnąć tam, gdzie nie sięgają moje ludzkie, mocno ograniczone możliwości. W rozgrywce między mną a maszyną, kiedy na podium stanąć może tylko ten, kto wykaże się prędkością, zdobędę zawsze ostatnie miejsce i z tym pogodziłem się dawno temu. Szybkość i doskonałość to nie są jednak jedyne argumenty. Technologie (wszelkie) dysponują również możliwościami realizowania zadań wbrew instrukcji obsługi. Ich „błędy” potrafią być niezwykle inspirujące, a jeśli ktokolwiek ma szansę doszukać się tychże błędów pod krystalicznie czystą powierzchnią ideału, jaki przypisuje się Sztucznej Inteligencji – jeśli ktoś ma posłużyć się nimi w ramach strategii twórczej – to jest to właśnie człowiek. Nie obawiaj się narzędzi tylko dlatego, że są nowe. Nie obawiaj się też tego, że automatyzują procesy – że zabierają jakąś część tego, co do tej pory było rolą człowieka. To, w jaki sposób skorzystasz z AI, zależeć będzie tylko i wyłącznie od Ciebie. A jeśli moje argumenty do Ciebie nie przemawiają, pamiętaj chociaż o tym, że The Beatles nagrali wstęp do „Strawberry Fields Forever” na sprzęcie dedykowanym dla amatorów, a Damon Albarn z powodzeniem wpuścił na szczyty list przebojów piosenkę, która bazuje na gotowcu – presecie, który przez wiele lat pod ręką miało tak wiele innych osób. A w drugiej części tego artykułu opowiem o tym, co zarzucamy Sztucznej Inteligencji, a co jako ludzie uczyniliśmy sami sobie już dawno. Miłego dnia! Możliwość dodawania komentarzy została zablokowana.
|
AutorNazywam się Kuba Łuka. Moja specjalność to facylitowanie kreatywnego rozwiązywania problemów biznesowych Archiwa
Styczeń 2025
Kategorie
Wszystkie
|