W tym odcinku podcastu…
Początkujący i średnio-zaawansowani często zadają sobie pytanie – dlaczego niektóre kamery filmowe są nawet kilkanaście razy droższe niż aparaty czy tanie kamery, mimo, że nagrywają w tych samych rozdzielczościach, tych samych klatkażach, i tak dalej. Na to pytanie odpowiemy w tym odcinku podcastu SUPER35.
Notatka: We fragmencie o patencie REDa na RAWy nagrywane wewnętrznie mamy na myśli oczywiście skompresowane RAWy. Inne kamery mogą nagrywać skompresowane RAWy, ale tylko zewnętrznie, czyli poza kamerą, np. na zewnętrzny rekorder lub specjalny moduł doczepiany do kamery. Natomiast nieskompresowane RAWy nagrywane wewnętrznie nie są opatentowane i z takiego rozwiązania może skorzystać każdy producent kamer filmowych.
Gdzie posłucham podcastu?
Słuchaj podcastu tutaj na stronie (odtwarzacz na górze strony), na Spotify, Apple Podcasts lub Google Podcasts. Subskrybuj SUPER35 w najwygodniejszym dla Ciebie miejscu. Wszystkie odcinki podcastu znajdziesz TUTAJ. Do usłyszenia!
Transkrypcja odcinka
Igor: Początkujący i średnio zaawansowani często zadają sobie pytanie, dlaczego niektóre kamery są nawet kilkanaście razy droższe niż aparaty czy tanie kamery, mimo że nagrywają w tych samych rozdzielczościach, tych samych klatkach itd.? Na to pytanie odpowiemy w tym odcinku podcastu.
Maciej: Pierwszym parametrem na naszej liście jest rozpiętość tonalna i nieprzypadkowo jest ona właśnie pierwsza, ponieważ według mnie, jak i wielu filmowców, to właśnie rozpiętość tonalna jest tym najważniejszym parametrem w kamerze.
Igor: Tak i to jest taki temat, przy którym powinniśmy się na chwilkę zatrzymać, ponieważ z mojej obserwacji wynika, jak niewiele osób sobie zdaje sprawę z tego, jak rozpiętość tonalna jest ważna, a jest ważna na tyle, że na profesjonalnych planach zdjęciowych nieprzypadkowo używa się kamer, które kosztują najczęściej dolne kilkaset tysięcy, właśnie dlatego, że te kamery mają o jeden lub dwa stopnie większą rozpiętość tonalną, co mogłoby się wydawać dość absurdalne, ale te jeden czy dwa stopnie naprawdę odgrywają bardzo ważną rolę.
Maciej: Chciałbym tu jeszcze do jednej ważnej kwestii wrócić na sam początek, o której powinniśmy na pewno wspomnieć, to mianowicie co to jest ta rozpiętość tonalna. I chciałbym, żebyś Ty to właśnie wypowiedział, żeby z Twoich ust to wybrzmiało, ponieważ kiedyś, jak jechaliśmy z jednego ze zleceń i opowiadałeś o swoich warsztatach, że Ty zawsze rozpiętość tonalną określasz w taki i taki sposób, tak to mówisz swoim kursantom i oni bardzo fajnie rozumieją. Także może teraz naszym słuchaczom powiedz jak, jak owa reguła wybrzmiewa?
Igor: Takim najprostszym, najkrótszym wyjaśnieniem, czym jest rozpiętość tonalna jest to, że rozpiętość tonalna określa to, ile matryca aparatu czy kamery widzi jednocześnie tam, gdzie jest najciemniej i najjaśniej. Więc jeżeli ta rozpiętość tonalna jest szeroka, wysoka, to matryca widzi więcej, czyli widzi bliżej tego, jak widzą nasze oczy. Jako przykład mogę podać kamery marki Blackmagic, które mają rozpiętość tonalną na poziomie około 13 stopni. Z kolei kamery już takich marek jak RED czy ARRI mają około 17 stopni rozpiętości tonalnej, co nam pokazuje, że ta różnica mogłaby się wydawać niewielka, aczkolwiek jest gigantyczna. A żeby Wam tę różnicę jeszcze jakoś tak bardziej uzmysłowić, to dodam, że ludzkie oko widzi w około 20 stopniach rozpiętości tonalnej, więc kamery już są coraz bliżej temu właśnie jak widzi nasze oko.
Maciej: A żeby zobrazować to bardziej i nadać temu wymiaru, to przeważnie pokazuje się to na jakichś ujęciach testowych, np. ktoś siedzi w pomieszczeniu, które nie jest doświetlane i ma gdzieś tam obok siebie okno, gdzie jest dosyć jasne światło i wtedy te parametry można bardzo fajnie naocznie widzieć, jak to jak to wygląda, że na zewnątrz są wszystkie szczegóły, widać co tam się znajduje i wewnątrz również to widzimy.
Igor: Dokładnie tak. Jeżeli nagrywamy aparatem, to najczęściej za oknem po prostu jest jeden wielki przepał, czyli białe piksele, które nie zawierają żadnej informacji. Natomiast jeżeli mamy budżet i mamy dobry sprzęt, to jakieś te detale za tym oknem są, czyli jakieś drzewa, budynki itd. I tutaj do gry wchodzi profil logarytmiczny, który jest w głównej mierze odpowiedzialny za to, że wyciągamy maksymalną rozpiętość tonalną z matrycy sprzętu, na którym pracujemy. Ale to już jest temat na trochę inny odcinek. A kolejnym punktem na naszej liście jest metoda odczytu matrycy, co też wbrew pozorom jest dość istotne, ponieważ aparaty przez wiele ostatnich lat były gorsze w tym kontekście od kamer właśnie z tego powodu, że odczytywały matrycę metodą line-skippingu, czyli pomijały linie, więc jeżeli nagrywaliśmy coś np. w 4K, a matryca miała 4K, to ta jakość była ok. Natomiast jeżeli mieliśmy sprzęt z matrycą 4K, ale chcieliśmy coś nagrywać w Full HD, to linie były pomijane i te Full HD po prostu wyglądało bardzo, bardzo źle. Natomiast kamery najczęściej korzystają z pełnego potencjału swojej matrycy.
Maciej: I teraz z drugiej strony. Kiedyś widziałem takie porównanie między RED KOMODO a jakąś kamerą. Dokładnie nie pamiętam jaka to kamera była i RED KOMODO było od tamtej kamery gorsze, ponieważ gdy chciało się nagrywać w innej rozdzielczości to RED KOMODO kropowało, a to jest dużo lepsza metoda niż ta metoda line-skippingu, o której przed chwilą wspominałeś, stosowana właśnie w aparatach.
Igor: Tak, bo jeżeli chcesz nagrywać takim RED RED KOMODO w niższej rozdzielczości, a RED RED KOMODO ma akurat matrycę 6K, a jeżeli chcesz nagrywać w 4K, no to siłą rzeczy to 4K jest wyckropowane z tego 6K. No i tak jak mówisz, sporo osób uważało to za wadę. Natomiast, wbrew pozorom, to jest właśnie ta dobra cecha kamery, ponieważ to 4K reprezentuje pełny potencjał wycinka matrycy 6K i to jest ta podstawowa różnia, a jeżeli aparaty czy tanie kamery line-skippowały, to tak naprawdę super, że mogłeś nagrywać z całej matrycy np. 4K czy Full HD, tylko że w świecie profesjonalnym czy już nawet semi profesjonalnym to 4K czy Full HD tak na prawdę było średnio użyteczne, jeżeli oczywiście ktoś traktuje swoją pracę dość poważnie i przede wszystkim, jeżeli jest świadomy tego, jak jego sprzęt w ogóle działa.
Maciej: Jeżeli mamy omówiony teraz ten temat, o którym przed chwilą mówiliśmy, o wszystkich tych matrycach i line-skippingach, i innych tych rzeczach, dość dość technicznych, to teraz przejdźmy w sumie też do rzeczy technicznej, ale rzeczy, o której ja bym powiedział, że jest dość mocno elektryzująca w społeczeństwie filmem hakerów, tych bardziej, tych bardziej korzystających z aparatów niż z kamer, a mianowicie RAWy. Kamery nagrywają w RAWach. Jest jedna firma, która na chwilę obecną posiada jakiś tam patent, dokładnie nie wiem na jakiej on jest zasadzie, bo to też są jakieś techniczne rzeczy, pewnie jakieś nawet wyliczenia matematyczne, które nie są w kręgu mojego zainteresowania, do tych takich prawdziwych RAWów, o których Ty możesz powiedzieć też pewnie wiele, ponieważ zajmujesz się po pierwsze kolorem, po drugie kręcisz jedną z tych kamer.
Igor: To o czym mówisz to patent firmy RED na RAW. Tylko że tutaj ten patent tak naprawdę polega w głównej mierze na tym, że on opiera się na tym, że te kamery mogą nagrywać pełnowartościowy RAW, czyli jeszcze przed debayerowanie. Dbs Wirowanie to jest określenie, które możemy sobie zestawić np. z takim słowem jak wywoływanie. Czyli jest to szereg informacji, które dopiero wywołujemy w programie do postprodukcji. Natomiast RED posiada jako jedyna firma, przynajmniej na moment, na który nagrywamy ten odcinek, patent, który pozwala pełnowartościowe RAWy nagrywać bezpośrednio na nośnik, czyli w tym przypadku najczęściej na kartę, ponieważ poprzednie generacje REDów nagrywały też na magi, takie na dyski SSD. I to jest ta główna, można powiedzieć, przewaga tej firmy. Natomiast nie jest to jakaś bardzo duża przeszkoda, ponieważ oczywiście na rynku jest też ARRI RAW, też Sony korzysta z jakiegoś tam RAWa, tylko że one są po prostu nagrywane na przystawki, które się podpina do tych kamer, więc te RAWy wcale nie są gorsze, tylko są nagrywane w trochę inny sposób. Natomiast te nie do końca prawdziwe RAWy, to takich możemy doświadczyć.
Maciej: Chciałem trochę Ci przerwać, bo na rynku istnieją light RAWy, BRAWy i tak może w skrócie, czy to są właśnie takie pełnoprawne, prawdziwe RAWy jak te jak te od RED, a jeżeli tak, to skoro RED posiada patent, to dlaczego kamery mogą nagrywać je wewnętrznie? Bo tu głównie chyba w patencie o to chodzi, że nagrywa się je wewnętrznie. Czy to może są tylko takie „chwyty marketingowe” trochę robiące to, że ludzie chętnie by kupowali te kamery, bo mają RAWy i jest wow? Ja oczywiście tutaj chciałbym siebie jako osobę, która nie tyle co się złapała, co nie była do końca świadoma, kiedy kupowała swoją pierwszą kamerę filmową, to było C200, bo miała RAWy. Wtedy jeszcze można było EWy kupić od Panasonic i jeszcze chyba jeszcze jakaś inna kamera była. Dostałem to C200 i mówię: „RAW, fajnie RAW”, ale ten RAW okazał się taki nie do końca RAWowy. Także tutaj ta kwestia pozostaje otwarta do właśnie Twojej wypowiedzi.
Igor: Ta główna różnica polega na tym, że RAWy w innych kamerach niż te, które wymieniliśmy chwilę temu, tutaj też się głównie skupiamy na RAWie właśnie ze względu na patent, który pozwala im nagrywać pełnowartościowe RAWy bezpośrednio na nośnik, to ta różnica polega głównie na tym, że tamte RAWy są już częściowo zdebayerowane przed tym jak zostanie to zakodowane na kartę i to jest jak najbardziej ok. To wciąż jest kodek, który jest dużo mocniejszy niż jakiś tam H.265. Właśnie z tego powodu, że wywołujemy go tylko w jakiejś części w postprodukcji, ale ta jakaś część dla większości osób jest w zupełności wystarczająca. Wiadomo, że w tym odcinku trochę się skupiamy na tych dużych, profesjonalnych planach, gdzie robimy reklamówki na ARRI czy filmy. Natomiast większość naszych słuchaczy najprawdopodobniej właśnie prędzej kupi sobie Blackmagic niż RED. I też żeby to wybrzmiało z tego odcinka, że w tych Blackmagic RAWach nie ma absolutnie nic złego. One po prostu są inne i nie można je traktować jako RAW. Jest to bardzo dobry kodek. Jest lekki, jest mocny, jest 12-bitowy. Jest lekki i dla komputera i dla programu. Jest to naprawdę bardzo fajny kodek, tylko, że trzeba być świadomym tego, że trochę nie powinno się mówić, że nagrywam na kamerze w RAWach, bo to nie jest stuprocentowy, pełnowartościowy RAW.
Maciej: Tutaj trochę zakulisowo powiem, że zanim zaczęliśmy nagrywać, a raczej robiliśmy przymiarki do tego całego podcastu, to mieliśmy między sobą taką otwartą dyskusję odnośnie właśnie tej rawowości tych wszystkich kamer, tego wszystkiego, co się obecnie dzieje w rynku wideo, że właśnie powstaje coraz więcej kamer, które już właśnie nagrywają w RAWach, które mają te wszystkie dalsze rzeczy, o których będziemy mówili dalej w odcinku tego podcastu. I właśnie to było tak, że przecież to RED ma RAWy. Nie no, w sumie też jest ten BRAW, jest też light RAW, dla ludzi ważne, że RAW, bo coś tam jednak można w nim zmieniać i tak dalej. Mieliśmy właśnie taką otwartą rozmowę odnośnie tego, co tak na dobrą sprawę jest prawdziwe i kiedy to prawdziwe się zaczyna. Kiedy RAW jest RAWem. I jeżeli mielibyśmy patrzeć na specyfikacyjnie tylko, to fakt, RAW jest wtedy, kiedy to co Ty wszystko mówiłeś odnośnie tego REDa. A jeżeli chodzi o takiego normalnego użytkownika, który po prostu dysponuje jakimś określonym budżetem, już ten jego „RAW: jest właśnie tym BRAWem, jest też tym light RAWem i to jest taka kwestia, którą ja chciałbym tutaj, żeby też wybrzmiała i ty też o tym wspomniałeś, że nie ma nic złego w tym kodeku, że on tak, a nie inaczej nagrywa.
Igor: Jest to wciąż dużo lepsze rozwiązanie niż mocno skompresowane H.265. Bez dwóch zdań. To teraz może pogadajmy sobie chwilkę o tym, po co w ogóle nam jest ten RAW. Jeżeli już oczywiście mamy do dyspozycji ten najprawdziwszy RAW, to na „profesjonalnych”, bo każdy może sobie to słowo interpretować na swój sposób, na swoją skalę, planach zdjęciowych najczęściej nagrywa się właśnie w RAWach, dlatego że na to się mówi w taki sposób, że „zbiera się dane”. Czyli jeżeli zbieramy dane z matrycy danej kamery, to mamy tych informacji na tyle dużo, że potem po pierwsze jesteśmy dość bezpieczni, jeżeli chodzi o postprodukcję, a po drugie mamy znacznie większe możliwości. No bo jeżeli nagrywamy film, w którym jest dużo efektów specjalnych, no to siłą rzeczy nie nagramy tego w 10-bitowym H.265, bo potem z tym materiałem nic się nie zrobi.
Maciej: Jak zacząłeś, to mówić czułem, czy on zaraz powie o materiałach jakichś tam w postprodukcji, o efektach specjalnych? Dlaczego tak czułem i dlaczego w sumie trochę też czekałem na to, co powiesz? Nie dalej jak wczoraj oglądałem bardzo ciekawy materiał o tym, dlaczego filmy Marvela i ich CGI wygląda teraz dużo gorzej niż wyglądał kiedyś i wychodzi właśnie na to, że materiały, które zostały nagrane na planie nie były nagrywane w taki sposób, nie wiem dokładnie co się kryje za tym pojęciem, ale były nagrane w taki sposób, który nie przewidywał tego, że na ten materiał nałoży się jakieś efekty specjalne. I przykładem tego jest serial „She Hulk”, który był na Disney’u emitowany i według pierwotnych założeń Disney’a główna bohaterka miała się dopiero w Hulka przemienić w około połowie serialu, a ona przemienia się już w pierwszym odcinku. I wygląda to właśnie dlatego tak źle, ponieważ te pierwsze odcinki były kręcone w ogóle zero uwzględnienia, że mają się tam znajdować jakiekolwiek efekty specjalne. Czyli tutaj wychodzi na to, że tak jak powiedziałem na samym początku, nie wiem dokładnie, co się kryje za tym pojęciem, że były nagrywane w inny sposób niż te, które są nagrywane w taki sposób, ażeby efekty specjalne można było jakoś nałożyć.
Igor: Pewnie właśnie to, o czym mówimy, czyli dobrana niewłaściwa kamera, która nagrywa w niewłaściwy sposób jeżeli chodzi właśnie o format. Więc po to to też poniekąd jest, po to nagrywamy w RAWach, czyli zbieramy informacje z matrycy po to, aby potem było możliwe pracowanie z efektami, żeby wyciągnąć z samego koloru znacznie więcej i żeby sama jakość produkcyjna na końcu też oczywiście była możliwie jak najwyższa. I tutaj takim bardzo fajnym przykładem, takim dość głośnym na moment, w którym nagrywamy ten odcinek, jest film „Twórca” („The Creator”), który jest głośny głównie z tego powodu, że po jakimś czasie okazało się, że film został wyprodukowany na kamerze Sony FX3. Jest to moim zdaniem, jeden z najładniejszych filmów jaki wyszedł dotychczas w tym roku, a nagrywamy to w listopadzie. Natomiast od razu jak o tym usłyszałem, że to jest Sony FX3, że to był taki mocny run and gun, to lekko się uśmiechnąłem, bo spodziewałem się tego, co pod tym może się kryć. I oczywiście wiadomo, że po pierwsze optyka. Nagle wszyscy ludzie, którzy mają FX3 poczuli wiatr.
Maciej: Jestem bardzo przygotowany na tę rozmowę. Już nie mogę się doczekać. Ja jestem tak materiałami obcykany jeżeli chodzi o „The Creator”, że to jest koniec świata.
Igor: Natomiast wszyscy posiadacze Sony FX3 nagle obrośli w piórka, wiatr w żagle, że tak dobrze wyglądający film, który wygląda na tyle dobrze, że większość osób była przekonana, że to było grane na ARRI, a tu się okazuje Sony FX3, kamera za dwie dyszki. Natomiast oczywiście było to nagrywane na optyce, która przewyższa cenę samej puszki razy ileś, gdzie większość ludzi, która ma Sony FX3 raczej nie dysponuje takimi budżetami, to jest raz. Ale ta dla mnie ważniejsza część to jest właśnie ten RAW, dlatego, że obejrzałem co najmniej kilka wywiadów, w których wypowiadał się jeden z twórców i oni podjęli decyzję, że nagrywają Sony FX3 głównie z tego powodu, że Sony FX3 na Atomosy wypuszcza ProRes RAW. Gdyby nie wypuszczał ProRes RAW, to w życiu nie wzięliby tej kamery do rąk. I to fajnie stawia taką tłustą, gigantyczną kropkę na końcu tego zdania, że sorry, ale większość osób, które posiada Sony FX3 nie nagrywa ProRes RAW, więc to jest ta kolejna rzecz. I on dokładnie użył tego zdania, że oni zbierali dane z matrycy, bo zdawali sobie sprawę z tego, że w tym filmie będzie ogrom efektów specjalnych. Po prostu ogrom.
Maciej: Wspomniałeś o tym, że film wyglądał ładnie. Głównie w mojej opinii wyglądał on ładnie, ponieważ był kręcony na lokacjach. Tam chyba było 7 czy 8 krajów, w których oni byli. Tam praktycznie nie było żadnego green czy blue screena, ani tego studia, które jest ekranami okrążone. Studio wirtualne. Głównie w „Mandalorianie” to było stosowane. To jest po pierwsze, dlatego w mojej opinii ten film jest tak ładny, ponieważ jest zgrany na lokacjach, a ja uwielbiam filmy grane na lokacjach. Nie lubię filmów, które są grane w studio, bo według mnie to już powoli przestaje się robić filmem, ale to jest akurat temat na całkiem fajny odcinek podcastu. Po drugie, na samym początku wypowiedzi twórcy tego filmu on mówi, że „wybraliśmy Sony FX3 przez wzgląd na to, że ma 15+ zakres dynamiczny”. I to tak wracamy do tego naszego początku. Czy ten zakres dynamiczny aby na pewno w tym Sony FX3 jest taki jaki podaje producent? To jest druga rzecz.
Igor: Tylko dodam, że faktycznie gdzieś tam mogło się okazać, że można było z tej kamery wyciągnąć o jeden stopień rozpiętości tonalnej więcej właśnie dzięki temu, że było grane na Atomosie.
Maciej: Dokładnie tak. Było to około właśnie tego jednego stopnia. A trzecia rzecz, dlaczego ta kamera została wybrana? To właśnie pewnie tych rzeczy było więcej, ale oczywiście o genialnych możliwościach nagrywania w słabych warunkach oświetleniowych. To było też mega istotne dla tego człowieka, który wymyślił ten film. Jako ciekawostkę jeszcze dodam, że zdarzyło się tak w niektórych ujęciach, że sam twórca tego filmu stał za kamerą i kręcił. To jest w ogóle bardzo ciekawa rzecz i rzadko spotykana. I przez to, że ten setup był taki mały, to mogli robić naprawdę bardzo długie shoty, dzięki czemu też aktorzy byli mocno zadowoleni z pracy na planie tego filmu.
Igor: Super, że jest to nagrywane na kamerze, która kosztuje 20 tysięcy. Ale kamera była obudowana optyką, był ten ProRes RAW, więc tak naprawdę to jest fantastyczny przykład, który ja absolutnie uwielbiam, że wyciągnęli z puszki maksa. I moja rekomendacja dla słuchaczy jest taka, żebyście właśnie szukali tego, żebyście starali się tak poznać swój sprzęt, żeby wyciskać z niego możliwie jak najwięcej. Bo czy na moje warsztaty, czy na konsultacje bardzo często przychodzą osoby, które naprawdę dysponują wystarczającym na ich potrzeby, odpowiednio dobrym, nieźle dobranym sprzętem, a zadają ciągle pytania o sprzęt.
Maciej: Ogólnie najczęściej zadawane pytanie na wszystkich grupach i tak dalej. Jak już skończą pytać jaki aparat miałeś, czy jak to kręciłem albo jaki kupić, to przechodzimy do obiektywów.
Igor: Tka, nie jak to zrobiłeś, tylko czym to nagrałeś? Absolutna bzdura. Dzisiaj większość aparatów i kamer, nie mówiąc już o kamerach filmowych, o których jest ten odcinek naprawdę oferuje doskonałe możliwości, jeżeli chodzi o jakość produkcyjną. Tylko większość osób nie potrafi wyciągnąć maksa z tego sprzętu właśnie takimi zabiegami jak to, że można nagrywać w RAWach, że lepiej może jednak zainwestować w naprawdę jeden, ale porządny obiektyw niż 15 byle jakich. To jest taki temat, przy którym pewnie byśmy mogli nagrać ze trzy odcinki. Natomiast to, co chciałbym bardzo mocno podkreślić, to kolejna kwestia. Jeżeli mówimy o nagrywaniu w RAWach, to jest to, że bardzo wiele osób nie docenia procesu, a dużą wagę przykłada do efektu. Więc jeżeli na przykład nagrywamy coś w RAWie, a nagrywamy coś w nie RAWie i efekt mniej więcej jest taki sam lub jest bardzo, bardzo podobny, to w RAWie osiągniemy ten sam efekt np. 5 razy szybciej, łatwiej, wygodniej niż gdybyśmy musieli dłubać i rzeźbić w jakimś tam kodeku, który na przykład jest za słaby, żeby coś zrobić bardzo, bardzo szybko.
Maciej: Ok, teraz ja tutaj zadam takie pytanie, które bardzo możliwe, że się nasuwa w głowach wielu z naszych słuchaczy. Ten proces, o którym ty mówisz, to jest proces wyjęcia karty z aparatu, „wsadzenie”, oczywiście pomijając czytnik do komputera i wrzucanie tych plików na oś czasu. Mówimy o procesie postprodukcji, który pozwoli nam osiągnąć ten efekt, który chcemy osiągnąć gotowym filmem w sposób dla nas wygodniejszy, szybszy i bardziej efektywny.
Igor: Też. Natomiast sam proces produkcji też jest na tyle istotny, że na planach zdjęciowych, które kosztują, a już nawet średnio budżetowe reklamy potrafią kosztować dość sporo, to sam proces produkcji też musi być dla twórców bezpieczny, ponieważ plany zdjęciowe potrafią kosztować od kilkunastu do kilkudziesięciu, nawet ponad 100 tysięcy złotych na dzień. I twórcy nie mogą sobie pozwolić na to, że okazuje się, że asystent kamery coś źle ustawił lub jest źle naświetlone lub cokolwiek. RAWy nie są niezniszczalne, ale dają na tyle duże pole bezpieczeństwa, że każdemu po prostu się dużo lżej śpi. No bo tak jak mówiłem chwilę temu, RAW to jest zebranie informacji z matrycy, a nie gotowy, wywołany już plik wideo.
Maciej: I tutaj mi przychodzi do głowy, a raczej samo ciśnie się na usta, że to nie tylko muszą być nie wiadomo jak duże plany czy też średnie, ale w pracy każdego filmowca może się to okazać kluczowe, kiedy przez przypadek nawet ustawił coś w sposób niewłaściwy i później w postprodukcji może sobie to jakoś tam naprawić, żeby ten obrazek czy też gotowy film gdzieś tam finalnie wyglądał.
Igor: Tak dokładnie. Nawet sam po sobie widzę jako jako operator, który przeszedł na kamerę RED jakiś czas temu, że na planie mniej się stresuję. Robię coś szybciej i to sporo, więc jestem w stanie zapiąć np. w takim dużym uproszczeniu dwa dni zdjęciowe tylko w jeden dzień, co jest z korzyścią dla mnie, bo oszczędzam czas. Fakt, że zarobię mniej, bo robię mniej dni, natomiast jestem w stanie potem przerzucić tę utratę zarobku na inny projekt, czy mogę poświęcić troszeczkę więcej czasu w postprodukcji, żeby finalnie ten film wyglądał jeszcze lepiej niż mógłby. I to naprawdę działa. W sensie te RAWy są na tyle mocne, że faktycznie to poczucie bezpieczeństwa jest fajne, jest dość zdrowe, ale też sam fakt, że proces jest szybszy, wygodniejszy, tańszy. Dlatego też ja tutaj ze swojej strony polecam, żeby czasami więcej poświęcić uwagi procesowi, a nie temu jaki jest efekt, bo nie każdy film musi być najpiękniejszy. Nie każdy film musi być najlepszym filmem jaki wyprodukowaliśmy w swojej karierze, ale musi być solidny i musi być wykonany dość sprawnie. A jeżeli sprzęt nam na to pozwala, to wykorzystujemy ten sprzęt w możliwie najlepszym jego wydaniu.
Maciej: Tak, bo nie każdy projekt jest jakąś fajną produkcją, która nadawałaby się do wyświetlenia na Super Bowl, Ale dla nas takim Super Bowlem może być zadowolenie klienta, który przyjdzie do nas po raz kolejny. Myślę, że to co siedzi w kamerze mamy już omówione i należałoby trochę „wyjść z pudełka”, ponieważ kamera kiedy wychodzi z tego pudełka to właśnie nie jest taka ready to use. Mówię tutaj oczywiście o tych kamerach, które są z wyższej półki, o których o których dzisiaj tutaj mówimy. Fakt faktem są modułowe, ale tak jak już wcześniej powiedziałem, żeby one mogły jakkolwiek zacząć nagrywać, jakkolwiek zacząć działać, jakkolwiek zacząć pełnić swoją pracę na planie, muszą być dodatkowo obudowane w pewne elementy.
Igor: Tak i to jest też jedno z pytań, które zadajemy sobie w tytule tego odcinka, czyli dlaczego kamery są drogie? Bo najczęściej jest tak, że jak wyciągniemy sobie taką kosteczkę z pudełka i ona na przykład kosztowała cztery dychy, no to trzeba sobie zdawać sprawę z tego, że dwie, trzy czy nawet drugie cztery dyszki dorzucimy na wszystko pozostałe. Te kamery są drogie nie dlatego, że często sama kamera jest droga lub nie wiadomo jak bardzo droga. Tylko wszystko wokół tej kamery też jest drogie. Ta modułowość ma ogromną zaletę, która brzmi „kamera jest modułowa”, czyli możemy sobie ją „budować pod projekt”. Ale gigantyczną wadą jest to, że wszelkie peryferia są po prostu kolosalnie drogie. I tak jak mówiłem z czterech dyszek zaraz się zrobi osiem dyszek i trzeba jakoś z tym żyć.
Maciej: Tak, nawet producenci niejednokrotnie właśnie sprzedają swoje kamery w takich pakach i kiedy widzimy cenę, trzymajmy się tego RED KOMODO, o którym tutaj ciągle wspominamy, kiedy ono potrafi kosztować albo czterdzieści tysięcy, albo osiemdziesiąt tysięcy. Skąd ta różnica? Okazuje się, że właśnie te dodatkowe cztery dychy to jest już producent jak gdyby ubrał to RED KOMODO w taką paczkę, dzięki której wyjmując właśnie z kartonu, jesteśmy w stanie już nagrywać. Ale oczywiście nie jesteśmy zmuszeni, żeby używać tylko i wyłącznie oryginalnych podzespołów danego producenta. Możemy korzystać z podzespołów firm trzecich, które niejednokrotnie mogą okazać się albo podobne cenowo, ale lepsze, albo wręcz tańsze i ciut gorsze.
Igor: I też tutaj musimy zaznaczyć, że padło to RED KOMODO już kilka razy w tym odcinku. Tylko pamiętajcie o tym, że RED KOMODO jest kamerą, która jest tania. W tym odcinku się skupiamy głównie na półce jeszcze wyżej, bo właśnie teraz chciałbym pogadać o portach wyjścia i wejścia. Dlatego o tym mówię, że RED KOMODO jest raczej tą tanią kamerą, ponieważ ta kamera jest bardzo ograniczona, jeżeli chodzi o te tzw. I/O. No właśnie z tego powodu, że ta kamera została stworzona głównie na gimbala, na drona jako taki typowy crash cam. Natomiast jak już mówimy o tych profesjonalnych filmowych kamerach, to one najczęściej tych wyjść i wejść mają sporo. Czasami nawet jak się na nie patrzy to nie wiesz co jest do czego, bo tych wtyczek jest tyle, że w sumie myślisz” „No okej, no co ja mogę podpiąć? Monitor i co jeszcze? Natomiast trzeba sobie zdawać sprawę z tego, że na dużych planach tych monitorów na przykład może być podpiętych naraz cztery.
Maciej: Tak, bo na przykład jest jeden dla asystenta, drugi dla klienta, trzeci dla reżysera, czwarty jeszcze może dla ciebie. Wszystko w zależności od tego, czego wymaga projekt. Także tych wejść musi być naprawdę sporo. No i producenci oczywiście też o tym wiedzą i tych wejść wrzucają jak najwięcej. Mówię tu na przykład o wejściach SDI, w pełni zarządzanych jakichś wejściach HDMI i wejściach Timecode.
Igor: I bardzo dobrze, że wspomniałeś o porcie SDI, bo to jest jedna z ważniejszych różnic jeżeli np. porównujemy aparaty czy tanie kamery do kamer, które już możemy zakwalifikować jako profesjonalne kamery filmowe. Najczęściej jest tak, że aparaty i tanie kamery nie mają portu SDI, a na wielu planach zdjęciowych wśród wielu operatorów panuje przeświadczenie, że jak kamera nie ma SDI to się nadaje co najwyżej do robienia tik toków. Więc to jest na tyle ważny port, że faktycznie on jest jakby branżowo zarezerwowany dla lepszych, droższych kamer.
Maciej: A ja tylko dodam, że główną zaletą portu SDI jest to, że jest on blokowany i potrafi przenosić dane na dalsze dystanse.
Igor: A skoro jeszcze jesteśmy przy wyjściach audio-wideo, to co ja absolutnie uwielbiam w kamerach i co różni je bardzo mocno od aparatów to jest to, że możemy sobie w kamerze dokładnie ustawić, co ma być wyświetlane na ekranie. Czyli jeżeli chcę żeby się wyświetlał tylko sam waveform, to klikam, że on ma być wysyłany właśnie po tym porcie i on się wyświetla. W aparatach najczęściej to jest tak, że mamy włącz/wyłącz i mamy albo cały overlay, albo nie mamy nic. Więc to jest taka różnica, która jak się już ją ma, to się ją docenia dość mocno.
Maciej: No i następnie należy wspomnieć o tym, że jest możliwość podłączenia kamery bezpośrednio do stałego zasilania, czyli nie musimy martwić się o prąd w naszych bateriach i można taką kamerę bezpośrednio podłączyć do zasilania i można to robić bez używania tak jak się w aparatach używa tzw. dummy batteries, czyli tak naprawdę wsadzamy jakąś tam baterię, gdzieś tam z klapką, coś odpinamy, coś dopinamy po to, żeby ten kabelek gdzieś tam mógł wychodzić. I właśnie w ten sposób próbujemy zasilić aparat z gniazdka. A kamery już mają tą możliwość natywnie wbudowaną.
Igor: I to co też wyróżnia kamery nad aparatami to jest np. to, że kamery bardzo często mają wyjście zasilania. Czyli możemy jakieś akcesoria podłączyć bezpośrednio do kamery i z niej ciągnąć prąd. A jeżeli chodzi o same baterie, to kamery najczęściej mają V-mount lub Gold Mount, czyli możemy mocować do nich duże, profesjonalne i bardzo drogie baterie, czego oczywiście też nie uświadczymy w sposób natywny w aparatach.
Maciej: Nie posiadają też czegoś, co według mnie jest bardzo istotne w świecie kamer. A mianowicie zmienne mocowanie pod obiektywy. Powiedzmy, że dysponujemy jakimiś obiektywami. Rzućmy szybciutko na przykład Canona EF. Kupujemy jakąś kamerę i patrzymy, że ona ma mocowanie PL, ale też ma możliwość zmiany właśnie tego mocowania na EF. I w ten oto sposób zyskujemy możliwość korzystania w dalszym ciągu z naszych obiektywów, na które wydaliśmy jakieś tam 10, 20, 30 czy nawet 100 tys. Mamy cały set i chcemy właśnie tych obiektywów używać. Bo może też po prostu ich plastyka nam odpowiada. Kupujemy kamerę, zmieniamy mocowanie czy też samemu to robimy, czy poprzez właśnie serwis producenta. I mamy kamerę, która może w pełni obsługiwać nasze obiektywy.
Igor: Tak, zwróciłeś uwagę na moim zdaniem bardzo ważną kwestię, czyli to, że profesjonalne kamery filmowe najczęściej nie ograniczają użytkownika. Gdybyśmy tak sobie teraz już podsumowali cały ten odcinek, to wszystkie te rzeczy, o których mówiliśmy, właśnie sprowadzają się do tego, że nie ograniczają nas. Czyli mamy tę modułowość, możemy my zbudować sobie kamerę tak, jak chcemy. Mamy format RAW, który nam pozwala na naprawdę bardzo, bardzo dużo. No i właśnie to, że też nawet możemy sobie zmienić mocowanie na optykę, dzięki czemu to my wybieramy optykę z jaką chcemy pracować. Ponieważ na dużych lub profesjonalnych planach filmowych bardzo często jest tak, że to kamerę dobiera się pod optykę, a nie w drugą stronę. Są fanatycy pewnych szkieł, pewnych marek, gdzie bardzo często jest tak, że pierwsza decyzja pada, że nagrywamy to na cooke’ach jakiś tam i teraz co możemy tam wpiąć?
Maciej: Wspomniałeś właśnie o tym, że na początek jest wizja, a później dopiero szukanie narzędzia.
Igor: Tak robi się filmy, tak powinno robić się filmy.
Maciej: Które tę wizję wykona, zrobi i film powstanie właśnie w ten, a nie inny sposób. A niestety często to powtarzamy właśnie na łamach naszego podcastu, że ludzie idą w tą drugą stronę, nie myślą o tym co chcą wykonać, tylko na początek czym to wykonają. Czyli już by chcieli wydawać te pieniądze i kupować to co jest najlepsze, oczywiście w ich zasięgu ręki. A potem albo trafi to na półkę, albo albo po prostu będzie robiona rzecz średnia, albo nie będzie to w taki sposób zrobione, w jaki powinno być zrobione. I uczulam tutaj i apeluję do wszystkich: myślmy o tym, co chcemy zrobić, co mamy do zrobienia, a później dopiero zastanówmy się czym to zrobić.
Igor: Częściej zadawajcie sobie pytanie jak, a nie czym. Myślę, że tym zdaniem możemy postawić kropkę.