1. 녹음 파일
OMF(Open Media Format) 또는 AAF(Advanced Authoring Format)
편집을 마치면 사운드 후반작업을 위해서
OMF 또는 AAF 화일을 녹음실에 보내야 된다.
해서 OMF나 AAF라는 이름 정도는 숙지해 놓는 게 좋다.
그럼 이 화일이 도대체 뭐고
또 어떤 용도로 어떻게 쓰이는 지 알아보자.
편집자가 편집을 하기 위해서 제일 먼저 하는 일은
영상 소스와 동시 녹음된 사운드 원본 파일을 가지고
싱크 맞추는 일이다.
편집의 편의성을 위해
영상 소스는 다른 파일로 변환 할 수 있지만
사운드 소스는 원본 그대로를 가지고 작업하기 때문에
편집 타임라인에 깔린 건
녹음기에 처음 수록된 원본 파일 그대로다.
그리고 그 화일은 대부분 웨이브(WAVE) 화일이다.
경우에 따라서는
카메라에 직접 수록되는
무압축 리니어(Linear) PCM이 쓰이기도 하지만
어쨌든 녹음실에서는 웨이브 화일로 작업한다.
그리고 이런 파일은 기본적으로
48khz 16bit 샘플링으로 되어 있다.
녹음기에 따라서 44khz 또는 96khz에 24bit를 선택할 수 있지만
영화에서는 기본적으로
'48khz 16bit'가 표준으로 통용되고 있다.
결국 사운드는 처음부터 마지막 작업까지
원본 웨이브 화일로 이어진다고 볼 수 있다.
어쨌든
편집 타임라인에는 편집된 순서에 맞게
사운드 역시 똑같이 편집되어 있다.
이걸 녹음실에서 사운드 작업하려면
편집실에서 편집한 거와 똑같이
녹음실에서도 그 사운드 화일이 열려야 된다.
그렇게 되기 위해서
편집 프로그램에서 OMF 내지는 AAF 화일을 출력해야 된다.
좀 더 구체적으로 알아보면
녹음실에서는 프로 툴즈(Pro Tools) 프로그램을 사용하며
그 프로그램에서 OMF 화일을 임포트한다.
그럼 편집실에서 작업한 타임라인 모습 그대로
사운드만 열리게 되는 것이다.
결국 후반 작업자들 간의 중계 역할은
감독이 하기 때문에
이런 워크플로 과정을 정확하게 알고 있어야 한다.
그래야
뭘 가져가야 되는 거여요?
XML요? 잠깐만요. 지금 적고 있으니까.
제가 잘 모르겠으니까 전화바꿔 줄게요.
그래도
전화바꿔줄게요,
하고 사전 양해 구하고 전화 건네받는 건 양반이다.
감독이 헤메고 있으면
아예 전화 뺏어들고 초면 인사도 없이
뭐, 뭐 보내주면 되는 거죠,
외장하드 어디 어디에 있으니까 그거 열면 돼요.
작업자도 갑갑하니까
그런 행동 내지를 수도 있겠다 싶지만
진짜 알고나면 별거 아닌 내용인데
그래서 감독이 워크플로 잘 알고 있으면
무식한 작업자 만나 맘 상할 일도 없고
스텝 일 시키는데도 교통 정리 잘 되니
서로 서로 편하고 좋은 데
현실은 또 그게 아니니 그저 아쉬울 뿐이다.
녹음실에 보낼 거 정리하면
ㄱ. OMF나 AAF 파일
ㄴ. 사운드 소스
ㄷ. 편집영상이 된다.
사운드 소스는 녹음기사가 처음 녹음한 소스로
편집실에서도 사용하지만
녹음실에서도 OMF 화일 말고
원본 소스가 별도로 필요한 이유가 있다.
편집실에서는 영상 위주로 편집하고
사운드 싱크 역시 대사 위주로 작업하기 때문에
간혹 편집된 영상에 사운드가 빠지는 경우가 있을 수 있다.
주로 주변 소음이나 배경음 등이다.
그런 경우 녹음실에서는 원본에서 찾아
빈 공간을 채워주게 된다.
2. 편집영상
편집영상은 편집 이후
모든 후반작업의 기준이 된다.
('편집영상'은 필름 시절엔 '워크 프린트'라는 용어로 통용되었다.
디지털 시대로 넘어오면서 '가이드 영상' 또는 기타 용어로 표현되는데
나는 편의상 '편집영상' 으로 사용한다.)
편집이 끝나면
편집자는 편집된 영상을 하나의 파일로 뽑아
녹음실과 색보정실에 보내게 된다.
편집 영상은 2GB 내외 용량에 MOV 화일로 만들어주면 된다.
mp4나 기타 영상 파일은
맥의 프로툴즈 프로그램에 임포트가 안 된다.
사운드 작업자는 그래서
편집실에서 보내준 편집영상을 화면에 띄우고
그걸 보며 사운드 트랙에 깔린 오디오를 가지고 작업 하게 된다.
녹음실과 색보정실은 그렇게
편집영상을 기준으로 삼아
사운드 싱크와 편집점을 똑같이 따라가게 된다.
만약 녹음실이나 색보정실에서 편집 기준을 따라가지 않으면
최종 영상물은 싱크가 맞지 않게 된다.
헌데 이런 과정을 잘 몰라서
혹은 간과하여
감독이 중간에서 교통정리를 못하면
작업자 간에 혼선을 빚을 수 있다.
좀 극단적인 일예로
감독이 작곡자를 만났는데
작곡자가 영상물이 어두워서 잘 안보인다며 작곡을 못하겠단다.
그래 감독은 색보정실에 전화해서
좀 잘보이게 밝은 걸로 미리 마스터 하나 뽑아달라고 말한다.
색보정실은 이게 뭔소리여?
그냥 시나리오 읽어보고 편집영상 보면 분위기 파악되고
그럼 작곡되는 거 아녀?
프로급 작업자는 대게 그렇게 작업한다.
내가 편집을 하고 있기 때문에 편집실에 작곡자가 종종 온다.
그럼 작곡자는 이미 시나리오는 읽었기 때문에
영화 분위기 대충 파악하고
감독이 원하는 내용 전달하면 그걸로 끝이다.
그럼 작곡자는 편집실에서 보내준 편집영상을 보면서 작업을 하고
음악 들어가는 타임을 감독에게 알려주거나
직접 녹음실에 찾아와 믹싱 작업을 한다.
어쨌든 색보정실에서 좀 밝은 영상으로 미리 뽑아줬다 치자.
헌데 감독이 그 영상을 녹음실에도 보낸다.
그리고 난리가 난다.
싱크가 맞지 않는다고 여기 저기서 소란이다.
색보정실에서 보내준 영상이
편집실에서 보낸 사운드 OMF 화일과 싱크가 틀린 것이다.
그래서 작곡자도 싱크 안 맞는다며 난리다.
감독은 이런 모든 원인이 색보정실에 있음을 결국 밝혀낸다.
감독이 찬찬히 확인해보니
뭔가 엉뚱한 영상이 하나 들어갔다.
색보정실에서도 확인하니
편집실에서 보내준 XML 화일에 문제가 있어
편집 순서대로 정확하게 배열이 안 된 것이다.
색보정 작업자는 감독에게
엉뚱한 영상 하나가 끼어들어갔네요.
헌데 사운드 작업은
편집실에서 만든 걸 기준으로 해야 되는 건데…
내가 그래야 된다고 미리 말했었고...
어쩌고 저쩌고 설명을 하자
감독은 마침내 참았던 분노를 터트린다.
지난 일요일 밤새도록 녹음실과 작곡실에서 싱크 안 맞아 작업 못했고
그러다 겨우 내가 그 원인을 찾았냈단 말예요!
.
.
.
감독의 입장에서는
이왕이면 녹음실에도 밝은 영상으로 작업하면 좋을 거라는 판단에서
충분히 그럴 수 있다.
헌데 후반작업 워크플로 기준점은
편집영상어야 된다는 점을 간과하여 발생된 일이다.
3. XML
편집이 끝나면 역시 색보정을 해야 되는데
색보정실에 보내야 되는 건
ㄱ. XML
ㄴ. 촬영 원본 소스
ㄷ. 편집영상이다.
XML(Extensible Markup Language)은
녹음실에 보내는 OMF 화일처럼
편집 내용을 하나의 화일로 출력한 거라고 볼 수 있다.
OMF와 다른 점이 있다면
OMF 안에는 오디오 소스가 들어있지만
XML에는 영상 소스가 없다는 점이다.
편집자가 편집 작업한 기록만 있을 뿐이다.
따라서 XML에 기록된 편집 순서대로
촬영 원본 소스가 열려야 된다.
그러기 위해서
편집자는 편집이 끝나면
XML을 출력하기 전에 먼저 할 일이 있다.
ㄱ.
편집 내용을 가지런히 정리해야 된다.
편집하다보면 트랙이 위로 쌓이면서
쓸데없거나 사용되지 않는 클립이 생길 수 있다.
그런 내용까지
색보정 프로그램에 동일하게 열리게 되므로
불필요한 클립들은 모두 지우고
가급적 맨 밑의 한 트랙으로 가지런하게 정렬시키는 게 좋다.
ㄴ.
만약 촬영 원본을 작은 사이즈로 변환하여 편집했다면
편집 내용과 촬영 원본 소스가 일치되도록 해주는 작업을 하게 된다.
먼저
편집 타임라인에 깔린
작은 사이즈 '영상 소스'와
'편집 내용' 연결 고리를
일부러 단절시킨다.
그러기 위해서 먼저
편집된 시퀀스를 하나 카피한 다음
단절시키는 작업
즉 오프라인으로 만드는 작업을 한다.
그런 뒤
편집 내용과 촬영 원본 소스를 연결해주는 작업
즉 relink를 해주게 된다.
그런 상태에서 XML을 출력하면 끝이다.
그리고 XML을 색보정실에 보내준다.
색보정실에서는 그 XML을 임포트하면
편집 내용과 똑같이 촬영 원본 소스가 열리게 되는 것이다.
앞서 밝혔듯
XML이 영상편집 내용과 항상 일치하지는 않는다.
순서가 한 두개 틀릴 수도 있고
엉뚱한 화일이 들어가기도 한다.
편집 프로그램에 따라서
또 XML 버전에 따라 그런 현상이 있을 수 있다.
그외로
XML이 편집 내용과 틀릴 수 있는 것은
편집할 때 스로우모션을 걸었다거나
모션작업을 했거나
타이틀 작업 등등이 그 일예들이다.
그래서 색보정실에서는
색보정 작업이 모두 끝나면
편집영상을 보며
틀린 게 뭐가 있는 지 일일히 확인한 뒤
모든 작업을 편집 영상과 똑같이 만들어 준다.
그런데
색보정과 편집 프로그램 간의 호환이 잘 이뤄지는 경우
색보정을 마치고
다시 편집 프로그램으로 가져가면
처음 편집 프로그램에서 의도했던 여러 작업들이
자동으로 이뤄진다.
일테면 다빈치와 FCPX이 그렇다.
그리고 최종 마스터는 편집 프로그램에서 이뤄지는 게 좋다.
그런 이유에서 나는
원스톱 워크플로를 지향하면서
편집과 색보정을 겸하고 있다.
참고로
촬영 원본 소스에 타임코드가 있으면
색보정 프로그램이 XML 임포트할 때 수월한 점이 있다.
색보정 프로그램은
XML을 분석하면서 원본을 찾아 연결하는데
그 기준점으로 타임코드가 가장 정확하기 때문이다.
4. 마스터
후반 작업이 다 끝나면 사운드와 영상이 하나가 된
마스터를 뽑아야 되는데
2K 사이즈는 ProRes422HQ로 뽑아야 되고
4K 사이즈는 ProRes4444(XQ)로 출력하면 된다.
이 말은 내가 하는 말이 아니고
프로레스를 만든 애플의 백서(White Paper)에 그렇게 씌여있고
또 현업에서 그렇게 통용되고 있다.
프로레스가 아닌
H264 mp4나 기타 압축되는 코덱은
DCP 만드는 프로그램에 아예 임포트 조차 안 되거나
다시 프로레스 코덱으로 변환시켜야 되는데
그게 말로만 변환한다는 거지
영상 자체가 다시 '고품질로 변환' 되는 게 아니기 때문에
반드시 마스터는 처음부터 손실 없는 코덱으로 만들어야 된다.
애플에서 만든 프로레스는
원본 화질에 거의 손실 없을 정도로 품질이 뛰어나다.
작업자들이 그 이유 하나 때문에
맥을 쓰고 있다고 해도 과언은 아니다.
프로레스가 나오기 전에는
마스터를 압축하지 않고 뽑기 위해
무압축으로 출력하거나
이미지화일 TIFF 또는 DPX(프레임 단위의 낱장)로 뽑기도 했었다.
그 용량이 '엄청나게' 쏟아져 나오기 때문에
그런 용량의 화일을 받아내기 위해서는
큰 그릇이 필요했다.
해서 하드디스크 여러 개를 하나로 묶는 RAID 0 기술이 나오게 된 것이다.
그런 중에
애플에서 무압축 화질에 버금가면서도
용량은 대폭 줄인 프로레스라는 코덱을 내보였으니
전 세계 작업자들이 환호할 수 밖에...
이 프로레스는
근래에 와서 ARRI 같은 고급 카메라의
저장코덱으로 사용되고 있는 추세다.
http://cafe.naver.com/omegafilm