← --library
문과 · 24문과

애니메이션테크닉

단계1단계2단계3단계4단계5

3단계: 3D 애니메이션 · 모션그래픽 · 합성


들어가며 — 2D를 넘어서는 세계

1단계에서 너는 12원칙이라는 애니메이션의 문법을 배웠고, 2단계에서는 캐릭터에 뼈대(리그)를 심어 움직임을 만들어냈다. 그런데 지금 네가 보는 픽사(Pixar)의 영화, 유튜브의 세련된 데이터 영상, 뉴스 채널 오프닝처럼 "현실과 구별하기 어려운" 세계는 어떻게 만들어지는 걸까? 그 열쇠가 바로 이번 3단계, 3D 공간 안에서의 창작모션그래픽 합성이다. 2D가 종이 위에 그림을 그리는 것이라면, 3D는 컴퓨터 안에 실제로 작은 세상을 하나 건설하는 것에 가깝다. 건축가처럼 공간을 설계하고, 조명 감독처럼 빛을 배치하고, 사진작가처럼 카메라를 들이댄다 — 이 모든 과정이 하나의 소프트웨어 안에서 벌어진다. 굉장하지 않은가? 시작해보자.


1부: 이론적 기초 — 3D 세계를 이해하기 위한 배경지식

차원(Dimension)이란 무엇인가

아주 근본적인 질문부터 시작하자. 차원이란 공간 안에서 위치를 설명하는 데 필요한 숫자의 개수다. 점 하나가 직선 위에서 움직인다면 "왼쪽으로 3칸"이라는 숫자 하나(X축)만으로 충분하다 — 이게 1차원이다. 네가 2단계에서 다뤘던 2D 캐릭터는 좌우(X)와 상하(Y)라는 두 개의 숫자로 평면 위 모든 위치를 표현했다. 이제 여기에 **앞뒤(Z축)**가 추가된다. X, Y, Z, 세 개의 축이 교차하는 공간이 바로 **3D 공간(Three-Dimensional Space)**이다. 수학적으로는 **데카르트 좌표계(Cartesian Coordinate System)**라고 부르는데, 17세기 철학자이자 수학자 르네 데카르트(René Descartes)가 "침대에 누워 천장을 기어가는 파리의 위치를 숫자로 표현하다가" 고안했다는 이야기가 전해진다. 3D 소프트웨어를 처음 열었을 때 보이는 그 격자(grid)가 바로 이 데카르트 좌표계를 시각화한 것이다.

[노트 기록] X축 = 좌우, Y축 = 상하, Z축 = 앞뒤. 3D 소프트웨어마다 Y가 위쪽인 경우(Maya, Cinema 4D)와 Z가 위쪽인 경우(Blender 기본 설정)가 다를 수 있으니 주의할 것.

빛의 물리 — 렌더링의 원리

3D 애니메이션의 핵심에는 **렌더링(Rendering)**이라는 과정이 있다. 이게 왜 중요한지 이해하려면 먼저 현실에서 우리 눈이 어떻게 사물을 보는지 떠올려봐야 한다. 태양이나 전구에서 나온 빛은 사방으로 퍼져나가 사물의 표면에 부딪히고, 그 중 일부가 반사되어 우리 눈의 망막에 도달한다 — 그것이 바로 우리가 "보는" 행위다. 3D 렌더링은 이 과정을 컴퓨터로 시뮬레이션하는 것이다. 특히 현대 렌더링의 핵심 기술인 **레이 트레이싱(Ray Tracing)**은 카메라에서 역방향으로 광선(ray)을 쏘아 그것이 어떤 물체에 부딪히고, 반사되고, 굴절되는지를 수학적으로 계산한다. 1980년 터너 휘테드(Turner Whitted)가 발표한 논문 *"An Improved Illumination Model for Shaded Display"*에서 이 방법이 체계화되었고, 오늘날 픽사, 디즈니, 넷플릭스의 모든 CG 영상이 이 원리 위에서 만들어진다.

레이 트레이싱이 "현실과 똑같은" 빛을 표현하지만 계산이 엄청나게 오래 걸린다는 게 문제였다. 그래서 게임이나 실시간 미리보기에는 **라스터라이제이션(Rasterization)**이라는 훨씬 빠른 (하지만 덜 정확한) 방법을 쓴다. Blender에서 Cycles는 레이 트레이싱 기반, Eevee는 라스터라이제이션 기반이다 — 이 차이를 기억해두면 나중에 렌더 엔진을 선택할 때 이해가 쉬울 것이다.

3D 애니메이션의 역사 — 어떻게 여기까지 왔나

1963년 수학자 이반 서덜랜드(Ivan Sutherland)가 세계 최초의 컴퓨터 그래픽 인터페이스 프로그램인 Sketchpad를 개발하며 역사가 시작됐다. 1970년대 유타 대학교를 중심으로 폴리곤 렌더링, 곡면 처리 등의 기초 이론이 완성됐고, 1982년 영화 *트론(Tron)*이 최초로 확장된 분량의 CG를 상업 영화에 활용했다. 하지만 진정한 혁명은 1995년 **픽사(Pixar)**의 *토이 스토리(Toy Story)*였다 — 역사상 최초의 장편 풀 CGI 영화. 당시 픽사의 기술 총괄이었던 에드 캣멀(Ed Catmull)이 개발한 서브디비전 서피스(Subdivision Surface) 알고리즘이 부드러운 곡면 캐릭터를 가능하게 했고, 이것은 지금도 거의 모든 3D 소프트웨어의 핵심 기능으로 남아있다. 이 역사는 중요하다 — 지금 네가 Blender에서 클릭하는 버튼 하나하나에 수십 년의 연구가 쌓여있기 때문이다.

[노트 기록] 역사적 흐름: 1963 Sketchpad → 1970s 유타대 CG 이론 → 1982 트론 → 1995 토이 스토리(최초 풀 CGI 장편) → 2000년대 Blender 오픈소스화 → 현재 실시간 레이트레이싱(RTX).


2부: 본 내용 — 이론에서 기술로

3D 파이프라인 — 전체 흐름을 먼저 보자

3D 애니메이션 작업은 마치 공장의 생산 라인처럼 여러 단계가 순서대로 연결된다. 이 흐름을 **3D 파이프라인(Pipeline)**이라고 부른다. 크게 나누면 ① 모델링(Modeling) — 물체의 형태를 만든다 ② 리깅(Rigging) — 뼈대를 심는다 (2단계에서 2D로 했던 바로 그것!) ③ 텍스처링(Texturing) — 표면 재질을 입힌다 ④ 조명(Lighting) — 빛을 배치한다 ⑤ 애니메이션(Animation) — 움직임을 준다 ⑥ 렌더링(Rendering) — 최종 이미지를 계산한다 ⑦ 합성(Compositing) — 여러 요소를 합쳐 최종 영상을 완성한다. 이 흐름을 머릿속에 그려두면, 이후 각 기술을 배울 때 "아, 지금 파이프라인의 어느 단계를 배우는 거구나"가 자연스럽게 보일 것이다.

모델링(Modeling) — 3D 세계에서 물체를 만들다

3D 세계에서 모든 물체는 **메시(Mesh)**라고 불리는 구조로 만들어진다. 메시는 버텍스(Vertex, 꼭짓점), 엣지(Edge, 모서리), **페이스(Face, 면)**의 세 요소로 구성된다. 종이접기를 생각해보자 — 종이를 접으면 모서리(엣지)가 생기고, 접힌 면(페이스)이 생긴다. 3D 모델링은 이 과정을 컴퓨터 안에서 하는 것과 같다. 가장 기초적이고 널리 쓰이는 방법은 **폴리곤 모델링(Polygon Modeling)**으로, 단순한 기본 도형(박스, 구, 원기둥 등)에서 시작해 버텍스를 이동하고, 엣지를 추가하고, 면을 돌출(extrude)시키며 복잡한 형태를 만들어나간다.

그런데 폴리곤으로만 만든 물체는 가까이서 보면 각지고 딱딱하게 보인다는 문제가 있다. 여기서 앞서 언급한 에드 캣멀의 발명, **서브디비전 서피스(Subdivision Surface)**가 등장한다. 이것은 폴리곤의 각 면을 수학적으로 잘게 나누고 평균을 내어 매끄러운 곡면으로 변환하는 알고리즘이다. Blender에서는 "Subdivision Surface" 모디파이어(Modifier)를 추가하는 것만으로 각진 메시를 즉시 부드럽게 만들 수 있다. [노트 기록] 모델링의 핵심 개념: Vertex(점) → Edge(선) → Face(면) → Mesh(전체 구조). Extrude(돌출), Loop Cut(엣지 추가), Inset(면 축소)은 가장 자주 쓰는 세 가지 기본 조작이다.

**UV 언래핑(UV Unwrapping)**은 모델링과 텍스처링 사이를 연결하는 다리 역할을 한다. UV가 뭔지 이해하려면 오렌지 껍질을 벗겨 평평하게 편다고 상상해봐라. 3D 구형 오렌지의 표면을 2D 평면으로 펼치는 것 — 이게 UV 언래핑이다. X, Y, Z 대신 U, V라는 이름을 쓰는 건 이미 XYZ를 3D 좌표에 쓰고 있기 때문이다. 이렇게 펼친 UV 맵 위에 텍스처 이미지를 그리면, 소프트웨어가 이를 다시 3D 표면에 감싸준다.

텍스처와 머티리얼(Texture & Material) — PBR의 세계

초기 3D 그래픽에서는 단순히 "이 물체는 빨간색"처럼 색상 하나로 표면을 표현했다. 하지만 현실의 물체는 훨씬 복잡하다 — 금속은 번쩍이고, 나무는 거칠고, 피부는 반투명하게 빛을 통과시킨다. 이 복잡한 현실을 시뮬레이션하기 위해 오늘날의 표준으로 자리잡은 것이 **PBR(Physically Based Rendering, 물리 기반 렌더링)**이다. PBR에서 하나의 머티리얼(Material, 재질)은 여러 종류의 텍스처 맵으로 구성된다. 알베도/베이스 컬러(Albedo/Base Color) 맵은 순수한 색상 정보를 담고, 러프니스(Roughness) 맵은 표면이 얼마나 거친지(거칠수록 빛이 난반사), 메탈릭(Metallic) 맵은 금속 여부를, 노멀(Normal) 맵은 실제 폴리곤을 추가하지 않고도 표면에 미세한 요철감을 시뮬레이션한다. 노멀 맵을 쓰면 낮은 폴리곤 수로도 벽돌이나 가죽처럼 디테일한 표면을 표현할 수 있어 렌더링 속도를 크게 절약할 수 있다.

[노트 기록] PBR 핵심 맵: ① Base Color(색상) ② Roughness(거칠기, 0=거울 1=완전매트) ③ Metallic(금속감) ④ Normal(가짜 요철) ⑤ Emission(자체발광). 이 다섯 가지만 이해해도 대부분의 재질을 표현할 수 있다.

렌더링(Rendering) — 빛을 계산하다

파이프라인의 앞서 배운 이론과 지금 배운 모델링·텍스처링이 합쳐져 최종적으로 이미지를 생성하는 단계가 렌더링이다. 이 과정에서 가장 중요한 개념이 앞에서 언급한 레이 트레이싱이고, 그것의 고급 버전이 **패스 트레이싱(Path Tracing)**이다. 패스 트레이싱은 한 픽셀에 대해 수백 개의 광선을 무작위로 쏘아 빛의 반사·굴절·산란을 통계적으로 계산한다 — Blender의 Cycles가 이 방식을 쓴다. 결과물은 현실과 구별하기 어려울 만큼 정확하지만, 광선 수가 부족하면 이미지가 노이즈(graininess, 입자처럼 보이는 점들)가 많아진다. 이것이 Cycles 렌더링에서 "Sample(샘플) 수"를 높이면 품질이 올라가지만 렌더 시간도 길어지는 이유다. 반면 Eevee는 게임 엔진처럼 빠르게 미리보기를 제공하므로, 초안 확인은 Eevee로, 최종 출력은 Cycles로 나누는 것이 현장의 일반적인 워크플로우다.

모션그래픽(Motion Graphics) — 움직이는 정보 디자인

이제 3D 기술의 문법을 갖췄으니, 이 기술로 무엇을 만들 것인지의 이야기로 넘어가자. **모션그래픽(Motion Graphics)**은 텍스트, 도형, 이미지, 데이터를 움직임(motion)과 결합하여 정보를 전달하거나 감정을 표현하는 디자인 분야다. 디자인 이론가 존 휘트니(John Whitney)가 1960년대 컴퓨터를 활용한 시각 예술 실험을 통해 이 분야의 선구자가 됐고, 솔 바스(Saul Bass)가 1959년 영화 *노스 바이 노스웨스트(North by Northwest)*의 타이틀 시퀀스에서 움직이는 그래픽으로 수백만 명의 시선을 사로잡으며 모션그래픽을 대중화했다. 지금 네가 유튜브에서 보는 통계 그래프가 커지고, 화살표가 날아다니고, 숫자 카운터가 올라가는 모든 것이 모션그래픽이다.

모션그래픽의 핵심 원칙 중 하나는 "정보와 움직임의 일치"다. 즉, 움직임 자체가 의미를 가져야 한다. 통계 수치가 증가할 때 막대가 위로 자라나고, 연결 관계를 설명할 때 선이 이어지고, 중요한 결론에서 텍스트가 강조되는 것 — 이런 움직임은 단순한 장식이 아니라 정보 전달 자체다. 반대로 의미 없이 화려하기만 한 움직임은 시청자를 산만하게 만들 뿐이다. 이 원칙은 1단계에서 배운 12원칙의 정신, 특히 "타이밍과 스페이싱(Timing & Spacing)", **"스테이징(Staging)"**과 정확히 맞닿아 있다는 걸 알아차렸는가?

[노트 기록] 모션그래픽의 핵심 원칙: ① 움직임은 의미를 담아야 한다 ② 이징(Easing): 갑작스러운 시작/정지 대신 Ease In/Ease Out으로 자연스러운 가속·감속 ③ 계층(Hierarchy): 중요한 정보가 먼저, 크게, 눈에 띄게 ④ 일관성: 비슷한 요소는 비슷하게 움직인다.

After Effects 활용 — 합성의 중심

**Adobe After Effects(AE)**는 모션그래픽과 합성의 세계에서 사실상의 표준 소프트웨어다. Premiere Pro가 영상을 편집하는 도구라면, AE는 영상 위에 새로운 세계를 덧씌우는 도구다. AE의 작업 공간은 **컴포지션(Composition, 줄여서 Comp)**이라는 단위로 나뉘며, 컴포지션 안에 **레이어(Layer)**를 쌓아올리는 방식으로 작업한다. 아래 레이어는 뒤쪽, 위 레이어는 앞쪽에 표시된다 — 포토샵의 레이어 개념과 동일하다. 각 레이어의 속성(위치, 크기, 회전, 불투명도 등)에 **키프레임(Keyframe)**을 찍어 시간에 따른 변화를 만드는 것이 AE 작업의 기본이다.

AE에서 한 걸음 더 나아가면 **익스프레션(Expression)**이 있다. 익스프레션은 JavaScript 기반의 짧은 코드로, 수동으로 키프레임을 찍지 않고도 자동화된 움직임을 만드는 데 쓴다. 예를 들어 wiggle(2, 30)이라는 단 하나의 익스프레션을 레이어의 위치에 적용하면 그 레이어가 초당 2번, 30픽셀 범위에서 자동으로 흔들린다. time * 100을 회전 값에 적용하면 시간이 지남에 따라 끝없이 회전한다. 이런 수식들을 알면 반복적인 키프레임 작업에서 해방될 수 있다.

**합성(Compositing)**은 여러 개의 영상 레이어를 하나의 완성된 화면으로 합치는 과정이다. 가장 단순한 예가 뉴스에서 앵커 뒤로 지구가 보이는 장면 — 앵커는 초록 배경(크로마키, Chroma Key) 앞에서 촬영하고, AE에서 초록색을 제거(키잉, Keying)한 뒤 배경 영상과 합성한 것이다. 더 복잡한 합성은 영화에서 배우 뒤로 폭발이 일어나거나, 배우가 하늘을 나는 장면처럼 현실에서 찍을 수 없는 장면을 만들어낸다. AE의 **블렌딩 모드(Blending Mode)**는 두 레이어가 겹칠 때 픽셀 값을 어떻게 계산할지 결정하며, 포토샵의 레이어 블렌딩과 동일한 원리다. Multiply, Screen, Add 등의 모드는 각각 다른 시각적 효과를 만든다.

[노트 기록] AE 핵심 개념: ① Composition = 작업 캔버스 ② Layer = 쌓이는 요소들 ③ Keyframe = 시간에 따른 속성 변화 기록 ④ Expression = 코드로 자동화된 움직임 ⑤ Keying = 특정 색상 제거(크로마키) ⑥ Blending Mode = 레이어 합성 방식.


3부: 프로젝트 — 직접 만들어보기

이제 이론과 기술을 실제로 적용할 시간이다. 아래 세 가지 프로젝트는 각각 ① 3D 기초 ② 모션그래픽 ③ 합성, 즉 이번 단계의 세 가지 학습목표를 순서대로 훈련한다. 각 프로젝트에는 정답이 없다 — 네가 이론에서 배운 개념을 직접 실험하고, 실패하고, 이유를 생각하면서 완성해나가는 것이 목표다. 도중에 막히면 "왜 이렇게 보이지?"라고 스스로 물어보는 습관을 들여라. 그 질문이 학습의 엔진이다.


Project A: "나만의 커피잔" — 3D 모델링 & 렌더링 (약 40분)

사용 소프트웨어: Blender (무료, 오픈소스)

배경: 너는 지금 작은 소품 디자인 스튜디오의 신입 3D 아티스트다. 클라이언트가 SNS 광고용으로 쓸 커피잔 3D 렌더링 이미지를 요청했다. 단, 클라이언트가 "세라믹 재질의 흰색 머그컵"이라고만 했고, 나머지 디자인 결정은 너에게 맡겼다.

조건 및 요구사항을 읽고 생각해봐라:

커피잔은 몸통(원기둥 형태)과 손잡이로 이루어진다. 몸통은 Cylinder 메시에서 시작해 Extrude와 Scale 조작으로 기본 형태를 잡아보자. 여기서 첫 번째 질문 — 컵의 바닥이 두꺼운 이유는 무엇이고, 이것을 3D로 어떻게 표현할까? 손잡이는 어떤 방식으로 몸통과 연결할 것인가? 단순히 붙이면 접합부가 부자연스러워 보일 것이다 — 이것을 어떻게 해결하면 좋을까?

모델이 완성되면, 아까 배운 PBR 머티리얼을 적용한다. 세라믹은 약간의 반사가 있고(Roughness 0.3~0.5 정도), 완전히 매끄럽지는 않으며, 금속은 아니다. 이 정보를 바탕으로 Metallic, Roughness 값을 스스로 결정해봐라. 컵 내부는 어두워야 할까, 밝아야 할까? 왜 그런지 빛의 물리를 생각하며 결정하라.

조명은 3점 조명(Three-Point Lighting) — Key Light(주 조명), Fill Light(보조 조명), Back Light(역광) — 을 기본으로 시도해봐라. 3점 조명은 영화와 사진에서 수십 년간 쓰여온 고전적인 조명 배치다. 왜 조명이 하나일 때보다 세 개일 때 더 자연스러워 보이는지, 렌더링을 비교하면서 직접 느껴봐라.

최종 렌더 이미지 1장을 Cycles로 출력하라. 사이즈는 1080×1080 (인스타그램 정사각형 포맷). Sample 수를 64, 128, 256으로 각각 바꿔 렌더링하고 차이를 관찰하라 — 어느 시점부터 차이가 눈에 안 보이는가? 이것이 실무에서 Sample 수를 결정하는 기준이 된다.

스스로 체크해볼 것: 모델이 실제 비율과 비슷해 보이는가? 텍스처가 세라믹처럼 보이는가? 렌더 이미지가 광고에 쓸 수 있을 만큼 깔끔한가? 만약 아니라면 파이프라인의 어느 단계를 수정해야 할까?


Project B: "한국의 플라스틱 쓰레기" — 모션그래픽 인포그래픽 (약 40분)

사용 소프트웨어: Adobe After Effects (또는 무료 대안: DaVinci Resolve의 Fusion)

배경: 너는 환경 NGO의 SNS 계정 운영을 맡은 모션그래픽 디자이너다. "한국인은 1인당 연간 플라스틱을 얼마나 소비하는가?"라는 주제로 30~60초짜리 인포그래픽 영상을 만들어야 한다. 데이터를 스스로 검색하거나, 아래 가상 데이터를 활용해도 좋다.

가상 데이터 (실제와 유사한 참고용):

  • 한국 1인당 연간 플라스틱 소비량: 약 88kg (OECD 상위권)
  • 그중 재활용되는 비율: 약 34%
  • 매립·소각되는 비율: 약 66%
  • 연간 해양으로 유출되는 플라스틱: 약 17만 톤

요구사항과 질문들:

이 네 가지 데이터를 어떤 시각 요소(막대그래프? 파이 차트? 아이콘 카운터?)로 표현할 것인가? 각 데이터의 성격을 생각해보라 — 88kg는 "양"을 느끼게 해야 하고, 34%와 66%는 "비율"을, 17만 톤은 "규모의 충격"을 전달해야 한다. 같은 숫자도 어떻게 시각화하느냐에 따라 임팩트가 완전히 달라진다.

영상의 전체 흐름(시퀀스)을 먼저 종이에 스케치(스토리보드)해보자. 어떤 데이터를 먼저 보여주고, 어떤 것으로 마무리할 것인가? 가장 충격적인 수치를 처음에 보여줄 것인가, 끝에 보여줄 것인가? 그 이유는? 이 결정이 시청자의 감정에 어떤 영향을 미칠까?

AE에서 작업할 때, 텍스트와 도형 레이어를 만들고 Ease In/Ease Out이 적용된 키프레임으로 등장 애니메이션을 만들어라. 숫자 카운터 효과는 AE의 "Numbers" 이펙트 또는 익스프레션을 활용해봐라. 배경 색상, 폰트, 색상 팔레트를 일관되게 유지하는 것이 모션그래픽의 기본 — 2~3가지 색상 이상 쓰지 마라. 왜 색상이 적을수록 전문적으로 보일까?

배경 음악 또는 사운드 이펙트(효과음)를 넣어 사운드 싱크를 맞춰라. 특히 숫자가 등장할 때, 그래프가 완성될 때 짧은 효과음이 정보 전달에 어떤 역할을 하는지 느껴봐라.


Project C: "창밖의 우주" — 합성 (약 40분)

사용 소프트웨어: Adobe After Effects + Blender (선택)

배경: 너는 단편 SF 영상의 VFX 아티스트다. 평범한 교실 창문 너머로 우주 공간이 펼쳐져 보이는 장면을 만들어야 한다. 실제 교실을 촬영한 영상(또는 인터넷에서 CC 라이선스 교실 영상을 찾아도 좋다)과, 우주 배경 이미지(NASA의 공개 이미지 활용 가능)를 합성한다.

핵심 도전 과제:

창문 영역을 어떻게 마스킹(Masking)할 것인가? AE의 마스크(Mask) 기능을 사용해 창문 모양대로 우주 이미지를 잘라내야 한다. 여기서 어려운 점은 카메라가 조금이라도 흔들리면 마스크 위치도 함께 움직여야 한다는 것이다 — 이것이 **모션 트래킹(Motion Tracking)**이 필요한 이유다. AE의 트래킹 기능을 사용해 창문 코너 포인트 4개를 트래킹하고, 이를 마스크에 연결해보자.

단순히 우주 이미지를 창문에 끼워넣기만 하면 어색하게 보인다. 현실감을 높이려면 무엇이 필요할까? 창문 유리의 반사, 창문 프레임의 그림자가 우주 이미지 위에 드리워지는 효과, 빛이 교실 안으로 들어오는 느낌 — 이런 요소들을 어떻게 추가할 수 있을까? 완벽한 정답은 없다, 네가 관찰하고 실험해봐라.

만약 Blender에서 간단한 우주 배경(별, 행성)을 직접 3D로 렌더링해 합성에 사용한다면, Project A에서 배운 렌더링 지식이 여기서 연결된다. 3D 렌더링 결과물과 실사 영상을 합성하는 것 — 이것이 바로 할리우드 VFX의 기본 워크플로우다.


마치며 — 평가 준비

이 세 프로젝트를 완성하면 너는 3D 기초(25점), 모션그래픽(50점), **사운드 싱크(25점)**의 평가 기준에 준비가 된 것이다. 중요한 것은 기술적 완성도만이 아니다 — "왜 이 선택을 했는가?"를 설명할 수 있는 것이 전문가와 초보자를 가르는 차이다. 렌더 샘플을 왜 128로 정했는지, 인포그래픽에서 왜 이 색상을 선택했는지, 합성에서 왜 이 블렌딩 모드를 썼는지 — 이런 결정의 이유를 말로 표현할 수 있을 때 비로소 기술이 진짜 실력이 된다. 3D 파이프라인의 전체 흐름, PBR의 원리, 모션그래픽에서 움직임의 의미, 합성의 레이어 구조 — 이 모든 것이 하나의 완성된 영상 안에서 연결된다는 것을 느꼈다면, 이번 단계의 핵심을 이해한 것이다.

← 단계 2단계 4