일반상대성 원리(GR)는 텐서 방정식(tensor equation)이므로 이를 이해하려면 tensor를 학습하여야만 합니다. 그 기초로서,
vector란 수학/물리학에서 크기와 방향을 갖는 기하적 객체(geometric object)이며, scalar란 크기만을 갖는 객체(object)입니다.
vector space Rⁿ 이란 vector들이 서로 더해지거나, scalar와의 곱셈이 가능한 집합을 가리키며, 이때 n개의 성분을 갖습니다.
I-1 Tensor의 개념
Tensor란 개념적으로는 '정의된 좌표계(coordinate system)의 성분을 갖도록 한 vector의 확장'이라고 할 수 있습니다.
이는 tensor로 표기된 모든 방정식과 법칙들이 '좌표계 간의 이동과 회전 등의 각종 변환에 대한 불변성'을 유자하기 위함입니다.
특정 tensor가 정의되어 있는 좌표계는 선형 독립한 기저(linearly independent basis) tensor들로써 식별할 수 있습니다.
* 선형 독립(linear independence): 하나의 vector space에 속하는 vector의 집합에서 어떤 vector라도 다른 vector들의
linear combination(선형 결합)으로 정의할 수 없는 경우를 말합니다. ↦ 𝐀: matrix of vectors, det 𝐀 ≠ 0 ※
I-2 (4.2) Tensor의 차수(order)
Tensor u = u1e1 + u2e2 + ... + unen [en: unit baisis(단위 기저) tensor, ∥en∥= 1] * Cartesian 좌표계의 경우
N차 tensor는 3차원에서는 3n개의, 일반적 M차원에서는 Mn개의 basis tensors와 성분(componets)을 갖습니다.
0차 tensor는 한개의 성분을 갖는 scalar이며, 1차 tensor는 vector로서 3차원에서는 3^1 = 3개의 성분을 갖으며,
2차 tensor σ𝑖𝑗는 M차원에서 M^2개의 성분을 가지므로 3차원에서 3^2 = 9개, 4차원에서 4^2 = 16개의 성분을 갖습니다.
Tensor σ = [σ𝑖𝑗] =
⌈ σ11 σ12 σ13 ⌉
┃ σ21 σ22 σ23 ┃ (𝑖,𝑗 = 1,2,3) [4.2.6]
⌊ σ31 σ32 σ33 ⌋
I-3 (4.3) Tensor의 지수(index)
Tensor는 차수와 같은 숫자의 지수(index)를 가집니다. 즉, 2차는 2개, 3차는 3개, 4차는 4개의 지수(ex: C𝑖𝑗𝑘𝑙)를 가집니다.
Tensor의 연산은 1차 tensor인 vector의 경우와 유사하게 되는데, 다만 그 지수(index)는 꼭 일치해야만 합니다. ex) C𝑗𝑘 = A𝑗𝑘 + B𝑗𝑘
* Einstein's Summation Convention(합의 규약) <- ※ superscript(위첨자)와 subscript(아래첨자)간 중복 가능
a) Tensor로 표기된 식에서 중복 지수(dummy index)는 합의 기호(∑)를 대치합니다. ex) A𝑘𝑘 = ∑ A𝑘𝑘 (𝑘=1,2,3) = A11 + A22 + A33
b) 같은 항에서 중복 지수는 2개를 넘을 수 없습니다. ex) v = ϵ𝑖𝑗𝑘 a𝑖b𝑗c𝑗 [𝑗가 3개라 틀림] ⇒ v = ϵ𝑖𝑗𝑘 a𝑖b𝑗c𝑘
* Free index rule(자유 지수 규칙)
Tensor 방정식에서 양쪽 변의 자유 지수(free index)는 동일해야 합니다. ex) t𝑘 = σ𝑗𝑘 n𝑘 [틀림] ⇒ t𝑗 = σ𝑗𝑘n𝑘
I-3 (4.5) 특별한 종류의 Tensor
a) Kronecker delta: δ𝑖𝑗 = 0 (𝑖≠𝑗), 1 (𝑖=𝑗) [4.5.1] <- 나중에 나오는 unit (단위) tensor의 지수 표기임.
δ11 = 1 δ12 = 0 δ13 = 0
δ21 = 0 δ22 = 1 δ23 = 0 [4.5.2]
δ31 = 0 δ32 = 0 δ33 = 1
Kronecker delta는 결합된 다른 tensor의 동일한 지수를 자신의 다른 지수로 대치하는 중요한 역할의 성질을 갖습니다.
ex1) δ𝑗𝑘 x𝑗 = x𝑘 ex2) δ𝑖𝑚 δ𝑗𝑛 T𝑚𝑛 = T𝑖𝑗
b) Permutation symbol(순환 기호): 𝑒𝑖𝑗𝑘 = {1 (123, 231, 312), -1 (321, 213, 132), 0 (이외의 경우)} [4.5.6]
ex) 𝑒𝑗𝑘𝑘 = e𝑗11 + 𝑒𝑗22 + 𝑒𝑗33 = 0 + 0 + 0 = 0. ∵ 각기 모두가 '이외의 경우'이므로
c) Tensor와 Cartesian 좌표계:
ex) Carttesian 좌표계 3차원 2차 tensor *
Tensor σ = [σ𝑖𝑗] =
⌈ σ11 σ12 σ13 ⌉
┃σ21 σ22 σ23┃ (𝑖,𝑗 = 1,2,3) [4.5.12]
⌊ σ31 σ32 σ33 ⌋
I-4 Tensor의 기본 연산
a) 5.1 Dot product (내적)
a ∙ b = (a𝑖 𝐞𝑖) ∙ (b𝑗 𝐞𝑗) = a𝑖b𝑗 𝐞𝑖 ∙ 𝐞𝑗 = a𝑖b𝑗 δ𝑖𝑗 = a𝑖b𝑖; δ𝑖𝑗 ≡ 𝐞𝑖 ∙ 𝐞𝑗 <- kronecker delta 정의 [5.1.1-4]
b) 5.2 Cross product (외적)
a ⨯ b = (a𝑖 𝐞𝑗) ⨯ (b𝑗 𝐞𝑗) = a𝑖b𝑗 𝐞𝑖 ⨯ 𝐞𝑗 [5.2.1]
a ⨯ b =
∣ 𝐞1 𝐞2 𝐞3 ∣
∣ a1 a2 a3 ∣ = 𝑒𝑖𝑗𝑘 a𝑖b𝑗 𝐞𝑘 <- 𝐞𝑖 ⨯ 𝐞𝑗 = 𝑒𝑖𝑗𝑘 𝐞𝑘 [5.2.2,3]
∣ b1 b2 b3 ∣
c) 5.3 Triple dot product (삼중 내적)
(a ⨯ b) ∙ c =
∣ a1 a2 a3 ∣ ∣ a1 b1 c1 ∣
∣ b1 b2 b3 ∣ = ∣ a2 b2 c2 ∣ = 𝑒𝑖𝑗𝑘 a𝑖b𝑗c𝑘; 𝑒𝑖𝑗𝑘 ≡ (𝐞𝑖 ⨯ 𝐞𝑗) ∙ 𝐞𝑘 <- permutation symbol 정의 [5.3.1,2]
∣ c1 c2 c3 ∣ ∣ a3 b3 c3 ∣
I-5 (5.4,5) Dyad의 개념과 연산
a) Dyad와 dyad product(곱) **
dyad란 두 vector의 곱으로 이루어진 2차 tensor를 말하며, 이 곱을 dyad product라 합니다. → a ⊗ b or a b [5.4.1,2]
dyad란 2차 tensor로서 components와 basis dyad로 구성됩니다. → a ⊗ b = a𝑖b𝑗 𝐞𝑖 ⊗ 𝐞𝑗 = T = T𝑖𝑗 𝐞𝑖 ⊗ 𝐞𝑗 [5.5.2]
b) Basis(기저) dyad
각각의 identity basis(단위 기저) vector의 곱이므로,
ex) 𝐞1 ⊗ 𝐞2 =
⌈ 1 ⌉
┃0┃ [ 0 1 0 ] = (결과: 아래 참조) [5.4.6]
⌊ 0 ⌋
전부를 계산했을 때 결과는... [5.4.7]
𝐞1 ⊗ 𝐞1 = 𝐞1 ⊗ 𝐞2 = 𝐞1 ⊗ 𝐞3 =
⌈ 1 0 0 ⌉ ⌈ 0 1 0 ⌉ ⌈ 0 0 1 ⌉
┃0 0 0┃ ┃0 0 0┃ ┃0 0 0┃
⌊ 0 0 0 ⌋ ⌊ 0 0 0 ⌋ ⌊ 0 0 0 ⌋
𝐞2 ⊗ 𝐞1 = 𝐞2 ⊗ 𝐞2 = 𝐞2 ⊗ 𝐞3 =
⌈ 0 0 0 ⌉ ⌈ 0 0 0 ⌉ ⌈ 0 0 0 ⌉
┃1 0 0┃ ┃0 1 0┃ ┃0 0 1┃
⌊ 0 0 0 ⌋ ⌊ 0 0 0 ⌋ ⌊ 0 0 0 ⌋
𝐞3 ⊗ 𝐞1 = 𝐞3 ⊗ 𝐞2 = 𝐞3 ⊗ 𝐞3 =
⌈ 0 0 0 ⌉ ⌈ 0 0 0 ⌉ ⌈ 0 0 0 ⌉
┃0 0 0┃ ┃0 0 0┃ ┃0 0 0┃
⌊ 1 0 0 ⌋ ⌊ 0 1 0 ⌋ ⌊ 0 0 1 ⌋
c) Identity(단위) dyad
I =
⌈ 1 0 0 ⌉
┃0 1 0┃ = δ𝑖𝑗 𝐞𝑖 ⊗ 𝐞𝑗 = 𝐞𝑖 ⊗ 𝐞𝑖 [5.5.28]
⌊ 0 0 1 ⌋
d) 5.6 Dyad 연산 <- [Wikipedia] 'Dyadics' 'Tensor product' [link] <- ※ 앞으로 자주 쓰임.
∘ Dyad와 vector dot product: (a ⊗ b) ∙ c = a (b ∙ c), c ∙ (a ⊗ b) = (c ∙ a) b, a ∙ (b ⊗ c) ∙ d = (a ∙ b)(c ∙ d) [5.6.3]
∘ Dyad와 vector cross product: (a ⊗ b) ⨯ c = a (b ⨯ c), c ⨯ (a ⊗ b) = (c ⨯ a) b
∘ Dyad와 dyad dot product: (a ⊗ b) ∙ (c ⊗ d) = (b ∙ c) (a ⊗ d) [5.6.8]
∘ Dyad의 double dot product(이중 점곱): (a ⊗ b) : (c ⊗ d) = (a ∙ c) (b ∙ d) [5.6.16]
I-6 Tensor의 특성과 연산
a) 6.1 Tensor dot product
∘ Contraction(축약): index(지수)를 중복해서 합하면 order(차수)가 2차 낮아짐. ex) 𝐀 - 2차 tensor, 𝐀𝑘𝑘- 0차 tensor, scalar
2차 tensor의 dot product -> 2차 tensor, 2차 tensor의 double product -> 0차 tensor
∘ Tensor의 성분 구하기: 그 basis vector를 dot product함. ex) 𝐀 ∙ 𝐞𝑖 = A𝑖𝑗 𝐞𝑖 ⊗ 𝐞𝑗∙ 𝐞𝑖 = A𝑖𝑗 𝐞𝑖 δ𝑗𝑖 = A𝑖1+ A𝑖2+ A𝑖3 [6.1.22-4]
∘ 2차 tensor의 dot product: 𝐀2 = 𝐀 ∙ 𝐀, 𝐀3 = 𝐀 ∙ 𝐀 ∙ 𝐀 [6.1.33,34]
∘ double dot product: 𝐀 : 𝐁 = A𝑖𝑗 𝐞𝑖 ⊗ 𝐞𝑗 : B𝑘𝑙 𝐞𝑘 ⊗ 𝐞𝑙 = A𝑖𝑗B𝑘𝑙 (𝐞𝑖 ⊗ 𝐞𝑗 : 𝐞𝑘 ⊗ 𝐞𝑙) = A𝑖𝑗B𝑘𝑙 (𝐞𝑖 ∙ 𝐞𝑘)(𝐞𝑗 ∙ 𝐞𝑙) = A𝑖𝑗B𝑘𝑙 δ𝑖𝑘 δ𝑗𝑙 = A𝑖𝑗B𝑖𝑗
<- ∵ (a ⊗ b) : (c ⊗ d) = (a ∙ c) (b ∙ d); 두번의 축약 수행 후 0차 tensor, scalar가 됨. [6.1.35-40]
b) 6.2 Identity(단위) tensor
∘ 2차 identity tensor: 𝐈 = δ𝑖𝑗 𝐞𝑖 ⊗ 𝐞𝑗, 𝐈 ∙ 𝐚 = 𝐚 [6.2.6,10]
∘ Trace(대각합): 𝐀 : 𝐈 = tr(𝐀) ≡ 𝐀𝑘𝑘 = 𝐀11 + 22 + 33 [6.2.11]
tr(𝐀) = tr(𝐀T) = A𝑖𝑖, 𝐀 : 𝐁 = A𝑖𝑗B𝑖𝑗, tr(𝐀2) = tr(𝐀 ∙ 𝐀) = 𝐀 ∶ 𝐀 = A𝑖𝑗A𝑖𝑗 [6.2.12-15]
∘ Tensor의 크기: ∥𝐀∥= √ (𝐀 : 𝐀) = √ tr(𝐀2) = √ A𝑖𝑗A𝑖𝑗 [6.2.17,18]
c) 6.3 Tensor의 inverse(역)
∘ Tensor와 matrix(행렬): tensor의 inverse 𝐀-1 or [A𝑖𝑗]-1, 𝐀 ∙ 𝐀-1 = 𝐈 <- 2차 identity(단위) tensor [6.3.1,2]
∘ Determinant: det 𝐀, minor determinant: 𝑀𝑖𝑗, cofactor: Ȃ = (-1)𝑖+𝑗 𝑀𝑖𝑗 [6.3.5,6]
det 𝐀T = det 𝐀, det (𝐀 𝐁) = (det 𝐀) (det 𝐁), det 𝐀-1 = 1 / det 𝐀 [6.3.12-14]
∘ Inverse matrix(역행렬): 𝐀-1 = (Ȃ)T/ det 𝐀 <- ※ 중요함; (𝐀-1)-1 = 𝐀, (𝐀T)-1 = (𝐀-1)T [6.3.12]
∘ Orthogonal(직교) tensor : 𝐀-1 = 𝐀T, 𝐀 ∙ 𝐀-1 = 𝐀 ∙ 𝐀T = 𝐈 [6.3.25,26]
d) 6.4 Eigenvalue(고유값)의 문제>
(𝐀 - λ𝐈) ∙ 𝐱 = 0 λ: eigenvalue, 𝐱: eigenvector , 𝐈: identity vector [6.4.1]
det (𝐀 - λ𝐈) = 0 [6.4.2]
λ3 - 𝐼 λ2 + 𝐼𝐼 λ2 - 𝐼𝐼𝐼 = 0 [6.4.3]
𝐼 = tr𝐀 = A 𝑖𝑖 , 𝐼𝐼 = 1/2[(tr𝐀)2 - (tr(𝐀2)] = 1/2[(A𝑖𝑖 A𝑗𝑗 - A𝑖𝑗 A𝑖𝑗)], 𝐼𝐼𝐼 = det 𝐀 = 𝑒𝑖𝑗𝑘 A1𝑖 A2𝑗 A3𝑘 [6.4.5,6] ***
e) 6.5 Determinant와 permutaion symbol(순환 기호)
∘ det 𝐀 = det[A𝑖𝑗] = 𝑒𝑖𝑗𝑘 A1𝑖 A2𝑗A3𝑘 = 𝑒𝑖𝑗𝑘 A𝑖1A𝑗2A𝑘3 [6.5.2]
∘ (𝐚 ⨯ 𝐛 ∙ 𝐜)(𝐝 ⨯ 𝐞 ∙ 𝐟) = <- ※ II-6 f)에서 사용; det 𝐀T = det 𝐀, det (𝐀 𝐁) = (det 𝐀) (det 𝐁) 활용 [6.5.25]
∣ 𝑎1 𝑎2 𝑎3 ∣ ∣ 𝑑1 𝑒1 𝑓1 ∣ ∣ 𝐚 ∙ 𝐝 𝐚 ∙ 𝐞 𝐚 ∙ 𝐟 ∣
∣ 𝑏1 𝑏2 𝑏3 ∣ ∣ 𝑑2 𝑒2 𝑓2 ∣ = ∣ 𝐛 ∙ 𝐝 𝐛 ∙ 𝐞 𝐛 ∙ 𝐟 ∣
∣ 𝑐1 𝑐2 𝑐3 ∣ ∣ 𝑑3 𝑒3 𝑓3 ∣ ∣ 𝐜 ∙ 𝐝 𝐜 ∙ 𝐞 𝐜 ∙ 𝐟 ∣
*, ** 상대성 이론은 시간 차원을 포함한 4차원 2차 tensor인 4-vector dyad를 사용함.