일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- RG flow
- pedagogy
- Tensor Calculus
- Quantum Field Theory
- induced emf
- scalar QED
- Quantum Mechanics
- Pen Art
- bayesian
- 프레이리
- Rigid Body Dynamics
- Orbital Dynamics
- Complex analysis
- Conformal Mapping
- Covariant derivatives
- Hamiltonian Mechanics
- higher derivatives
- Noether's thm
- Quantum electodynamics
- Classical Mechanics
- Paulo Freire
- electromotive force
- Lagrangian Mechanics
- Taylor expansion
- Dirichlet problem
- spinor QED
- Topological Tensor
- Electromagnetics
- General Relativity
- Theories of Education
Archives
- Today
- Total
Physvillain
Basic Tensor Calculus (9) - Vector Calculus Expressions 본문
General Relativity
Basic Tensor Calculus (9) - Vector Calculus Expressions
Physvillain 2020. 10. 30. 10:59이 글은 2020.01.14에 작성됨.
원본 : physvillain.blogspot.com/2020/01/basic-tensor-calculus.html
가장 먼저 gradient부터 살펴보자. scalar의 covariant derivative는 basis를 포함하지 않으므로 그냥 partial derivative와 같다. 일반적으로 $(\nabla f)_{(i)}=h_{(i)}g^{ij}\partial_j f$인데, orthogonal한 좌표계로 잡으면 $(\nabla f)_{(i)}=(\partial_i f)/h_{(i)}$으로 간단해진다. 따라서 gradient를 physical component로 다음과 같이 간단히 쓸 수 있다.
THM 9.1. The gradient of a scalar is expressed by
$$\begin{align*} (\nabla f)_{(i)} &=h_{(i)} g^{ij} \partial_j f & (general) \\ &=\partial_i f/h_{(i)} & (orthogonal) \end{align*}$$
vector의 divergence는 basis의 미분 역시 고려해야하므로, covariant derivative의 정의에 의해 다음과 같은 꼴이 된다.
$$\nabla_i A^i = \partial_i A^i + \Gamma^i_{ij}A^j$$
그런데 여기서 last term을 다음과 같이 쓰고 나면
$$\begin{align*} \Gamma^i_{ij} &=\frac{1}{2}g^{ki}(\partial_i g_{jk} + \partial_j g_{ki} - \partial_k g_{ij}) \\ &= \frac{1}{2}(g^{ki}\partial_i g_{jk}+g^{ki}\partial_j g_{ki}-g^{ik}\partial_i g_{kj} = \frac{1}{2}g^{ki}\partial_j g_{ki} \end{align*}$$
divergence는 다시 다음과같은 모양이 된다.
$$\nabla_i A^i = \partial_i A^i + \frac{A^i}{2}g^{ik}\partial_i g_{jk}$$
마지막 항이 triple sum으로 상당히 계산이 힘들다. 이것을 다음의 Jacobi formula로 간단히 나타낼 수 있다.
THM 9.2. (Jacobi formula) Let $A_{ij}$ be a rank 2 covariant tensor of dimension $m$ ($m\times m$ matrix), and let $A=\det{A_{ij}}$ be its determinant. Let $cf(A_{ij})=\mathcal{A}^{ji}$ be the cofactor of $A_{ij}$ ($(-1)^{i+j}$ times determinants of the submatrix obtained from $A$ by deleting $i^{th}$ row and $j^{th}$ columns of $A$). Then $\partial_k A = \mathcal{A}^{ji} \partial_k A_{ij}$.
$A$를 $A_{ij}$의 함수로 보면,
$$\partial_k A = \frac{\partial A}{\partial A^{ij}} \partial_k Q_{ij}$$
그런데 여기서 determinant는 한 row나 column아무거나 잡아서 그 성분들과 cofactor들을 곱해주면 얻을 수 있다.
$$A=\sum_{j=1}^{m}A_{ij} cf(A_{ij}) = \sum_{j=1}^m A_{ij} \mathcal{A}^{ji} \;\;\;\; for\;\;any\;\;i=1,2,\cdots,m \;\;(no\;\;sum\;\;on\;\;i) \\ \Rightarrow \;\;\;\; \frac{\partial A}{\partial A_{ik}}=\sum_{j} \left( \frac{\partial A_{ij}}{\partial A_{ik}} \mathcal{A}^{ji}+A_{ij}\frac{\partial \mathcal{A}^{ji}}{\partial A_{ik}} \right)$$
$\mathcal{A}^{ji}$는 i-row, j-column을 제외한 나머지들을 변수로 받는다. 따라서 $\partial\mathcal{A}^{ji}/\partial A_{ik}=0$이다. 따라서 위의 정리가 증명된다.
$$\frac{\partial A}{\partial A_{ik}}=\sum_{j} \delta_j^{\;k} \mathcal{A}^{ji} = \mathcal{A}^{ki}$$
이제 $A_{ij}=g_{ij}$라 해보자. THM 9.1.에 따르면 $\partial_k g = \mathcal{G}^{ji} \partial_k g_{ij}$ 이다. 여기서 $\mathcal{G}^{ji}$는 $g_{ij}$의 cofactor이고 $g_{ij}$의 inverse는 $g^{ji}$이므로 inverse matrix formula를 생각해보면
$$g^{ji}=\frac{1}{g} \mathcal{G}^{ji} \;\;\;\; \Rightarrow \;\;\;\; \mathcal{G}^{ji}=g g^{ji}$$
이것을 그대로 대입하여 $\partial_k g = g g^{ij} \partial_k g_{ij}$를 얻는다. 따라서
$$g^{jk} \partial_i g_{jk} = \frac{1}{g} \partial_i g$$
이 식을 우리가 처음에 찾은 divergence에 대입하면 다음과 같은 간결한 표현을 얻는다.
THM 9.3. The divergence of a vector is expressed by
$$\nabla_i A^i = \partial_i A^i + A^i \frac{1}{2g}\partial_i g = \frac{1}{\sqrt{g}} \partial_i (\sqrt{g} A^i)$$
COR 9.1. For orthogonal coordinates only, $g_{ij}$ is diagonal and $\sqrt{g}=h_{(1)} h_{(2)} h_{(3)}$. Thus, the eq in DEF 9.2. becomes
$$\nabla_i A^i =\frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_{i} \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}} A_{(i)} \right) = \nabla \cdot \vec{A}$$
rank 2 tensor의 경우 내적은 바로 인접한 index끼리의 합이다. contravariant tensor로 예시를 들면 $(\nabla \cdot \mathbf{T})^j \equiv \nabla_i T^{ij}$이다.
DEF 9.1. The divergence of a contravariant tensor, $\mathbf{T}$, is the contraction of the covariant derivative with the 1st index of the tensor, and is itself a contravariant tensor of rank on less than $\mathbf{T}$. Specifically, for a rank 2 tensor,
$$(\nabla \cdot \mathbf{T})^j \equiv \nabla_i T^{ij}$$
성분은 언제나 physical component로 바꿀 수 있으므로, rank 2 tensor divergence의 physical component는
$$(\nabla \cdot \mathbf{T})_{(j)}=h_{(j)} \nabla_i T^{ij}$$
여기서 covariant derivative를 전개하면
$$\nabla_i T^{ij}=\partial_i T^{ij}+\Gamma^i_{ik} T^{kj}+\Gamma^j_{ik} T^{ik} = \frac{1}{\sqrt{g}} \partial_i (\sqrt{g} T^{ij}) + \Gamma^j_{ik} T^{ik}$$
$T_{(ik)}=h_{(i)} h_{(k)} T^{ik}$를 이용하고 orthogonal coordinate를 가정하면 다음을 얻는다. (자세한 과정은 생략한다.)
$$\Gamma^j_{ik}T^{ik} = \sum_i \frac{1}{h_{(j)}^2 h_{(i)}} \left( \left( T_{(ji)}+T_{(ij)} \right) \partial_i h_{(j)} - T_{(ii)} \partial_j h_{(i)} \right)$$
$$\frac{1}{\sqrt{g}}\partial_i (\sqrt{g} T^{ij})=\frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_i \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}h_{(j)}} \right)$$
따라서 다음과 같이 physical component로 tensor divergence를 표현할 수 있다.
COR 9.2. For the orthogonal coordinates only, divergence of a rank 2 tensor is expressed by
$$\begin{align*} (\nabla \cdot \mathbf{T})_{(j)} & = \frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_i \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}h_{(j)}} \right) \\ & + \sum_i \frac{1}{h_{(j)}^2 h_{(i)}} \left( \left( T_{(ji)}+T_{(ij)} \right) \partial_i h_{(j)} - T_{(ii)} \partial_j h_{(i)} \right) \end{align*}$$
이제 scalar의 laplacian을 생각해보자. gradient의 divergence이므로
$$\nabla^2 f = \nabla \cdot \nabla f$$
covariant derivative와 contravariant성분이 결합해야 하므로 $(\nabla f)^i = g^{ij} \partial_j f$를 divergence식에 대입하면 된다.
THM 9.4. The Laplacian of a scalar is expressed by
$$\nabla^2 f = \nabla_i (g^{ij} \partial_j f)=\frac{1}{\sqrt{g}}\partial_i (\sqrt{g} g^{ij} \partial_j f)$$
마찬가지로 orthogonal coordinate에선 $g^{ij}=\delta^{ij}/h_{(i)}h_{(j)}$이고 $\sqrt{g}=h_{(1)}h_{(2)}h_{(3)}$이므로 laplacian은 다음과 같이 정리된다.
COR 9.3. For the orthogonal coordinates only, Laplacian of a scalar is expressed by
$$\nabla^2 f = \frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_i \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}^2} \partial_i f \right)$$
다음으로 vector의 curl을 생각해보자. 1-form to 2-form이므로 3차원이 아닌 한 tensor form이 될 것임을 짐작할 수 있는데 아래와 같은 꼴을 생각해보자.
$$\nabla_j A^i-\nabla_i A^j = \partial_j A^i + \Gamma^i_{jk} A^k - \partial_i A^j - \Gamma^j_{ik} A^k$$
이 식은 Christoffel symbol이 서로 사라지지 않는다. 따라서 $\partial_j A^i - \partial_i A^j$는 tensor가 아니다. 하지만 index를 내려주면,
$$\nabla_j A_i - \nabla_i A_j = \partial_j A_i + \Gamma^k_{ij} A_k - \partial_i A_j - \Gamma^k_{ji} A_k = \partial_j A_i- \partial_i A_j$$
따라서 $\partial_j A_i- \partial_i A_j$는 성공적으로 rank 2 tensor의 선형결합으로 표현되었으므로 rank 2 tensor가 된다. 이것을 rank 2에서 rank 1(vector)로 만들어주기 위해 cross product에서 했던 것과 비슷하게 permutation을 이용한다.
DEF 9.2. Given a rank 1 covariant tensor, $A_j$, the contravariant rank 1 tensor curl is defined by
$$C^k \equiv \epsilon^{ijk}\partial_i A_j \;\;\;\; \Leftrightarrow \;\;\;\; C_{(k)}=\frac{h_{(k)}}{\sqrt{g}} \sum_{ijl} \varepsilon^{ijk} \partial_i \left( \frac{g_{lj}}{h_{(l)}} A_{(l)}\right)$$
마찬가지로 orthogonal coordinate에서는 정리하면 더 간단해진다.
COR 9.4. For the orthogonal coordinates only, physical curl is expressed by
$$C_{(k)}=\frac{h_{(k)}}{\sqrt{g}} \sum_{ij} \varepsilon^{ijk} \partial_i (h_{(j)}A_{(j)}) = (\nabla \times \vec{A})_{(k)}$$
vector 성분별로 laplacian을 취하는 경우(vector laplacian), 다음과 같은 invariant form (어느 좌표계든 관계없이 성립하는 identity)으로 전개하여 해석할 수 있다.
COR 9.5. The Laplacian of a vector can be written down by using the identity
$$\nabla^2 \vec{A}=\nabla ( \nabla \cdot \vec{A} ) - \nabla \times (\nabla \times \vec{A} )$$
비슷한 아이디어로 vector gradient도 $\nabla_i A_j = \partial_i A_j - \Gamma^k_{ij}A_k = (\nabla \vec{A})_{ij}$와 같이 쓸 수 있고 아주 단순하고 귀찮은 계산에 따르면 이것 역시 physical component로 바꾸어볼 수 있다. 11성분과 12성분을 계산한 뒤 일반화하면 다음을 얻는다.
COR 9.6. The vector gradient can be expressed by
$$(\nabla \vec{A})_{(ij)}=\begin{cases} \partial_i \left( \frac{A_{(i)}}{h_{(i)}} + \frac{\vec{A}\cdot \nabla h_{(i)}}{h_{(i)}}\right) & i=j \\ \frac{1}{h_{(i)}} \left( \partial_i A_{(j)} - \frac{A_{(i)}}{h_{(j)}} \partial_j h_{(i)} \right) & i\neq j \end{cases}$$
본 게시물은 A. Zee (2013). Einstein Gravity in a Nutshell와 David A. Clarke (2011). A Primer on Tensor Calculus을 참고하였음.
'General Relativity' 카테고리의 다른 글
Some connections between partial derivatives and covariant derivatives of metric (0) | 2021.11.25 |
---|---|
Flat manifold equivalent to vanishing Riemann Tensor? (0) | 2021.01.20 |
Basic Tensor Calculus (8) - Tensor Derivatives (0) | 2020.10.30 |
Basic Tensor Calculus (7) - Permutation symbol / tensor (Volume form tensor) (0) | 2020.10.30 |
Basic Tensor Calculus (6) - Invariance of Tensor Expressions (0) | 2020.10.30 |
Comments