电动力学笔记(二)矢量分析之指标法
fengxiaot Lv4

电动力学的数学基础之一是矢量分析。本文介绍推导矢量分析公式的另一种方法——指标法。指标法的本质是通过爱因斯坦求和约定,将各个坐标分量简记为一通式,并省略求和符号。指标法充分利用各分量的对称性,因而形式上较为简单,运算上难以出错,且能够处理较复杂的算式和高阶张量。由于完全在笛卡尔坐标系下进行运算,本文不考虑指标的协变与逆变。


爱因斯坦求和约定

定义

  1. 求和约定:当式子中任何一个指标出现了两次,并且一次为上标,一次为下标,那么该式表示的实际上是对这个角标一切可能值的求和。
  2. 哑指标:在表达式的某一单项式之中出现且仅出现 22 次的上标/下标,称为哑指标。哑指标的符号与表达式的值无关。对这种指标应当进行遍历求和。哑指标可以把多项式缩写成一项。
  3. 自由指标:在表达式或方程中自由指标可以出现多次,但不得在同项内重复出现两次。自由指标可以把多个方程缩写成一个方程。
  4. 指标取值:一般拉丁字母 i,j,k,l,m,n,p,q,ri,j,k,l,m,n,p,q,r 认为可取 1,2,31,2,3,而希腊字母 μ,ν,ρ,σ,τ\mu,\nu,\rho,\sigma,\tau 认为可取 0,1,2,30,1,2,31,2,3,41,2,3,4

例子

向量的表示

向量 α=a1e1+a2e2+a3e3\boldsymbol{\alpha} = a_1 \bm{e_1} + a_2 \bm{e_2} + a_3 \bm{e_3},可以表示为

α=aiei\boldsymbol{\alpha} = a_i \boldsymbol{e}_i

这便代表了

α=i=13aiei=j=13ajej=k=13akek\boldsymbol{\alpha} = \sum_{i=1}^3 a_i \boldsymbol{e}_i = \sum_{j=1}^3 a_j \boldsymbol{e}_j = \sum_{k=1}^3 a_k \boldsymbol{e}_k

ii 可被更换成 j,kj,k 说明 ii 是哑指标。

方程的表示

一个三元一次线性方程组

{A11x1+A12x2+A13x3=b1A21x1+A22x2+A23x3=b2A31x1+A32x2+A33x3=b3\left\{\begin{matrix} A_{11} x_{1}+A_{12} x_{2}+A_{13} x_{3}=b_{1} \\ A_{21} x_{1}+A_{22} x_{2}+A_{23} x_{3}=b_{2} \\ A_{31} x_{1}+A_{32} x_{2}+A_{33} x_{3}=b_{3} \end{matrix}\right.

可以利用求和约定简记为

Aijxj=biA_{ij} x_j =b_i

其中 jj 是哑指标,ii 是自由指标。


Kronecker Delta

定义

Kronecker Delta 在线性代数里常用于表现正交性,定义为

δij={1if  i=j0if  ij\delta_{ij}=\begin{cases} 1 &\text{if} \;i=j \\ 0 &\text{if} \;i \neq j \end{cases}

性质

  1. δimδmj=δij\delta_{im} \delta_{mj} = \delta_{ij}

  2. εijkδkm=εijm\varepsilon^{ijk} \delta_{km} = \varepsilon^{ijm}

例子

假如 OxyzOxyz 坐标系中三个方向上的基矢分别为 e1,e2,e3\bm{e}_1,\bm{e}_2,\bm{e}_3,应当有

e1=[100]e_1=\begin{bmatrix}1 &0 & 0\end{bmatrix}

e2=[010]e_2 =\begin{bmatrix}0 &1 & 0\end{bmatrix}

e3=[001]e_3 =\begin{bmatrix}0 &0 & 1\end{bmatrix}

也就是

ei=[δi1δi2δi3]e_i = \begin{bmatrix} \delta_{i1} & \delta_{i2} & \delta_{i3} \end{bmatrix}


Levi-Civita Symbol

定义

定义符号 εijk\varepsilon_{ijk} 满足

εijk={1if  (i,j,k)  is an even permutation of  (1,2,3)1if  (i,j,k)  is an odd permutation of  (1,2,3)0if two or more indices are equal\varepsilon_{ijk}=\begin{cases} 1 &\text{if} \; (i,j,k) \; \text{is an even permutation of} \; (1,2,3) \\ -1 &\text{if} \; (i,j,k) \; \text{is an odd permutation of} \; (1,2,3) \\ 0 &\text{if two or more indices are equal} \end{cases}

性质

显然有

εijkεlmn={1if  (i,j,k)  and  (l,m,n)  have the same parity1if  (i,j,k)  and  (l,m,n)  have the opposite parity0if two or more indices in one symbol are equal\varepsilon_{i j k} \varepsilon_{l m n}= \begin{cases} 1 &\text{if} \; (i,j,k) \; \text{and} \; (l,m,n) \; \text{have the same parity} \\ -1 &\text{if} \; (i,j,k) \; \text{and} \; (l,m,n) \; \text{have the opposite parity} \\ 0 &\text{if two or more indices in one symbol are equal} \end{cases}

还可以推出公式[1]

εijkεlmn=δilδimδinδjlδjmδjnδklδkmδkn\varepsilon_{i j k} \varepsilon_{l m n}= \begin{vmatrix} \delta_{i l} & \delta_{i m} & \delta_{i n} \\ \delta_{j l} & \delta_{j m} & \delta_{j n} \\ \delta_{k l} & \delta_{k m} & \delta_{k n} \end{vmatrix}

其中 δij\delta_{ij} 是 Kronecker Delta。

推论

  1. εijkεimn=δjmδknδjnδkm\varepsilon_{i j k} \varepsilon_{i m n}=\delta_{j m} \delta_{k n}-\delta_{j n} \delta_{k m}
  2. εijkεpqk=δipδjqδiqδjp\varepsilon_{i j k} \varepsilon_{pqk}=\delta_{i p} \delta_{j q}-\delta_{i q} \delta_{j p}

矢量运算的书写

矩阵

对于向量来说,逆变向量 contravariant vector 应当写上标,协变向量 covariant vector 应当写下标。

对于矩阵来说,矩阵 MM 的第 ii 行第 jj 列的元素应当记为 MjiM^i_j,这意味着

vi=[v1v2vn],  vj=[v1v2vn]\bm{v}^i= \begin{bmatrix} v^1 \\ v^2 \\ \vdots \\ v^n \end{bmatrix} , \; \bm{v}_j = \begin{bmatrix} v_1 & v_2 & \cdots & v_n \end{bmatrix}

行列式

行列式的逆序数定义为

detM=a11a12a1na21a22a2nan1an2ann=j1j2jn(1)τ(j1j2jn)a1j1a2j2anjn\det M= \begin{vmatrix} a_{11} & a_{12} & \cdots & a_{1 n} \\ a_{21} & a_{22} & \cdots & a_{2 n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n 1} & a_{n 2} & \cdots & a_{n n} \end{vmatrix}= \sum_{j_{1} j_{2} \cdots j_{n}}(-1)^{\tau\left(j_{1} j_{2} \cdots j_{n}\right)} a_{1 j_{1}} a_{2 j_{2}} \cdots a_{n j_{n}}

每一项前面的系数 (1)τ(j1j2jn)(-1)^{\tau \left(j_{1} j_{2} \cdots j_{n}\right)} 恰好与 εj1j2jn\varepsilon_{j_1 j_2 \cdots j_n} 的定义相同,于是利用爱因斯坦求和约定

detM=εijkai1aj2ak3\det M = \varepsilon^{ijk} a^1_i a^2_ja^3_k

对于给定行指标的一个排列 i1i2ini_1 i_2 \cdots i_n 时的行列式,由线性代数知识知

detM=j1j2jn(1)τ(i1i2in)+τ(j1j2jn)ai1j1ai2j2ainjn\det M= \sum_{j_{1} j_{2} \cdots j_{n}}(-1)^{\tau\left(i_{1} i_{2} \cdots i_{n}\right)+\tau\left(j_{1} j_{2} \cdots j_{n}\right)} a_{i_1 j_{1}} a_{i_2 j_{2}} \cdots a_{i_n j_{n}}

于是再次利用爱因斯坦求和约定,有

εpqrdetM=εijkaipajqakr\varepsilon_{pqr} \det M= \varepsilon^{ijk} a^p_i a^q_j a^r_k

注意全指标求和的仅有列元素,因此 εpqr\varepsilon_{pqr} 应当放在方程的左边。

点乘

基矢 ei\bm{e}_{i}ej\bm{e}_{j} 点乘

eiej=δij\bm{e}_{i} \cdot \bm{e}_{j}=\delta_{i j}

向量 a\bm{a}b\bm{b} 点乘为

ab=aieibjej=aibjδij\bm{a} \cdot \bm{b} = a_i \bm{e}_i b^j \bm{e}^j = a_ib_j\delta_{ij}

叉乘

基矢 ei\bm{e}_{i}ej\bm{e}_{j} 叉乘

ei×ej=e1e2e3δ1iδ2iδ3iδ1jδ2jδ3j=εpqrepδqiδrj\bm{e}_{i} \times \bm{e}_{j}= \begin{vmatrix} \bm{e}_{1} & \bm{e}_{2} & \bm{e}_{3} \\ \delta^i_1 & \delta^i_2 & \delta^i_3 \\ \delta^j_1 & \delta^j_2 & \delta^j_3 \end{vmatrix} = \varepsilon^{pqr} \bm{e}_{p} \delta^{i}_{q} \delta^{j}_{r}

向量 a\bm{a}b\bm{b} 叉乘

a×b=a1a2a3b1b2b3e1e2e3=εpqrapbqer\bm{a} \times \bm{b} = \begin{vmatrix} a_1 & a_2 &a_3 \\ b_1 & b_2 &b_3 \\ \bm{e}_{1} & \bm{e}_{2} & \bm{e}_{3} \end{vmatrix} = \varepsilon^{pqr} a_p b_q \bm{e}_r

三重积

基矢 e1,e2,e3\bm{e}_1,\bm{e}_2,\bm{e}_3 之三重积为

ei(ej×ek)=δ1iδ2iδ3iδ1jδ2jδ3jδ1kδ2kδ3k=εpqrδpiδqjδrk\bm{e}_i \cdot (\bm{e}_j \times \bm{e}_k) = \begin{vmatrix} \delta^i_1 & \delta^i_2 & \delta^i_3 \\ \delta^j_1 & \delta^j_2 & \delta^j_3 \\ \delta^k_1 & \delta^k_2 & \delta^k_3 \end{vmatrix} = \varepsilon_{pqr} \delta^i_p \delta^j_q \delta^k_r

矢量 a,b,c\bm{a}, \bm{b}, \bm{c} 之三重积为

a(b×c)=a1a2a3b1b2b3c1c2c3=εpqrapbqcr\boldsymbol{a} \cdot (\boldsymbol{b} \times \boldsymbol{c}) = \begin{vmatrix} a_1 & a_2 &a_3 \\ b_1 & b_2 &b_3 \\ c_1 & c_2 &c_3 \end{vmatrix} = \varepsilon_{pqr} a_p b_q c_r

三重叉积

我们熟知

a×(b×c)=(ac)b(ab)c\bm{a} \times (\bm{b} \times \bm{c}) = (\bm{a} \cdot \bm{c}) \bm{b} - (\bm{a} \cdot \bm{b}) \bm{c}

下面证明这个式子

a×(b×c)=εijkai(b×c)jek=εijkaiεpqjbpcqek=εijkεpqjaibpcqek=εikjεpqjaibpcqek\begin{aligned} \bm{a} \times (\bm{b} \times \bm{c}) &= \varepsilon_{ijk}a_i (\boldsymbol{b} \times \boldsymbol{c})_j \bm{e}_k \\ &= \varepsilon_{ijk} a_i\varepsilon_{pqj}b_p c_q \bm{e}_k \\ &= \varepsilon_{ijk}\varepsilon_{pqj} a_i b_p c_q \bm{e}_k \\ &= -\varepsilon_{ikj}\varepsilon_{pqj} a_i b_p c_q \bm{e}_k \end{aligned}

由推论继而得到

a×(b×c)=(δqiδpkδpiδqk)aibpcqek=δqiδpkaibpcqekδpiδqkaibpcqek=(δqiaicq)bp(δpkek)(δpiaibp)cq(δqkek)=(ac)bpep(ab)cqeq=(ac)b(ab)c\begin{aligned} \bm{a} \times (\bm{b} \times \bm{c}) &= (\delta^i_q\delta^k_p-\delta^i_p \delta^k_q)a_i b_p c_q \bm{e}_k\\ &= \delta^i_q\delta^k_p a_i b_p c_q \bm{e}_k-\delta^i_p \delta^k_q a_i b_p c_q \bm{e}_k \\ &= (\delta^i_q a_i c_q) b_p (\delta^k_p \bm{e}_k)- (\delta^i_p a_i b_p) c_q (\delta^k_q \bm{e}_k ) \\ &= (\bm{a} \cdot \bm{c}) b_p\bm{e}_p- (\bm{a} \cdot \bm{b}) c_q \bm{e}_q \\ &= (\bm{a} \cdot \bm{c}) \bm{b} - (\bm{a} \cdot \bm{b}) \bm{c} \end{aligned}

哈密顿算子

哈密顿算子

=xi+yj+zk=eii\nabla = \frac{\partial }{\partial x} \boldsymbol{i} + \frac{\partial }{\partial y} \boldsymbol{j}+\frac{\partial }{\partial z} \boldsymbol{k} = \bm{e}_i \partial_i

梯度

φ=eiiφ\nabla\varphi= \bm{e}_i \partial_i \varphi

散度

A=iAjδji=iAi\nabla \cdot \bm{A} = \partial_i A_j \delta^i_j = \partial_i A_i

旋度

×A=εijkiAjek\nabla \times \bm{A} = \varepsilon_{ijk} \partial_i A_j \bm{e}_k

场论公式推导

技巧

  1. 推导过程中,εijk,δji,ei\varepsilon_{ijk},\delta^i_j,\bm{e}_i 可以任意调换位置,而 \partial 不可以,否则将改变其作用对象
  2. 偏微分算子满足 jδji=i\partial_j \delta^i_j = \partial_i

推导

  1. (AB)=B×(×A)+(B)A+A×(×B)+(A)B\nabla(\boldsymbol{A} \cdot \boldsymbol{B}) = \bm{B} \times (\nabla \times \bm{A}) + (\bm{B} \cdot \nabla) \bm{A} + \bm{A} \times (\nabla \times \bm{B}) + (\bm{A} \cdot \nabla) \bm{B}

  2. ×(A×B)=(B)A(A)B+(B)A(A)B\nabla \times (\bm{A} \times \bm{B}) = (\bm{B} \cdot \nabla) \bm{A} - (\nabla \cdot \bm{A}) \bm{B} + (\nabla \cdot \bm{B}) \bm{A} - (\bm{A} \cdot \nabla) \bm{B}


  1. Simmonds, J. G. (2012). A Brief on Tensor Analysis (Undergraduate Texts in Mathematics) (Softcover reprint of the original 2nd ed. 1994 ed.). Springer. ↩︎