スポンサーリンク

「余因子行列の性質〜逆行列が存在することの必要十分条件〜」【線型代数学の基礎シリーズ】行列式編 その6

線型代数学

本記事の内容

本記事は、余因子行列の性質である逆行列が存在することの必要十分条件について解説する記事です。

本記事を読むにあたり、余因子、余因子行列について知っている必要があるため、以下の記事も合わせてご覧ください。

本記事で言いたいこと

本記事で言いたい定理はシンプルです。
何を言いたいかというと、

定理0.

正方行列\(A\)が正則であるための必要十分条件は、\(\det(A)\neq0\)である。このとき、\(A\)の逆行列\(A^{-1}\)は $$ A^{-1}=\frac{1}{\det(A)}\tilde{A} $$ であたえられる。ただし、\(\tilde{A}\)は\(A\)の余因子行列である。

です。

要するに、\(\det(A)\)を計算して\(0\)でなければ必ず逆行列があって、余因子行列でもって逆行列が求まる、という話です。

逆行列のチャラい復習

逆行列をチャラく復習します。
逆行列とは以下でした。

逆行列

\(n\in\mathbb{N}\)、\(A\)を\(n\)次正方行列とする。このとき、 $$ AB=BA=I_n $$ を満たすような\(B\)が存在するとき、\(A\)は正則である、または正則行列であるという。 また、このとき\(B\)を\(A\)の逆行列といい $$ B=A^{-1} $$ と書く。

詳しくは、【線型代数学の基礎シリーズ】行列編 その3を御覧ください。

余因子、余因子行列のチャラい復習

余因子および余因子行列をチャラく復習します。
余因子および余因子行列とは以下でした。

余因子

\(n\in\mathbb{N}\)、\(n\)次正方行列\(A=\left( a_{ij}\right)\)から第\(i\)行と第\(j\)列を取り除いて得られたた\(n-1\)次正方行列を\(A_{ij}\)と書く。すなわち、\(A_{ij}\)は \begin{eqnarray} && \begin{array}{c} &&\quad \qquad \qquad j列目&&\\ &&\quad \qquad \qquad ↓&& \end{array}\\ && A=\begin{pmatrix} a_{11}&\cdots&a_{1j}&\cdots&a_{1n}\\ \vdots&&\vdots&&\vdots\\ a_{i1}&\cdots&a_{ij}&\cdots&a_{in}\\ \vdots&&\vdots&&\vdots\\ a_{n1}&\cdots&a_{nj}&\cdots&a_{nn}\\ \end{pmatrix} \begin{array}{c} \\ \\ \leftarrow i行目\\ \\ \\ \end{array} \end{eqnarray} としたとき、第\(i\)行と第\(j\)列を取り除いて得られた行列 \begin{eqnarray} && \begin{array}{c} &&&&&\ \ \ \qquad j列目を取り除いている&\\ &&&&&\ \ \ \qquad ↓&\\ \end{array}\\ &&A_{ij}=\left( \begin{array}{ccc|ccc} a_{11}&\cdots&a_{1\ j-1}&a_{1\ j+1}&\cdots&a_{1n}\\ \vdots&&\vdots&\vdots&&\vdots\\ a_{i-1\ 1}&\cdots&a_{i-1\ j-1}&a_{i-1\ j+1}&\cdots&a_{i-1\ n}\\ \hline a_{i+1\ 1}&\cdots&a_{i+1\ j-1}&a_{i+1\ j+1}&\cdots&a_{i+1\ n}\\ \vdots&&\vdots&\vdots&&\vdots\\ a_{n1}&\cdots&a_{n\ j-1}&a_{n\ j+1}&\cdots&a_{nn}\\ \end{array} \right) \begin{array}{c} \\ \\ \leftarrow i行目を取り除いている\\ \\ \\ \end{array} \end{eqnarray} である。
 このとき、 $$ \widetilde{a_{ij}}=(-1)^{i+j}\det(A_{ij}) $$ とおき、これを行列\(A\)における\(a_{ij}\)の余因子という。

余因子行列

\(n\in\mathbb{N}\)、\(A=\left( a_{ij}\right)\)を\(n\)次正方行列とする。このとき、\(a_{ij}\)の余因子\(\tilde{a}_{ij}\)を成分とする行列 $$ \begin{pmatrix} \tilde{a}_{11}&\tilde{a}_{12}&\cdots &\tilde{a}_{1n}\\ \tilde{a}_{21}&\tilde{a}_{22}&\cdots &\tilde{a}_{2n}\\ \vdots&\vdots& \ddots&\vdots\\ \tilde{a}_{n1}&\tilde{a}_{n2}&\cdots &\tilde{a}_{nn}\\ \end{pmatrix} $$ の転置行列 $$ \tilde{A}= \begin{pmatrix} \tilde{a}_{11}&\tilde{a}_{21}&\cdots &\tilde{a}_{n1}\\ \tilde{a}_{12}&\tilde{a}_{22}&\cdots &\tilde{a}_{n2}\\ \vdots&\vdots& \ddots&\vdots\\ \tilde{a}_{1n}&\tilde{a}_{2n}&\cdots &\tilde{a}_{nn}\\ \end{pmatrix} $$ を\(A\)の余因子行列という。

詳しくは【線型代数学の基礎シリーズ】行列式編 その5を御覧ください。

定理0.の証明のために必要な事実

ここでは本記事で言いたい定理0.を示すために必要な事実を証明します。

一言でいえば、

行列の積の行列式は、それぞれの行列の行列式の積と等しい。

ということです。
主張はシンプルですが、実は結構重要だったりします。

では、定理を明示しましょう。

定理1.

\(n\in\mathbb{N}\)、\(A\)および\(B\)が共に\(n\)次正方行列とする。 このとき、次が成り立つ。 $$ \det(AB)=\det(A)\det(B) $$

(定理7.へジャンプ)

定理1.の証明は割と真正直にやれば証明できます。

定理1.の証明

\(n\in\mathbb{N}\)、\(A=\left( a_{ij}\right)\)および\(B=\left( b_{ij}\right)\)が\(n\)次正方行列とします。
このとき、
$$
A=
\begin{pmatrix}
a_{11}&\cdots &a_{1n}\\
\vdots&\ddots&\vdots\\
a_{m1}&\cdots &a_{mn}\\
\end{pmatrix},\quad
B=
\left(\begin{array}{c}
\boldsymbol{b}_1\\
\vdots \\
\boldsymbol{b}_n
\end{array}\right)
$$
と書いたとします。
ただし、\(\boldsymbol{b}_1,\dots,\boldsymbol{b}_n\)は\(B\)の行ベクトルです。
すなわち、
$$
\boldsymbol{b}_j=(b_{j1}\ b_{j2}\ \cdots\ b_{jn})
$$
です。

このとき、\(A\)も\(B\)も\((n,n)\)型なので、\(AB\)が定まります。
従って、
\begin{eqnarray}
AB&=&
\begin{pmatrix}
a_{11}&\cdots &a_{1n}\\
\vdots&\ddots&\vdots\\
a_{m1}&\cdots &a_{mn}\\
\end{pmatrix}
\left(\begin{array}{c}
\boldsymbol{b}_1\\
\vdots \\
\boldsymbol{b}_n
\end{array}\right)\\
&=&
\left(\begin{array}{c}
a_{11}\boldsymbol{b}_1+\dots+a_{1n}\boldsymbol{b}_n\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right)\\
\end{eqnarray}

ここで、以下の2つの定理を繰り返し使います。

定理2.

\(n\in\mathbb{N}\)、\(A=\left( a_{ij}\right)\)を\(n\)次正方行列とする。\(A\)の第\(i\)行が、2つの行ベクトルの和ならば、行列式は他の行は同じで、第\(i\)行は各々のベクトルを取った行列の行列式の和になる。 すなわち、 $$ (\exists i\in\mathbb{N};1\leq i\leq n)\ {\rm s.t.}\ (a_{i1},\dots,a_{in})=(b_{i1}+c_{i1},\dots,b_{in}+c_{in}) $$ としたとき、 $$ \left| \begin{array}{c} a_{11}&\cdots &a_{1n}\\ \vdots&&\vdots\\ b_{i1}+c_{i1}&\cdots&b_{in}+c_{in}\\ \vdots&&\vdots\\ a_{n1}&\cdots &a_{nn}\\ \end{array}\right| = \left| \begin{array}{c} a_{11}&\cdots &a_{1n}\\ \vdots&&\vdots\\ b_{i1}&\cdots&b_{in}\\ \vdots&&\vdots\\ a_{n1}&\cdots &a_{nn}\\ \end{array}\right|+ \left| \begin{array}{c} a_{11}&\cdots &a_{1n}\\ \vdots&&\vdots\\ c_{i1}&\cdots&c_{in}\\ \vdots&&\vdots\\ a_{n1}&\cdots &a_{nn}\\ \end{array}\right| $$ が成り立つ。

定理2.の証明は【線型代数学の基礎シリーズ】行列式編 その3を御覧ください。

定理3.

\(n\)次正方行列\(A=\left( a_{ij}\right)\)の1つの行を\(c\in\mathbb{C}\)倍すると、行列式は\(c\)倍となる。すなわち、 $$ \left| \begin{array}{c} a_{11}&\cdots &a_{1n}\\ \vdots&&\vdots\\ ca_{i1}&\cdots&ca_{in}\\ \vdots&&\vdots\\ a_{n1}&\cdots &a_{nn}\\ \end{array}\right|= c\left| \begin{array}{c} a_{11}&\cdots &a_{1n}\\ \vdots&&\vdots\\ a_{i1}&\cdots&a_{in}\\ \vdots&&\vdots\\ a_{n1}&\cdots &a_{nn}\\ \end{array}\right| $$ が成り立つ。

定理3.の証明は【線型代数学の基礎シリーズ】行列式編 その3を御覧ください。

まず、
$$
\left(\begin{array}{c}
a_{11}\boldsymbol{b}_1+\dots+a_{1n}\boldsymbol{b}_n\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right)
$$
第1行に目をつけてみます。
すると、定理2.および定理3.から
\begin{eqnarray}
\left|\begin{array}{c}
a_{11}\boldsymbol{b}_1+\dots+a_{1n}\boldsymbol{b}_n\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right|&=&
a_{11}\left|\begin{array}{c}
\boldsymbol{b}_1\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right|+\dots+
a_{1n}\left|\begin{array}{c}
\boldsymbol{b}_n\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right|\\
&=&
\sum_{j_1=1}^na_{1j_1}
\left|\begin{array}{c}
\boldsymbol{b}_{j_1}\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right|
\end{eqnarray}
が成り立ちます。

この操作をすべての行に対して繰り返し行います。
すると、
\begin{eqnarray}
\left|\begin{array}{c}
a_{11}\boldsymbol{b}_1+\dots+a_{1n}\boldsymbol{b}_n\\
\vdots \\
a_{n1}\boldsymbol{b}_1+\dots+a_{nn}\boldsymbol{b}_n\\
\end{array}\right|&=&
\sum_{j_n=1}^na_{n\ j_n}\sum_{j_{n-1}=1}^na_{n-1\ j_{n-1}}\dots\sum_{j_2=1}^na_{2\ j_2}\sum_{j_1=1}^na_{1j_1}
\left|\begin{array}{c}
\boldsymbol{b}_{j_1}\\
\boldsymbol{b}_{j_2}\\
\vdots \\
\boldsymbol{b}_{j_{n-1}}\\
\boldsymbol{b}_{j_n}\\
\end{array}\right|\\
&=&
\sum_{j_n=1}^n\sum_{j_{n-1}=1}^n\dots\sum_{j_2=1}^n\sum_{j_1=1}^na_{1j_1}a_{2j_2}\cdots a_{n-1\ j_{n-1}}a_{n\ j_n}
\left|\begin{array}{c}
\boldsymbol{b}_{j_1}\\
\boldsymbol{b}_{j_2}\\
\vdots \\
\boldsymbol{b}_{j_{n-1}}\\
\boldsymbol{b}_{j_n}\\
\end{array}\right|
\end{eqnarray}

となります。
ここで、和は\(j_1,j_2,\dots,j_n\)がそれぞれ\(1\)から\(n\)までを動くわけですので、\(n^n\)個の項が出現します。
ここで、\(\det\)に出現する和は\(\sigma\in S_n\)での和ですので、項数としては\(n!\)個です。
\(n\in\mathbb{N}\)のとき\(n^n>n!\)ですので、今回計算したものの方が項数が多いことに注意です。
何が言いたいか、というと、「余分なもの(というとちょっと語弊があるけれど)まで足しているZE」ということです。

実は、次の事実が成り立っているのでした。

命題4.

2つの行が等しい行列の行列式は\(0\)である。

この命題の証明は【線型代数学の基礎シリーズ】行列式編 その3を御覧ください。

命題4.により、\(\boldsymbol{b}_{j_1},\boldsymbol{b}_{j_2},\dots,\boldsymbol{b}_{j_{n-1}},\boldsymbol{b}_{j_n},\)のうち、同じものがあれば、
$$
\left|\begin{array}{c}
\boldsymbol{b}_{j_1}\\
\boldsymbol{b}_{j_2}\\
\vdots \\
\boldsymbol{b}_{j_{n-1}}\\
\boldsymbol{b}_{j_n}\\
\end{array}\right|=0
$$
ということになります。
すなわち、\(j_1,j_2,\dots,j_{n-1},j_n\)がすべて相異なる場合の和を考えれば良いことになります。
先程述べた「余分なもの」というのは「\(j_1,j_2,\dots,j_{n-1},j_n\)のうち少なくとも1ペアが等しい場合」を指しています。

さて、\(j_1,j_2,\dots,j_{n-1},j_n\)がすべて相異なる場合というのは、\(j_1,j_2,\dots,j_{n-1},j_n\)がちょうど\(1,2,\dots,n\)の順列となる場合ということになります。
というのも、\(j_1,j_2,\dots,j_{n-1},j_n\)がすべて相異なって、それぞれが\(1\)から\(n\)を動くからです。
しかも、和を取れば、ちょうどすべての順列での和ということになります。
従って、
$$\sigma=
\left(\begin{array}{c}
1&2&\cdots&n\\
j_1&j_2&\cdots&j_n
\end{array}\right)
$$
としたとき、

\begin{eqnarray}
\det(AB)&=&
\sum_{j_n=1}^n\sum_{j_{n-1}=1}^n\dots\sum_{j_2=1}^n\sum_{j_1=1}^na_{1j_1}a_{2j_2}\cdots a_{n-1\ j_{n-1}}a_{n\ j_n}
\left|\begin{array}{c}
\boldsymbol{b}_{j_1}\\
\boldsymbol{b}_{j_2}\\
\vdots \\
\boldsymbol{b}_{j_{n-1}}\\
\boldsymbol{b}_{j_n}\\
\end{array}\right|\\
&=&
\sum_{\sigma\in S_n}a_{1j_1}\cdots a_{nj_n}
\left|\begin{array}{c}
\boldsymbol{b}_{j_1}\\
\vdots \\
\boldsymbol{b}_{j_n}\\
\end{array}\right|\\
&=&
\sum_{\sigma\in S_n}a_{1\sigma(1)}\cdots a_{n\sigma(n)}
\left|\begin{array}{c}
\boldsymbol{b}_{\sigma(1)}\\
\vdots \\
\boldsymbol{b}_{\sigma(n)}\\
\end{array}\right|\\
\end{eqnarray}

ここで、
$$
\left|\begin{array}{c}
\boldsymbol{b}_{\sigma(1)}\\
\vdots \\
\boldsymbol{b}_{\sigma(n)}\\
\end{array}\right|\\
$$
に対して、以下の定理を適用させます。

定理5.

\(n\in\mathbb{N}\)、\(A=\left(a_{ij} \right)\)を\(n\)次正方行列とする。\(A\)の各行の順序を置換\(\tau\)によって変更すると、行列式は\({\rm sgn}(\tau)\)になる。すなわち、 $$ \tau= \left( \begin{array}{c} 1&2&\cdots&n\\ k_1&k_2&\cdots&k_n\\ \end{array} \right) $$ としたとき、 $$ \left| \begin{array}{c} a_{k_11}&a_{k_12}&\cdots &a_{k_1n}\\ a_{k_21}&a_{k_22}&\cdots &a_{k_2n}\\ \vdots&\vdots& \ddots&\vdots\\ a_{k_n1}&a_{k_n2}&\cdots &a_{k_nn}\\ \end{array} \right|={\rm sgn}(\tau) \left| \begin{array}{c} a_{11}&a_{12}&\cdots &a_{1n}\\ a_{21}&a_{22}&\cdots &a_{2n}\\ \vdots&\vdots& \ddots&\vdots\\ a_{n1}&a_{n2}&\cdots &a_{nn}\\ \end{array} \right| ={\rm sgn}(\tau)\cdot \det(A) $$ が成り立つ。

この定理5.の証明は【線型代数学の基礎シリーズ】行列式編 その3を御覧ください。

定理5.により、
$$
\left|\begin{array}{c}
\boldsymbol{b}_{\sigma(1)}\\
\vdots \\
\boldsymbol{b}_{\sigma(n)}\\
\end{array}\right|={\rm sgn}(\sigma)
\left|\begin{array}{c}
\boldsymbol{b}_{1}\\
\vdots \\
\boldsymbol{b}_{n}\\
\end{array}\right|
$$
です。
以上のことから、
\begin{eqnarray}
\det(AB)
&=&
\sum_{\sigma\in S_n}a_{1\sigma(1)}\cdots a_{n\sigma(n)}
\left|\begin{array}{c}
\boldsymbol{b}_{\sigma(1)}\\
\vdots \\
\boldsymbol{b}_{\sigma(n)}\\
\end{array}\right|\\
&=&
\sum_{\sigma\in S_n}a_{1\sigma(1)}\cdots a_{n\sigma(n)}
{\rm sgn}(\sigma)
\left|\begin{array}{c}
\boldsymbol{b}_{1}\\
\vdots \\
\boldsymbol{b}_{n}\\
\end{array}\right|\\
&=&
\left( \sum_{\sigma\in S_n}{\rm sgn}(\sigma)a_{1\sigma(1)}\cdots a_{n\sigma(n)}
\right)\left|\begin{array}{c}
\boldsymbol{b}_{1}\\
\vdots \\
\boldsymbol{b}_{n}\\
\end{array}\right|\\
\end{eqnarray}
が成り立ち、
$$
\sum_{\sigma\in S_n}{\rm sgn}(\sigma)a_{1\sigma(1)}\cdots a_{n\sigma(n)}
=\det(A),\quad \left|\begin{array}{c}
\boldsymbol{b}_{1}\\
\vdots \\
\boldsymbol{b}_{n}\\
\end{array}\right|=\det(B)
$$
なわけですので、
$$
\det(AB)=\det(A)\det(B)
$$
です。

定理1.の証明終わり

某五番隊隊長から「ひゃあ、こら長いわ」とツッコミが来そうですね。

逆行列が存在することの必要十分条件

準備が整いましたので、いよいよ本題に入ります。
とはいえ、今まで証明したことをまとめて使えばなんてこと無いんですね、実は。

定理0.

正方行列\(A\)が正則であるための必要十分条件は、\(\det(A)\neq0\)である。このとき、\(A\)の逆行列\(A^{-1}\)は $$ A^{-1}=\frac{1}{\det(A)}\tilde{A} $$ であたえられる。ただし、\(\tilde{A}\)は\(A\)の余因子行列である。

定理0.の証明

\(n\in\mathbb{N}\)、\(A\)が\(n\)次正方行列だとします。

(「\(A\)が正則\(\Rightarrow\det(A)\neq0\)」の証明)

\(A\)が正則行列だとします。
このとき、\(A\)が正則であることから、ある行列\(n\)次正方行列\(B\)が存在して、
$$
AB=I_n
$$
(ただし、\(I_n\)は\(n\)次単位行列とします)を満たします。

先程示した定理1.により、行列の積の行列式はそれぞれの行列式の積と等しいので、
$$
\det(A)\det(B)=\det(AB)=\det(I_n)=1
$$
となるので、\(\det(A)\neq0\)です。
実際、仮に\(\det(A)=0\)ならば、\(\det(A)\det(B)=0\)となって矛盾です。

(「\(\det(A)\neq0\Rightarrow A\)は正則」の証明)

\(\det(A)\neq0\)だとします。
このとき、\(\displaystyle\frac{1}{\det(A)}\tilde{A}\)という行列を考えることができます。
そこで、
$$
B=\frac{1}{\det(A)}\tilde{A}
$$
とします。
この\(B\)が\(A\)の逆行列であれば、証明完了です。
すなわち、
$$
AB=BA=I_n
$$
であれば証明完了です。

$$
AB=A\left( \frac{1}{\det(A)}\tilde{A}\right)=\frac{1}{\det(A)}A\tilde{A}
$$
となります。
ここで、次の事実を使います。

定理6.

\(n\in\mathbb{N}\)、\(A=\left( a_{ij}\right)\)を\(n\)次正方行列、\(\tilde{A}\)を\(A\)の余因子行列とする。 このとき、次が成り立つ。 $$ A\tilde{A}=A\tilde{A}= \begin{pmatrix} \det(A)&&\huge{O}\\ &\ddots& \\ \huge{O}&&\det(A) \end{pmatrix}=\det(A) \begin{pmatrix} 1&&\huge{O}\\ &\ddots& \\ \huge{O}&&1 \end{pmatrix}=\det(A)I_n $$ ただし、\(I_n\)は\(n\)次の単位行列である。

定理6.の証明は【線型代数学の基礎シリーズ】行列式編 その5を御覧ください。

定理6.から、\(A\tilde{A}=\tilde{A}A=\det(A)I_n\)なのですから、
$$
AB=\frac{1}{\det(A)}A\tilde{A}=\frac{1}{\det(A)}\cdot \det(A)I_n=I_n
$$
です。

同様にして、定理6.を使うことで
$$
BA=\left( \frac{1}{\det(A)}\tilde{A}\right)A=\frac{1}{\det(A)}\tilde{A}A=\frac{1}{\det(A)}\cdot \det(A)I_n=I_n
$$
です。

従って、\(A\)は正則行列で、かつ\(A^{-1}\)は
$$
A^{-1}=B=\frac{1}{\det(A)}\tilde{A}
$$
です。

定理0.の証明終わり

次に紹介するのが、逆行列の行列式に対する事実です。

定理7.

正則行列\(A\)に対して、以下が成り立つ。 $$ \det(A^{-1})=\det(A)^{-1} $$

定理1.を使えば一瞬です。

定理7.の証明

定理1.から、
$$
1=\det(I_n)=\det(AA^{-1})=\det(A)\det(A^{-1})
$$
であるので、
$$\det(A)\det(A^{-1})=1$$
だから、
$$
\det(A^{-1})=\frac{1}{\det(A)}=\det(A)^{-1}
$$
となるから成り立ちます。

定理7.の証明終わり

いっちょ計算してみっか

いっちょ計算してみましょう。

例8.
$$
A=
\begin{pmatrix}
1&0&0\\
2&0&-1\\
-1&5&4
\end{pmatrix}
$$
が正則行列かを判定して、正則だったら逆行列を求めてみましょう。

$$
\det(A)=
\left|
\begin{array}{c}
1&0&0\\
2&0&-1\\
-1&5&4
\end{array}\right|
=
\left|
\begin{array}{c}
0&-1\\
5&4
\end{array}\right|
=0\times4-(5\times(-1))=5\neq0
$$
なので、\(A\)は正則行列です。
では、逆行列を求めてみましょう。

  • \(a_{11}\)の余因子\(\tilde{a}_{11}\)(第1行と第1列を抜いたとき)
    $$A_{11}=\begin{pmatrix}0&-1\\5&4\end{pmatrix},\quad \tilde{a}_{11}=(-1)^2\det(A_{11})=5$$
  • \(a_{12}\)の余因子\(\tilde{a}_{12}\)(第1行と第2列を抜いたとき)
    $$A_{12}=\begin{pmatrix}2&-1\\-1&4\end{pmatrix},\quad \tilde{a}_{12}=(-1)^3\det(A_{12})=-7$$
  • \(a_{13}\)の余因子\(\tilde{a}_{13}\)(第1行と第3列を抜いたとき)
    $$A_{13}=\begin{pmatrix}2&0\\-1&5\end{pmatrix},\quad \tilde{a}_{13}=(-1)^4\det(A_{13})=10$$
  • \(a_{21}\)の余因子\(\tilde{a}_{21}\)(第2行と第1列を抜いたとき)
    $$A_{21}=\begin{pmatrix}0&0\\5&4\end{pmatrix},\quad \tilde{a}_{21}=(-1)^3\det(A_{21})=0$$
  • \(a_{22}\)の余因子\(\tilde{a}_{22}\)(第2行と第2列を抜いたとき)
    $$A_{22}=\begin{pmatrix}1&0\\-1&4\end{pmatrix},\quad \tilde{a}_{22}=(-1)^4\det(A_{22})=4$$
  • \(a_{23}\)の余因子\(\tilde{a}_{23}\)(第2行と第3列を抜いたとき)
    $$A_{23}=\begin{pmatrix}1&0\\-1&5\end{pmatrix},\quad \tilde{a}_{23}=(-1)^5\det(A_{23})=-5$$
  • \(a_{31}\)の余因子\(\tilde{a}_{31}\)(第3行と第1列を抜いたとき)
    $$A_{31}=\begin{pmatrix}0&0\\0&-1\end{pmatrix},\quad \tilde{a}_{31}=(-1)^4\det(A_{31})=0$$
  • \(a_{32}\)の余因子\(\tilde{a}_{32}\)(第3行と第2列を抜いたとき)
    $$A_{32}=\begin{pmatrix}1&0\\2&-1\end{pmatrix},\quad \tilde{a}_{32}=(-1)^5\det(A_{32})=1$$
  • \(a_{33}\)の余因子\(\tilde{a}_{33}\)(第3行と第3列を抜いたとき)
    $$A_{33}=\begin{pmatrix}1&0\\2&0\end{pmatrix},\quad \tilde{a}_{33}=(-1)^6\det(A_{33})=0$$

故に、\(A\)の余因子行列\(\tilde{A}\)は
$$
\tilde{A}=
\begin{pmatrix}
\tilde{a}_{11}&\tilde{a}_{21}&\tilde{a}_{31}\\
\tilde{a}_{12}&\tilde{a}_{22}&\tilde{a}_{32}\\
\tilde{a}_{13}&\tilde{a}_{23}&\tilde{a}_{33}\\
\end{pmatrix}
=
\begin{pmatrix}
5&0&0\\
-7&4&1\\
10&-5&0
\end{pmatrix}
$$
となるので、\(A\)の逆行列\(A^{-1}\)は
$$
A^{-1}=\frac{1}{\det(A)}\tilde{A}=
\frac{1}{5}
\begin{pmatrix}
5&0&0\\
-7&4&1\\
10&-5&0
\end{pmatrix}=
\begin{pmatrix}
1&0&0\\
\displaystyle-\frac{7}{5}&\displaystyle\frac{4}{5}&\displaystyle\frac{1}{5}\\
2&-1&0
\end{pmatrix}
$$
です。
本当にこの行列が\(A\)の逆行列かを確かめてみます。
\begin{eqnarray}
AA^{-1}&=&
\begin{pmatrix}
1&0&0\\
2&0&-1\\
-1&5&4
\end{pmatrix}
\begin{pmatrix}
1&0&0\\
\displaystyle-\frac{7}{5}&\displaystyle\frac{4}{5}&\displaystyle\frac{1}{5}\\
2&-1&0
\end{pmatrix}\\
&=&
\begin{pmatrix}
1+0+0&0+0+0&0+0+0\\
2+0-2&0+0+1&0+0+0\\
-1-7+8&0+4-4&0+1+0
\end{pmatrix}\\
&=&
\begin{pmatrix}
1&0&0\\
0&1&0\\
0&0&1
\end{pmatrix}=I_3
\end{eqnarray}

\begin{eqnarray}
A^{-1}A&=&
\begin{pmatrix}
1&0&0\\
\displaystyle-\frac{7}{5}&\displaystyle\frac{4}{5}&\displaystyle\frac{1}{5}\\
2&-1&0
\end{pmatrix}
\begin{pmatrix}
1&0&0\\
2&0&-1\\
-1&5&4
\end{pmatrix}\\
&=&
\begin{pmatrix}
1+0+0&0+0+0&0+0+0\\
\displaystyle-\frac{7}{5}+\frac{8}{5}-\frac{1}{5}&0+0+1&\displaystyle0-\frac{4}{5}+\frac{4}{5}\\
2-2+0&0+0+0&0+1+0
\end{pmatrix}\\
&=&
\begin{pmatrix}
1&0&0\\
0&1&0\\
0&0&1
\end{pmatrix}=I_3
\end{eqnarray}
確かに、逆行列です。

今回は、余因子行列の性質である「逆行列の存在の必要十分条件」について解説しました。
「余因子行列なんてそんな面倒なモノがなんで必要なんだ?」と思ったかもしれませんが、逆行列を求める際に誠に有用だからです。
そして、行列式は逆行列が存在するかどうかを判定する際に非常に有用である、ということが今回わかりました。

次回から線型空間(ベクトル空間)の話をします。

乞うご期待!質問、コメントなどお待ちしております!

コメントをする

タイトルとURLをコピーしました