ベイジアン研究所

技術(人工知能、数学等)と心理の話をしています。

【物体検出】Region based convolutional newral network (R-CNN)

0. 目的

1. 物体検出とは

  • 画像に含まれる人や車などの物体を取り囲む四角い領域を特定することが目標。
  • 物体検出手法の多くにおいて、次の手順により、物体検出結果を得る。
    1. 物体を囲む領域の候補群を提案。
    2. 物体クラス認識の処理を行い、認識対象物体らしさを計算。
    3. 同一物体に複数のバウンディングボックスが検出されないように、後処理を実施。
  • 1枚の画像から提案される物体領域候補群はできるだけ検出対象の物体の領域を網羅しつつ、物体領域候補数が少ないことが望ましい。
    • 物体領域候補数と物体クラスの認識処理の回数は比例するため、計算コストの低いクラス認識手法が望ましい。


2. R-CNN

2.0 R-CNNの概要

  • 深層学習の成功以前は、計算コストが低いHOG特徴などが一般的に用いられていた。

    • HOG特徴(本筋には関係ないため、読み飛ばしても良い。)
      • 局所領域内の各画素に関して、次のように輝度勾配の強度と方向を計算する。
        ノイズの影響を低減させるため、平滑化フィルタを適用した画像 $L(x,y)$ を利用する。この $x$ 方向と $y$ 方向の輝度勾配をそれぞれ $L_x(x,y)$、$L_y(x,y)$ とする。このとき次のように各画素において輝度勾配の強度と傾きを計算する。 $$m(x,y) = \sqrt{L_x^{2}(x,y)+L_y^{2}(x,y)}, \ θ(x,y)=\textrm{tan}^{-1}\frac{L_y(x,y)}{L_x(x,y)}$$
      • $N_p\times N_p$ の画素を一つの領域として、輝度勾配ヒストグラムを計算する。一般に、$N_p=5$ が用いられ、輝度勾配ヒストグラムを計算する領域をセルと呼ぶ。輝度勾配の方向は量子化され、方向のビン数を $N_{θ}$ とする。HOG特徴の場合は $N_{θ}=9$ が用いられる。したがって一つのセルは9次元のベクトルで表される。
      • 隣接する $N_c\times N_c$ のセルを1ブロックとする($N_c=3$ がよく用いられる)。このブロック $B_k$ 内を次の式を用いて正規化する。 $$\hat{v}_i^{(k)}=\frac{v_i^{(k)}}{\sqrt{\sum_{j\in B_k}|v_j^{(k)}|^{2}+ε^{2}}}$$
      • ブロック内の各セルを表現するベクトルをすべて結合してブロックを一つのベクトルとして表現する。このベクトルは、 $$v^{(k)}=(\hat{v}_1^{(k)T}, \dots, \hat{v}_{N_c\times N_c}^{(k)T})$$
      • 注目する局所領域に $N_x\times N_y$ 個のセルが含まれているとすると、1セルづつずらしながら、式 (5) に従いブロックの表現を計算する。これらのブロックの $v^{k}$ を記述したベクトルを、最終的なHOG特徴とする。 $$ \begin{pmatrix} v^{1} \\ \vdots \\ v^{(N_x-N_c+1)\times (N_y-N_c+1)} \end{pmatrix} $$ したがって、HOG特徴の次元数は、$(N_\theta\times N_c\times N_c)\times (N_x-N_c+1)\times (N_y - N_c +1)$
  • R-CNNは、この特徴を畳み込みニューラルネットワークの中間層から得られる特徴量(CNN特徴)に置き換えた物体検出システムである。

  • 次にR-CNNのパイプライン図を示す。
    Figure 5. R-CNNのパイプライン
    • 以下順に、物体領域候補の提案、CNNによる特徴の算出、検出領域の分類、について説明する。

2.1 物体領域候補の提案

  • 画像中から、物体領域候補を提案する箇所は、物体検出の精度と速度を決める重要な部分。
    • 物体領域候補の提案に失敗すると、物体検出も失敗する。
  • 単純には、ある大きさのウィンドウを一定幅でストライドさせて、提案領域を探索すればよいが(スライディングウィンドウ法)計算コストが高い。そこで、R-CNNにおいては、選択的検索法を利用。

2.1.1 選択的検索法

  • 入力画像中で、物体らしさをあらかじめ評価しておき、領域候補数を絞り込む手法。
    • ①画像の領域分割、②画像セグメントの統合、の2段階により行う。

① 画像の領域分割

  • アルゴリズムのイメージ
    • 隣接画素の類似度を計算し、ある一定基準を満たした場合、結合して画像をいくつかの連結成分に分割する。
  • 正確な定式化(参考文献 [2] 参照)
    • グラフ $G=(V, E)$ とは、頂点集合 $V$ と頂点間を結ぶエッジ集合$E$からなるペアのことである。
      • 画像 $I={x_i}$ に対して、各画素 $x_i$ を頂点、隣接する頂点間を結ぶ辺をエッジ集合とする。
    • グラフGの spanning tree とは、グラフ $G$ のサブグラフ(頂点集合は同じで、エッジが部分集合であるもの)で、全ての頂点が連結されており、エッジの本数が最小となるグラフのことである。
      例. https://www.geeksforgeeks.org/spanning-tree/ より引用

    Figure. 3 spanning tree

    Figure 4. Minimum spanning tree

    • グラフ G の頂点集合の部分集合 $C\subseteq V$ の internal difference を次のように定義する。

      $$\begin{equation} \textrm{Int}(C) = \textrm{max}_{e\in \textrm{MST}(C, E)} w(e) \end{equation}$$ すなわち、minimum spanning tree の最大の重みである。

    • 頂点集合の部分集合、$C_1, C_2$ に対し、$\textrm{MInt}(C_1, C_2)$ を次のように定義する。

      $$\textrm{MInt}(C_1, C_2) = \textrm{min}(\textrm{Int}(C_1)+ τ(C_1), \textrm{Int}(C_2)+ τ(C_2)) $$ ここで、

      $$τ(C) = k/|C|$$ で、kは定数パラメーターである(恐らく連結成分の分離の強さを決めるハイパーパラメーターと思われる)。

    • 以上を準備して、画像の領域分割を次のようなアルゴリズムで実施する。
      I/O: 入力をグラフ $G=(V, E)$ とし、$V$ の連結成分の列 $S=(C_1, \dots, C_r)$ を出力する。
      1. $E$を重みの昇順に並び替える。$\pi = (o_1,\dots, o_m)$とする。
      2. セグメンテーションを$S^{0}$より開始する。すなわち連結成分は画素数分ある。
      3. 次の手順を $ q=1,\dots, m $ に対して繰り返す。
        $S^{q}$ を $ S^{q-1} $ から次のように構成する。
        $o_q = (v_i, v_j)$ であったとする。$C_i^{q-1}$ を $v_i$ の連結成分、$C_j^{q-1}$ を $v_j$ の連結成分とする。$C_i^{q-1}\neq C_j^{q-1}$ かつ $w(o_q) \le \textrm{MInt}(C_i^{q-1}, C_j^{q-1})$ のとき、$C_i^{q-1}$ と $C_j^{q-1}$ を結合し、それを $S^{q}$ とする。そうでない場合は、 $S^{q}=S^{q-1}$ とする。
      4. $S = S^{m}$ を返却する。

② 画像セグメントの統合

  • アルゴリズムのイメージ
    • 分割された画像領域に対し、各領域間の類似度を求めて、最も似ている領域を統合していき、最終的に一つの領域となるまで繰り返す。
  • 正確な定式化
    • 各領域間の類似度は、次式により算出する($\alpha_k$は0から1までの値をとる重み係数)。  $$s(C_i, C_j) = \alpha_1 s_c(C_i, C_j) + \alpha_2 s_t(C_i, C_j)+ \alpha_3 S_s(C_i, C_j) + \alpha_4 s_f(C_i, C_j)$$
      • 色類似度
        各領域$C_i$から、$L_1$ノルムで正規化されたヒストグラム$h_i = \{h_i^{1},\dots, h_i^{n} \}$ を算出する。色類似度$s_c$を次の式で定義する。 $$ s_c(C_i, C_j) = \sum_{k=1}^{n}\textrm{min}(h_i^{k}, h_j^{k}) $$
      • テクスチャ類似度
        各領域$C_i$にガウスカーネルによる畳み込み $$G^{s}(x, y)=\frac{1}{2\pi s^{2}} \textrm{exp}(-\frac{x^{2}+y^{2}}{2s^{2}})$$ を適用後、ヒストグラム $T_i=\{t_1,\dots, t_n\}$ を算出する。テクスチャ類似度 $s_t$ を次で定義する。 $$ s_t(C_i, C_j) = \sum_{k=1}^{n}\textrm{min}(t_i^{k}, t_j^{k}) $$
      • 大きさ類似度
        $\textrm{area(C)}$ を領域 $C$ の面積を算出する関数とすると、大きさ類似度 $s_s$ を次の式で定義する。 $$s_s(C_i, C_j) = 1- \frac{\textrm{area}(C_i)+\textrm{area}(C_i)}{\textrm{area}(I)}$$ 小さな領域を早い段階で統合するように促進する。
      • 領域ギャップ類似度
        領域 $C_i$ と領域 $C_j$ を囲むタイトなバウンディングボックスを $BB_{ij}$ とすると領域ギャップ類似度 $s_f$ を次の式で定義する。 $$s_f(C_i,C_j) = 1 - \frac{\textrm{area}(\textrm{BB}_{ij})-\textrm{area}(C_i)-\textrm{area}(C_i)}{\textrm{area}(I)}$$ 領域 $C_i$ が領域 $C_j$ に囲まれている場合は、これらを統合することが望ましいと考えられる。$s_f$ はこの状況にある2つの領域を統合するように働きかける。
    • 以上の準備から次の手順で、領域を統合し、物体領域候補を抽出する。
      I/0: 初期セグメンテーション$R={C_1,\dots, C_r}$ を入力し、物体候補領域$L$を出力。
      1. 初期類似度集合を $S=\emptyset$ とする。
      2. 任意の隣接する領域ペア$(C_i, C_j)$に対して、類似度を算出して、$S$ に追加する。 $$s(C_i,C_j), S=S\cup s(C_i, C_j)$$
      3. $S\neq \emptyset$ となるまで、次の手続きを行う。
        $S$ から最も類似度の高いペア $(C_i, C_j)$ を選択する。
        領域を統合する: $C_t=C_i\cup C_j$
        $C_i$に関する類似度を削除: $S=S\backslash s(C_i, C_{*})$
        $C_j$に関する類似度を削除: $S=S\backslash s(C_j, C_*)$
        $C_t$とその隣接領域の類似度$S_t$を算出。
        $S$に類似度を追加し、セグメンテーション集合$R$に$C_t$を追加: $S=S\cup S_t, R=R\cup C_t$
      4. すべての領域 $R$ から物体領域候補 $L$ を抽出して結果を返却。

2.2 CNNによる特徴量の算出

  • R-CNNにおいて利用する畳み込みニューたるネットワークはImageNet (大規模なクラス分類画像データセット) により事前学習。
  • ネットワーク構成としては、5層の畳み込み層と、2層の全結合層からなる(参考文献 [3] 参照)。
    Figure 6. R-CNNのネットワーク
    • 4096次元の特徴ベクトルを算出。

2.3 検出領域の分類

  • ① 物体領域候補の物体クラスの予測、② バウンディングボックスへの回帰、の2種類の処理を行う。

① 物体候補の物体クラスの予測

  • 2.2 において算出されたCNN特徴量をSVMに入力し、物体領域候補のクラスを予測する。
    • SVM (suppor vector machine)
      • 汎化誤差を最も小さくする決定境界を、マージンを最大化することで求めるアルゴリズム
        Figure 6. 決定境界とマージン
        次の正則化パラメーター $\lambda$ を持つ目的関数を最小化する(以下の目的関数の最小化でマージン最大化を達成可能な理由は勉強中)。 $$J(w) = λ |w|^{2} + \textrm{max}(0, 1-tw^{T} x)$$
  • 予測分類スコアを用いて、「非最大値の抑制」を行って、不要なバウンディングボックスを排除する。
    • 非最大値の抑制
      • 検出対象物体を中心として複数のバウンディングボックスが検出されることがある。
        • 同一物体に複数のバウンディングボックスが検出されないようにするために、バウンディングボックスごとに検出の信頼度を表すスコアを計算し、局所的に最大スコアのバウンディングボックスのみ表示し、その他を表示しないようにする。
          • 具体的には次の手順で行う。
            • スコアが最も高い領域に「表示」とマークする。
            • その領域と一定の割合以上の重なりをもつ領域に「非表示」とマークする。
            • 次に、「表示」もしくは「非表示」のマークがついていない領域の中で、スコアの最も高い領域に「表示」とマークし、これと一定の割合以上の重なりのある領域に「非表示」のマークをする。
            • この手順をすべての領域に「表示」または「非表示」のいずれかがマークされるまで繰り返す。「表示」とマークされた領域の集合が、検出の最終結果となる。
              Figure 7. 非最大値の抑制
  • バウンディングボックスの推定精度の向上のため、物体候補領域のCNN特徴から、バウンディングボックスのパラメーター(中心座標, 幅, 高さ)への回帰を行う。

バウンディングボックスへの回帰

  • 予測したバウンディングボックスを、$r=(r_x, r_y, r_w, r_h)^{T}$、真のバウンディングボックスを、$g=(g_x,g_y, g_w,g_h)^{T}$ とし、$N$個の訓練データ訓練データ集合 $\mathcal{D}={(r_n,g_n)}_{n=1}^N$ が与えられているとする。
    • 目標は、$r$ から $g$ への回帰(変換)を予測するモデルを構築することである。
  • 予測されたバウンディングボックス内のCNN特徴量 $f(r)$ から、$r$ から $g$ へ変換する回帰モデルを予測する、という意味で、次の最適化問題を解くことで目標が達せられる(モデルパラメーターを $W$ とする)。 $$W = \textrm{argmin}_{W}\sum_{n=1}^{N} (t_n - W^{T} f(r_n))^{2} + λ \|W\|_F^{2}$$ ここで、$t=(t_x,t_y,t_w,t_h)^{T}$ は次のように定義される。 $$t_x=(g_x-r_x)/r_w, t_y=(g_y-r_y),t_w=\textrm{log}(g_w/r_w), t_h=\textrm{log}(g_h/r_h)$$ $\|・\|_F$はフロベニウスノルム(行列の成分の2乗和)である。

3. 最近の物体検出手法

  • 最近の物体検出手法としては、Facebook AI Researchが発表したDETRが挙げられる(参考文献 [4])。これはVision Transformerを物体検出タスクに応用した最初の手法である。さらに画像生成AIの手法であるdiffusion modelを模した、DiffusionDetなどがある(参考文献 [5])。これは、ランダムに生成したバウンディングボックスから正解バウンディングボックスを(ノイズを除去するが如く)予測することを学習する手法である。

参考文献

[1] 原田達也, "画像認識", 2017
- 本記事の本筋はこちらに従った。アルゴリズムの未記載事項、不明点に際して、原論文に当たった。
[2] J.R.R. Uijlings, K.E.A. van de Sande, T. Gevers, A.W.M. Smeulders, "Selective Search for Object Recognition", 2014
[3] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks", 2017
[4] Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, Sergey Zagoruyko, "End-to-End Object Detection with Transformers", 2020
[5] Shoufa Chen, Peize Sun, Yibing Song, Ping Luo, "DiffusionDet: Diffusion Model for Object Detection", 2022

【線形代数学入門】二次曲線、二次曲面

1. 記事の目的
下記の記事で二次形式について述べた。本記事では、二次形式を用いて、二次曲線および二次曲面を分類する。分類は、数学の主要な問題の一つである。

2. 幾何ベクトルの座標変換
空間(平面)の座標系とは、一点Oと、幾何ベクトル空間V^3 ( V^2 )の一つの基底E=\{\boldsymbol{e}_1,\boldsymbol{e}_2,\boldsymbol{e}_3 \} ( E=\{\boldsymbol{e}_1,\boldsymbol{e}_2 \} )との組(O;E)である。

E=\{\boldsymbol{e}_1,\boldsymbol{e}_2,\boldsymbol{e}_3 \} ( E=\{\boldsymbol{e}_1,\boldsymbol{e}_2 \} )、E^{\prime}=\{\boldsymbol{e}_1^{\prime},\boldsymbol{e}_2^{\prime},\boldsymbol{e}_3^{\prime} \} ( E^{\prime}=\{\boldsymbol{e}_1^{\prime},\boldsymbol{e}_2^{\prime} \} )として、二つの座標系(O;E)(O^{\prime};E^{\prime})があるとき、V^3 ( V^2 )の基底の取り換えE\rightarrow E^{\prime}の行列をT=(t_{ij})とする。即ち

\boldsymbol{e}_i^{\prime}=\displaystyle\sum_{j=1}^{3(2)}t_{ji}\boldsymbol{e}_j

である。点O^{\prime}の、座標系(O;E)に関する位置ベクトルを

\boldsymbol{t}_0=
\begin{pmatrix} t_1 \\ t_2 \\ t_3 \end{pmatrix} \ \ 
( \boldsymbol{t}_0=
\begin{pmatrix} t_1 \\ t_2 \\ t_3 \end{pmatrix} )

とする。点Pの座標系(O;E)(O^{\prime};E^{\prime})に関する位置ベクトルを、それぞれ


\boldsymbol{x}=
\begin{pmatrix}
x_1 \\ x_2 \\ x_3
\end{pmatrix}
, \ \ 
\boldsymbol{y}=
\begin{pmatrix}
y_1 \\ y_2 \\ y_3
\end{pmatrix} \ \ 
( \boldsymbol{x}=
\begin{pmatrix}
x_1 \\ x_2 
\end{pmatrix}
, \ \ 
\boldsymbol{y}=
\begin{pmatrix}
y_1 \\ y_2 
\end{pmatrix} )

とすると、\overrightarrow{(OP)}=\overrightarrow{(OO^{\prime})}+\overrightarrow{(O^{\prime}P)}であるから、


\begin{split}
\displaystyle\sum_{i=1}^{3(2)} x_i\boldsymbol{e}_i&=\displaystyle\sum_{i=1}^{3(2)} t_i\boldsymbol{e}_i+\displaystyle\sum_{i=1}^{3(2)} y_i\boldsymbol{e}_i^{\prime} \\
&=\displaystyle\sum_{i=1}^{3(2)} t_i\boldsymbol{e}_i+\displaystyle\sum_{j=1}^{3(2)} \left( \displaystyle\sum_{i=1}^{3(2)} y_it_{ji} \right)\boldsymbol{e}_j
\end{split}

である。したがって、

\boldsymbol{x}=\boldsymbol{t}_0+T\boldsymbol{y}\tag{1}

である。また、


\tilde{\boldsymbol{x}}=\begin{pmatrix} x \\ 1 \end{pmatrix}, \ \ 
\tilde{\boldsymbol{y}}=\begin{pmatrix} y \\ 1 \end{pmatrix}, \ \
\tilde{T}=
\begin{pmatrix}
T & \boldsymbol{t}_0 \\
^t\boldsymbol{0} & 1
\end{pmatrix}

とおくと、

\tilde{\boldsymbol{x}}=\tilde{T}\tilde{\boldsymbol{y}}\tag{2}

特に、(O;E)(O^{\prime};E^{\prime})がともに直交座標系( E, E^{\prime}が正規直交基底 )ならば、Tは直交行列である(下記の記事を参照)。

camelsan.hatenablog.com

3. 二次曲線と二次曲面の定義
空間(平面)における二次曲面(二次曲線)とは、ある座標系に関する座標の二次の多項式の零点の集合のことである。

座標変換の式(1)から、座標の二次の多項式は、越の座標系に関しても二次の多項式なので、二次曲面(二次曲線)は、座標系に無関係な概念である。

二次曲面(q)がある直交座標系に関し、

(q) \ \ : \ \ a_{11}x_1^2+a_{22}x_2^2+2a_{12}x_1x_2+2b_1x_1+2b_2x_2+c=0

で与えられるとする。

A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}, \ \ 
a_{21}=a_{12}, \ \ 
\boldsymbol{b}=
\begin{pmatrix}
b_1 \\ b_2
\end{pmatrix}

とすれば、


(q) \ \ : \ \ A[\boldsymbol{x}]+2(\boldsymbol{x}, \boldsymbol{b})+c=0
\tag{3}

と表される。さらに


\tilde{A}=
\begin{pmatrix}
A & \boldsymbol{b} \\
^t\boldsymbol{b} & c
\end{pmatrix}

とおけば

(q) \ \ : \ \ \tilde{A}[\tilde{\boldsymbol{x}}]=0\tag{4}

となる。

二次曲面(Q)


\begin{split}
(Q) \ \ : \ \ a_{11}x_1^2&+a_{22}x_2^2+a_{33}x_3^2+2a_{12}x_1x_2+2a_{13}x_1x_3+2a_{23}x_2x_3 \\
&+2b_1x_2+2b_2x_2+2b_3x_3+c=0
\end{split}

に対しても、

A=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33} 
\end{pmatrix}, \ \ 
a_{ij}=a_{ji}, \ \ 
\boldsymbol{b}=
\begin{pmatrix}
b_1 \\ b_2 \\ b_3
\end{pmatrix}, \ \ 
\tilde{A}=
\begin{pmatrix}
A & \boldsymbol{b} \\
^t\boldsymbol{b} & c
\end{pmatrix}

とおけば、


\begin{split}
&(Q) \ \ : \ \ A[\boldsymbol{x}]+2(\boldsymbol{b}, \boldsymbol{x})+c=0 \\
&(Q) \ \ : \ \ \tilde{A}[\tilde{\boldsymbol{x}}]
\end{split}

と表すことができる・

式(3) ~(6)の変形結果から、二次曲線および二次曲面は、A, \tilde{A}の階数および符号によって分類される。

{\rm{sgn}}A=(p,q){\rm{sgn}}\tilde{A}=(\tilde{p},\tilde{q})とするとき、p\ge q\tilde{p}\ge \tilde{q}と仮定してもよい。((q)または(Q)を標準形に変形したとき、両辺に-1をかけることで、p\ge qの場合に帰着することができる。)

直交座標変換

\tilde{\boldsymbol{x}}=\tilde{T}\tilde{\boldsymbol{y}}

により、(q)または(Q)は、

\tilde{A}[\tilde{\boldsymbol{x}}]=^t\tilde{T}\tilde{A}\tilde{T}[\tilde{\boldsymbol{y}}]

と変形される。\tilde{T}を適当に選び、^t\tilde{T}\tilde{A}\tilde{T}がなるべく簡単な形になるように変形する。このとき下記の記事の定理4.2より、A, \tilde{A}の符号は一定である。

camelsan.hatenablog.com

まず、直交行列Tを適当に選べば、^t\tilde{T}\tilde{A}\tilde{T}は対角行列になるので、座標変換\boldsymbol{x}=T\boldsymbol{y}を施すことで、最初からAは対角行列であるとして良い。

4. 二次曲線の分類


(q) \ \ : \ \ \tilde{A}[\tilde{\boldsymbol{x}}]=0, \ \ \tilde{A}=
\begin{pmatrix}
\alpha_1 & 0 & b_1 \\
0 & \alpha_2 & b_2 \\
b_1 & b_2 & c
\end{pmatrix}

と変形しておく。
(1) r(A)=2のとき
\alpha_1\neq 0かつ\alpha_2\neq 0で、

(q) \ \ : \ \ a_{11}x_1^2+a_{22}x_2^2+2a_{12}x_1x_2+2b_1x_1+2b_2x_2+c=0

より、座標変換x_1=y_1-\frac{b_1}{\alpha_1}x_2=y_2-\frac{b_2}{\alpha_2}を施すと、


\begin{split}
&\alpha_1(y_1-\frac{b_1}{\alpha_1})^2+\alpha_2(y_2-\frac{b_2}{\alpha_2})^2+2b_1(y_1-\frac{b_1}{\alpha_1})+2b_2(y_2-\frac{b_2}{\alpha_2})+c=0 \\
&\alpha_1(y_1^2-\frac{2y_1b_1}{\alpha_1}+\frac{b_1^2}{\alpha_1^2})+\alpha_1(y_2^2-\frac{2y_2b_2}{\alpha_2}+\frac{b_2^2}{\alpha_2^2})+2b_1y_1-\frac{2b_1^2}{\alpha_1}+2b_2y_2-\frac{2b_2^2}{\alpha_2}+c=0 \\
&\alpha_1y_1^2-2y_1b_1+\frac{b_1^2}{\alpha_1}+\alpha_2y_2^2-2y_2b_2+\frac{b_2^2}{\alpha_2}+2b_1y_1-\frac{2b_1^2}{\alpha_1}+2b_2y_2-\frac{2b_2^2}{\alpha_2}+c=0 \\
&\alpha_1y_1^2+\alpha_2y_2^2+(\frac{b_1^2}{\alpha_1}+\frac{b_2^2}{\alpha_2}+c-\frac{2b_1^2}{\alpha_1}-\frac{2b_2^2}{\alpha_2})=0 \\
&\alpha_1y_1^2+\alpha_2y_2^2+(c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2})=0
\end{split}

となる。y_1, y_2を改めてx_1, x_2c^{\prime}=c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}とおくと


(q) \ \ : \ \ \alpha_1x_1^2+\alpha_2x_2^2+c^{\prime}=0

が得られる。下記で、a_1=\sqrt{|\alpha_1|}a_2=\sqrt{|\alpha_2|}とおく


(q) \ \ : \ \ 
\begin{pmatrix}
x_1 & x_2 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 \\
0 & \alpha_2 & 0 \\
0 & 0 & \alpha_3
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ 1
\end{pmatrix}
=0

より、改めて


A=
\begin{pmatrix}
\alpha_1 & \\
& \alpha_2
\end{pmatrix}

とおく。

{\rm{sgn}}A=(2,0)のとき
(ア) {\rm{sgn}}\tilde{A}=(3,0)のとき
\alpha_1, \alpha_2, c^{\prime} > 0より、(q)の左辺は >0となり、解(x_1, x_2)は存在しない。よって、(q)は空集合
(イ) {\rm{sgn}}\tilde{A}=(2,1)のとき
\alpha_1, \alpha_2 > 0, c^{\prime} \lt 0より、d=\sqrt{-c^{\prime}}とおくと、(q)は楕円

a_1^2x_1^2+a_2^2x_2^2=d^2

である。 (ウ) {\rm{sgn}}\tilde{A}=(2,0)のとき
\alpha_1, \alpha_2 > 0, c^{\prime} = 0より、(q)は、

a_1^2x_1^2+a_2^2x_2^2=0

より、(x_1,x_2)=(0,0)の一点である。
(エ) {\rm{sgn}}\tilde{A}=(1,1)のとき
\alpha_1, \alpha_2 > 0より正の固有値が一つのみのときは存在しないので、この場合はない。
(オ) {\rm{sgn}}\tilde{A}=(1,0)のとき
\alpha_1, \alpha_2 > 0より正の固有値が一つのみのときは存在しないので、この場合はない。
{\rm{sgn}}A=(1,1)のとき
(ア) {\rm{sgn}}\tilde{A}=(3,0)のとき
\alpha_1\alpha_2のうち少なくとも一つ負の固有値が含まれるので、この場合はない。
(イ) {\rm{sgn}}\tilde{A}=(2,1)のとき
\alpha_1 > 0,\ \  \alpha_2 \lt 0,  \ \ c^{\prime}\lt 0のとき、d=\sqrt{-c^{\prime}}として(q)は双曲線

a_1^2x_1^2-a_2^2x_2^2=d^2

である。 ・\alpha_1 \lt 0,\ \  \alpha_2 \lt 0,  \ \ c^{\prime}\lt 0のとき、d=\sqrt{-c^{\prime}}として(q)は双曲線


\begin{split}
&-a_1^2x_1^2+a_2^2x_2^2=d^2 \\
&a_1^2x_1^2-a_2^2x_2^2=-d^2
\end{split}

である。
(ウ) {\rm{sgn}}\tilde{A}=(2,0)のとき
\alpha_1\neq 0\alpha_2\neq 0より、c^{\prime}=0だが、\alpha_1, \alpha_2の一方は負なので、この場合はない。
(エ) {\rm{sgn}}\tilde{A}=(1,1)のとき
\alpha_1>0, \alpha_2 \lt 0, c^{\prime}=0または、\alpha_1\lt 0, \alpha_2 > 0, c^{\prime}=0で、このとき(q)は

a_1^2x_1^2-a_2^2x_2^2=0

となる(相交わる2直線)。 (オ) {\rm{sgn}}\tilde{A}=(1,0)のとき
\alpha_1\neq 0\alpha_2\neq 0より、零でない固有値は少なくとも2つなので、この場合はない。
{\rm{sgn}}A=(1,0)のとき
\alpha_1\neq 0\alpha_2\neq 0よりこの場合はない。
(2) r(A)=1のとき
\alpha_1\neq 0\alpha_2= 0として、座標系の平行移動x_1=y_1-\frac{b_1}{\alpha_1}を行うと(q)は、


\begin{split}
&\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & x_2 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & b_1 \\
0 & 0& b_2 \\
b_1 & b_2 & c
\end{pmatrix}
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} \\ x_2 \\ 1
\end{pmatrix} \\
&=
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & x_2 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1y_1 \\ b_2 \\ b_1y_1-\frac{b_1^2}{\alpha_1}+b_2x_2+c
\end{pmatrix} \\
&=\alpha_1y_1^2-y_1b_1+b_2x_2+b_1y_1-\frac{b_1^2}{\alpha_1} \\
&=\alpha_1y_1^2+2b_2x_2+c-\frac{b_1^2}{\alpha_1}
\end{split}

y_1を改めてx_1c^{\prime}=c-\frac{b_1^2}{\alpha_1}とおけば


(q) \ \ : \ \ \alpha_1x_1^2+2b_2x_2+c^{\prime}=0

が得られる。


(q) \ \ : \ \ 
\begin{pmatrix}
x_1 & x_2 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 \\
0 & 0 & b_2 \\
0 & b_2 & c^{\prime} 
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ 1
\end{pmatrix}
=0

より改めて


A=
\begin{pmatrix}
\alpha_1 & 0 \\
0 & 0
\end{pmatrix}, \ \ 
\tilde{A}=
\begin{pmatrix}
\alpha_1 & 0 & 0 \\
0 & 0 & b_2 \\
0 & b_2 & c^{\prime}
\end{pmatrix}

とおく。
{\rm{sgn}}A=(2,0)のとき
0でないA固有値は一つのみなので、このような場合はない。
{\rm{sgn}}A=(1,1)のとき
①と同じ理由で、この場合はない。
{\rm{sgn}}A=(1,0)のとき
(ア) {\rm{sgn}}\tilde{A}=(3,0)のとき
b_2=0とすると、\tilde{A}0でない固有値の数は2以下となり矛盾。よって、b_2\neq 0である。また、c^{\prime}\neq 0とすると、\tilde{A}基本変形することにより0でない固有値の数が2以下となり矛盾。よってc^{\prime}=0である。従って(q)は、


\begin{split}
0&=
\begin{pmatrix}
x_1 &  x_2 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 \\
0 & 0 & b_2 \\
0 & b_2 & 0
\end{pmatrix}
\begin{pmatrix}
x_1 \\  x_2 \\ 1
\end{pmatrix} \\
&=
\begin{pmatrix}
x_1 &  x_2 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1x_1 \\  b_2 \\ b_2x_2
\end{pmatrix} \\
&=\alpha_1x_1+2b_2x_2
\end{split}

で、b^{\prime}=-\frac{2b_2}{\alpha_1}とおくと、放物線

x_1^2=b^{\prime}x_2

となる。
(イ) {\rm{sgn}}\tilde{A}=(2,1)のとき
(ア)と同様にしてb_2\neq 0c^{\prime}=0である。b_2 > 0のとき負の固有値が存在しないので、b_2 \lt 0である。このとき、負の固有値が2つとなり、この場合はない。
(ウ) {\rm{sgn}}\tilde{A}=(2,0)のとき
c^{\prime}=0とする。b_2\neq 0とすると\tilde{A}0でない固有値の数は3となり{\rm{sgn}}\tilde{A}=(2,0)と矛盾する。b_2=0とすると、\tilde{A}0でない固有値の数は1となりこれも{\rm{sgn}}\tilde{A}=(2,0)と矛盾する。よってc^{\prime}\neq 0である。
b_2\neq 0とすると、基本変形により\tilde{A}の零でない固有値\alpha_1,b_2,b_2の3つとなり矛盾。よってb_2\neq 0である。よって(q)は、


\alpha_1x_1^2+c^{\prime}

で左辺は>0なので、空集合である。
(エ) {\rm{sgn}}\tilde{A}=(1,1)のとき
b_2\neq 0とすると、c^{\prime}=0のとき、\tilde{A}0でない固有値は3つとなり矛盾。また、c^{\prime}\neq 0とすると基本変形により、\tilde{A}0でない固有値は3つとなり矛盾。よって、b_2=0である。このとき、\alpha_1 > 0より、c^{\prime} \lt 0である。d=\sqrt{-\frac{c^{\prime}}{\alpha_1}}とおくと(q)は平行二直線

x_1^2=d^2

となる。
(オ) {\rm{sgn}}\tilde{A}=(1,0)のとき
b_2\neq 0またはc^{\prime}\neq 0とすると、\tilde{A}固有値の数は2以上であるので矛盾。よって、b_2=c^{\prime}=0である。このとき(q)は直線


x_1^2=0

となる。
(3) r(A)=0のとき
\alpha_1=\alpha_2=0より、(q)は、

b_1x_1+b_2x_2+c=0

となり(q)は一次式となり、この場合はない。よって、以上で二次曲線の分類が完了した。

(2)③(オ)のときA[\boldsymbol{x}]=0は一次式と同値であるから除く。さらに空集合および一点を除けば、二次曲線は五種類


\begin{split}
&(1)①(イ) \ \ 楕円 \ \ : \ \ a_1^2+a_2^2=d^2 \\
&(1)②(イ) \ \ 双曲線 \ \ : \ \ a_1^2-a_2^2=\pm d^2 \\
&(1)②(エ) \ \ 相交わる二直線 \ \ : \ \ a_1^2-a_2^2=0 \\
&(2)③(ア) \ \ 放物線 \ \ : \ \ x_1^2=b^{\prime} \\
&(2)③(エ) \ \ 平行二直線 \ \ : \ \ x_1^2=d^2
\end{split}

に分類される。この中で、A[\boldsymbol{x}]が2つの一次式の積に分解される場合である(1)②(エ)、(2)③(エ)以外のものを本来の二次曲線という。それらは楕円、双曲線、放物線で尽くされる。

5. 二次曲面の分類


\tilde{A}[\boldsymbol{x}]=0, \ \ 
A=
\begin{pmatrix}
\alpha_1 & 0 & 0 \\
0 & \alpha_2 & 0 \\
0 & 0 & \alpha_3 
\end{pmatrix}, \ \ 
\tilde{A}=
\begin{pmatrix}
\alpha_1 & 0 & 0 & b_1 \\
0 & \alpha_2 & 0  & b_2\\
0 & 0 & \alpha_3 & b_3 \\
b_1 & b_2 & b_3 & c
\end{pmatrix}

とし、a_i=\sqrt{|\alpha_i|} \ \ (i=1,2,3)とおく。
(1) r(A)=3のとき
平行移動x_i=y_i-\frac{b_i}{\alpha_i} \ \ (i=1,2,3)により、(Q)は、


\begin{split}
&\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & y_2-\frac{b_2}{\alpha_2} & y_3-\frac{b_3}{\alpha_3} & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 & b_1 \\
0 & \alpha_2 & 0  & b_2\\
0 & 0 & \alpha_3 & b_3 \\
b_1 & b_2 & b_3 & c
\end{pmatrix}
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} \\ y_2-\frac{b_2}{\alpha_2} \\ y_3-\frac{b_3}{\alpha_3} \\ 1
\end{pmatrix} \\
&=
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & y_2-\frac{b_2}{\alpha_2} & y_3-\frac{b_3}{\alpha_3} & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1y_1 \\ \alpha_2y_2 \\ \alpha_3y_3 \\ b_1y_1+b_2y_2+b_3y_3-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}-\frac{b_3^2}{\alpha_3}+c 
\end{pmatrix} \\
&=\alpha_1y_1 + \alpha_2y_2 + \alpha_3y_3 + 2b_1y_1+2b_2y_2+2b_3y_3+c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}-\frac{b_3^2}{\alpha_3}
\end{split}

となる。y_iを改めてx_iと書き、c^{\prime}=c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}-\frac{b_3^2}{\alpha_3}とおくと、


(Q) \ \ : \ \ \alpha_1x_1^2+\alpha_2x_2^2+\alpha_3x_3^2+c^{\prime}=0 \ \ (\alpha_i \neq 0)

となる。


(Q) \ \ : \ \ 
\begin{pmatrix}
x_1 & x_2 & x_3 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & \alpha_2 & 0 & 0 \\
0 & 0 & \alpha_3 & 0 \\
0 & 0 & 0 & c^{\prime}
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ x_3 \\ 1
\end{pmatrix}

より改めて


\tilde{A}=
\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & \alpha_2 & 0 & 0 \\
0 & 0 & \alpha_3 & 0 \\
0 & 0 & 0 & c^{\prime}
\end{pmatrix}

とおく。
{\rm{sgn}}A=(3,0)のとき
(ア) {\rm{sgn}}\tilde{A}=(4,0)のとき
\alpha_i > 0c^{\prime} > 0より(Q)の左辺は >0なので、空集合である。
(イ) {\rm{sgn}}\tilde{A}=(3,1)のとき
\alpha_i > 0c^{\prime} \lt 0よりd=\sqrt{-c^{\prime}}とおくと、(Q)は楕円面


a_1^2x_1^2+a_2^2x_2^2+a_3^2x_3^2=d^2 \ \ (d > 0)

である。
(ウ) {\rm{sgn}}\tilde{A}=(3,0)のとき
c^{\prime}=0より(Q)は一点(x_1,x_2,x_3)=(0,0,0)である。
(エ) {\rm{sgn}}\tilde{A}=(2,2)のとき
正の固有値は3つあるので、この場合はない。
(オ) {\rm{sgn}}\tilde{A}=(2,1)のとき
(エ)と同様にこの場合はない。
(カ) {\rm{sgn}}\tilde{A}=(2,0)のとき
(エ)と同様にこの場合はない。
(キ) {\rm{sgn}}\tilde{A}=(1,1)のとき
(エ)と同様にこの場合はない。
(ク) {\rm{sgn}}\tilde{A}=(1,0)のとき
(エ)と同様にこの場合はない。
{\rm{sgn}}A=(2,1)のとき
(ア) {\rm{sgn}}\tilde{A}=(4,0)のとき
\alpha_1, \alpha_2, \alpha_3のうちいずれかは0であるが一方で、\tilde{A}すべての固有値0にならない必要があるので、この場合は起こりえない。
(イ) {\rm{sgn}}\tilde{A}=(3,1)のとき
\alpha_1 >0, \alpha_2>0, \alpha_3 \lt 0とすると、c^{\prime} > 0である必要がある。d=\sqrt{c^{\prime}}とおくと(Q)は二葉双曲線

a_1^2x_1^2+a_2^2x_2^2-a_3^2x_3^2=-d^2

である。
(ウ) {\rm{sgn}}\tilde{A}=(3,0)のとき
\alpha_i\neq 0 \ \ (i=1,2,3)より、c^{\prime}=0である必要があるが、\alpha_iのうちどれかは負なので、この場合はない。
(エ) {\rm{sgn}}\tilde{A}=(2,2)のとき
\alpha_1 >0, \alpha_2>0, \alpha_3 \lt 0とすると、c^{\prime} \lt 0である必要がある。d=\sqrt{-c^{\prime}}とおくと(Q)は一葉双曲線

a_1^2x_1^2+a_2^2x_2^2+a_3^2x_3^2=d^2

である。
(オ) {\rm{sgn}}\tilde{A}=(2,1)のとき
\alpha_1 >0, \alpha_2>0, \alpha_3 \lt 0とすると、c^{\prime} = 0である必要がある。このとき(Q)は楕円錐面

a_1^2x_1^2+a_2^2x_2^2-a_3^2x_3^2=0

である。
(カ) {\rm{sgn}}\tilde{A}=(2,0)のとき
\alpha_i\neq 0 \ \ (i=1,2,3)より、0でない固有値が3つあるので、この場合はない。
(キ) {\rm{sgn}}\tilde{A}=(1,1)のとき
(カ)と同様にこの場合はない。
{\rm{sgn}}A=(2,0)のとき
\alpha_i\neq 0 \ \ (i=1,2,3)より0でない固有値が3つあるので、この場合はない。
{\rm{sgn}}A=(1,1)のとき
③と同様に、この場合はない。
{\rm{sgn}}A=(1,0)のとき
③と同様に、この場合はない。
(2) r(A)=2のとき
\alpha_1\neq 0, \alpha_2\neq 0, \alpha_3= 0とし、x_i=y_i-\frac{b_i}{\alpha_i} \ \ (i=1,2)とすると、(Q)は


\begin{split}
&\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & y_2-\frac{b_2}{\alpha_2} & x_2 & 1 
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 & b_1 \\
0 & \alpha_2 & 0 & b_2 \\
0 & 0 & 0 & b_3 \\
b_1 & b_2 & b_3 & c
\end{pmatrix}
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} \\ y_2-\frac{b_2}{\alpha_2} \\ x_2 \\ 1 
\end{pmatrix} \\
&=
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & y_2-\frac{b_2}{\alpha_2} & x_2 & 1 
\end{pmatrix}
\begin{pmatrix}
\alpha_1y_1 \\ \alpha_2y_2 \\ b_3 \\b_1y_1+b_2y_2+b_3y_3+c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}
\end{pmatrix} \\
&=\alpha_1y_1^2 + \alpha_2y_2^2 + 2b_3y_3 +c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}
\end{split}

より、y_1, y_2を改めて[texx_1,x_2]とし、c^{\prime}=c-\frac{b_1^2}{\alpha_1}-\frac{b_2^2}{\alpha_2}とすると


(Q) \ \ : \ \ \alpha_1x_1^2+\alpha_2x_2^2+2b_3x_3+c^{\prime}=0

となる。


(Q) \ \ : \ \ 
\begin{pmatrix}
x_1 & x_2 & x_3 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & \alpha_2 & 0 & 0 \\
0 & 0 & 0 & b_3 \\
0 & 0 & b_3 & c^{\prime}
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ x_3 \\ 1
\end{pmatrix}

より。改めて


\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & \alpha_2 & 0 & 0 \\
0 & 0 & 0 & b_3 \\
0 & 0 & b_3 & c^{\prime}
\end{pmatrix}

とおく。
{\rm{sgn}}A=(3,0)のとき
A0でない固有値は2つなので、この場合はない。
{\rm{sgn}}A=(2,1)のとき
①と同様にこの場合はない。 ③ {\rm{sgn}}A=(2,0)のとき
(ア) {\rm{sgn}}\tilde{A}=(4,0)のとき
b_3=0のとき、0でない固有値は3個以下となり矛盾するので、b_3\neq 0である。c^{\prime}\neq 0とすると、\tilde{A}基本変形により次の形に変形される


\tilde{A}=
\begin{pmatrix}
\alpha_1 & & & \\
  & \alpha_2 &  & \\
& &  -\frac{b_3^2}{c^{\prime}} & \\
&&&c^{\prime}
\end{pmatrix}

このとき\tilde{A}は少なくとも1つ負の固有値を持つことになるので矛盾。よって、c^{\prime}=0となる。従って(Q)は、


\begin{split}
&\begin{pmatrix}
x_1 & x_2 & x_3 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & \alpha_2 & 0 & 0 \\
0 & 0 & 0 & b_3 \\
0 & 0 & b_3 & 0
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ x_3 \\ 1
\end{pmatrix} \\
&=\alpha_1x_1^2+\alpha_2x_2^2+2b_3x_3
\end{split}

より、b^{\prime}=-2b_3と置くことにより、楕円放物面


a_1^2x_1^2+a_2^2x_2^2=b^{\prime}x_3 \ \ (b^{\prime}\neq 0)

となる。
(イ) {\rm{sgn}}\tilde{A}=(3,1)のとき
b_3\neq 0で、c^{\prime}=0とすると負の固有値は0個または2個となるので矛盾。よってc^{\prime}\neq 0である。このとき(Q)はx_3\rightarrow x_3-\frac{c^{\prime}}{2b_3}の平行移動を行うことにより、楕円放物面


a_1^2+a_2^2=b^{\prime}x_3 \ \ (b^{\prime}\neq 0)

により(ア)と同じ場合になる。
(ウ) {\rm{sgn}}\tilde{A}=(3,0)のとき
b_3\neq 0とすると\tilde{A}固有値の数は4となり矛盾。よってb_3=0c^{\prime} >0である必要がある。よって(Q)の左辺は >0となり空集合である。
(エ) {\rm{sgn}}\tilde{A}=(2,2)のとき
(ア)と同様に、c^{\prime}=0であり、b_3 \lt 0である必要がある。このとき(ア)と同じ場合になる。
(オ) {\rm{sgn}}\tilde{A}=(2,1)のとき
b_3\neq 0とすると\tilde{A}固有値の数は4となり矛盾。よってb_3=0である。このときc^{\prime} > 0である必要がある。d=\sqrt{-c^{\prime}}とおくと、(Q)は楕円柱面

a_1^2x_1^2+a_2^2x_2^2=d^2 \ \ (d > 0)

となる。
(カ) {\rm{sgn}}\tilde{A}=(2,0)のとき
b_3\neq 0またはc^{\prime}\neq 0のとき、\tilde{A}固有値の数は3以上となるので矛盾。よって、b_3=0かつc^{\prime}=0である。このとき(Q)は

a_1^2x_1^2+a_2^2x_2^2=0

x_1=x_2=0がなす集合

\{(0,0,x_3) \ : \ x_3\in\mathbb{R} \}

である。即ち直線である。
(キ) {\rm{sgn}}\tilde{A}=(1,1)のとき
(カ)と同様にして[ tex:b_=0]かつc^{\prime}=0である。このとき\tilde{A}の2つの固有値\alpha_1, \alpha_2は正なので矛盾。よってこの場合はない。
(ク) {\rm{sgn}}\tilde{A}=(1,0)のとき
\tilde{A}固有値の数は少なくとも2つなので、この場合はない。
{\rm{sgn}}A=(1,1)のとき
\alpha_1 >0\alpha_2 \lt 0とする。
(ア) {\rm{sgn}}\tilde{A}=(4,0)のとき
\tilde{A}は少なくとも1つの負の固有値を持つので矛盾。よってこの場合はない。
(イ) {\rm{sgn}}\tilde{A}=(3,1)のとき
c^{\prime}\neq 0とすると\tilde{A}は2つの負の固有値をもつので矛盾。よって、c^{\prime}=0である。このときb^{\prime}=-2b_3とおくと、(Q)は双曲放物面

a_1^2x_1^2-a_2^2x_2^2=b^{\prime}x_3 \ \ (b^{\prime}\neq 0)

となる。
(ウ) {\rm{sgn}}\tilde{A}=(3,0)のとき
b_3\neq 0のとき\tilde{A}固有値の数は4となり矛盾。よってb_3=0である。このとき\tilde{A}には少なくとも負の固有値が1つあるので矛盾。よってこの場合はない。
(エ) {\rm{sgn}}\tilde{A}=(2,2)のとき
c^{\prime}=0のとき\tilde{A}の負の固有値の数は1または3より矛盾。よって、c^{\prime}\neq 0である。またb_3=0のとき\tilde{A}固有値の数は3となり矛盾。よってb_3\neq 0である。このとき(Q)はx_3\rightarrow x_3-\frac{c^{\prime}}{2b_3}の平行移動を行うことで双曲放物面

a_1^2x_1^2-a_2^2x_2^2=b^{\prime}x_3

となる。
(オ) {\rm{sgn}}\tilde{A}=(2,1)のとき
b_3\neq 0のとき、\tilde{A}固有値の数は4となるので矛盾。よってb_3=0である。このときc^{\prime} > 0である必要がある。このときd=-c^{\prime}として(Q)は双曲柱面

a_1^2x_1^2-a_2^2x_2^2=d \ \ (d\neq 0)

となる。
(カ) {\rm{sgn}}\tilde{A}=(2,0)のとき
b_3\neq 0またはc^{\prime}\neq 0のとき\tilde{A}固有値の数は3以上となり矛盾。よってb_3=0かつc^{\prime}=0である。\tilde{A}は少なくとも1つ負の固有値をもつのでこの場合はない。
(キ) {\rm{sgn}}\tilde{A}=(1,1)のとき
(カ)と同様にb_3=c^{\prime}=0である。このとき(Q)は相交わる二平面

a_1^2x_1^2-a_2^2x_2^2=0

である。 (ク) {\rm{sgn}}\tilde{A}=(1,0)のとき
\tilde{A}には少なくとも0でない2つの固有値が存在するのでこの場合はない。
(3) r(A)=1のとき
\alpha_1\neq 0\alpha_2=\alpha_3=0とする。x_1=y_1-\frac{b_1}{\alpha_1}とすると(Q)は、


\begin{split}
&\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & x_2 & x_3 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1 & 0 & 0 & b_1 \\
0 & 0 & 0 & b_2 \\
0 & 0 & 0 & b_3 \\
b_1 & b_2 & b_3 & c
\end{pmatrix}
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} \\ x_2 \\ x_3 \\ 1
\end{pmatrix} \\
&=
\begin{pmatrix}
y_1-\frac{b_1}{\alpha_1} & x_2 & x_3 & 1
\end{pmatrix}
\begin{pmatrix}
\alpha_1y_1 \\ b_2 \\ b_3 \\ b_1y_1+b_2x_2+b_3x_3+c-frac{b_1^2}{\alpha_1}
\end{pmatrix} \\
&=\alpha_1y_1^2+2b_2x_2+2b_3x_3+c-\frac{b_1^2}{\alpha_1}
\end{split}

より、y_1を改めてx_1とおき、[tex:c^{\prime}=c-\frac{b_12}{\alpha_1}]とおくと


(Q) \ \ : \ \ \alpha_1y_1^2+2b_2x^2+2b_3x_3+c-\frac{b_1^2}{\alpha_1}

となる。改めて


\tilde{A}=
\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & 0 & 0 & b_2 \\
0 & 0 & 0 & b_3 \\
0 & b_2 & b_3 & c
\end{pmatrix}

とおく。
{\rm{sgn}}A=(3,0)のとき
固有値の数が1のためこの場合はない。
{\rm{sgn}}A=(2,1)のとき
①と同様にこの場合はない。
{\rm{sgn}}A=(2,1)のとき
①と同様にこの場合はない。
{\rm{sgn}}A=(1,1)のとき
①と同様にこの場合はない。
{\rm{sgn}}A=(1,0)のとき
\alpha_1 > 0である。
(ア) {\rm{sgn}}\tilde{A}=(4,0)のとき
b_2\neq 0とするとr(A)=3となり矛盾。また、b_2=0としてもr(A)\le 3となり矛盾。よってこの場合はない。
(イ) {\rm{sgn}}\tilde{A}=(3,1)のとき
(ア)と同様にこの場合はない。
(ウ) {\rm{sgn}}\tilde{A}=(3,0)のとき
c^{\prime}\neq 0とすると\tilde{A}は、


\begin{pmatrix}
\alpha_1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 & -\frac{b_3^2}{c^{\prime}} & 0 \\
0 & 0 & 0 & c^{\prime}
\end{pmatrix}

基本変形される。このとき少なくとも負の固有値が1つあるので矛盾。よってc^{\prime}=0である。よって、


(Q) \ \ : \ \ \alpha_1x_1^2+2b_2x_2+2b_3x_3=0

である。


\begin{pmatrix}
x_1^{\prime} \\ x_2^{\prime} \\ x_3^{\prime}
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 \\
0 & \frac{1}{b_2} & \frac{1}{b_3} \\
0 & -\frac{1}{b_2} & \frac{1}{b_3} 
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ x_3
\end{pmatrix}

の変数変換をした後、b^{\prime}=^\frac{2b_2}{\alpha_1}とおくと(Q)は放物柱面

x_1^2=b^{\prime}x_2

となる。
(エ) {\rm{sgn}}\tilde{A}=(2,2)のとき
(ア)と同様にしてこの場合はない。
(オ) {\rm{sgn}}\tilde{A}=(2,1)のとき


\begin{pmatrix}
x_1^{\prime} \\ x_2^{\prime} \\ x_3^{\prime}
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 \\
0 & \frac{1}{b_2} & \frac{1}{b_3} \\
0 & -\frac{1}{b_2} & \frac{1}{b_3} 
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ x_3
\end{pmatrix}
+
\begin{pmatrix}
0 \\ -\frac{c^{\prime}}{2b_2} \\ 0
\end{pmatrix}

の変数変換により、(Q)は放物柱面

x_1^2=b^{\prime}x_2

となる。
(カ) {\rm{sgn}}\tilde{A}=(2,0)のとき
b_2\neq 0またはb_3\neq 0のときr(A)=3より矛盾。よって、b_2=b_3=0である。このときc^{\prime} > 0である必要がある。このとき(Q)の左辺は> 0より空集合である。
(キ) {\rm{sgn}}\tilde{A}=(1,1)のとき
(オ)と同じ理由によりb_2=b_3=0である。このときc^{\prime} \lt 0である必要がある。d~\sqrt{-c^{\prime}}とおくと(Q)は平行二平面

x_1^2=d^2

である。
(ク) {\rm{sgn}}\tilde{A}=(1,0)のとき
b_2\neq 0またはb_3\neq 0またはc^{\prime}\neq 0であればr(A)\ge 1より矛盾。よってb_2=b_3=c^{\prime}=0である。このとき(Q)は平面

x_1^2=0

である。

以上で二次曲面の分類が完了する。(3)⑤(ク)の場合は一次方程式と同値であるから除く。さらに空集合および一点をのぞけば、二次曲面は、11種類に分類される。そのうちr(\tilde{A})=4のもの(楕円面、一葉双曲面、二葉双曲面、楕円放物面、双曲放物面)を本来の二次曲面という。

6. 参考文献
[1] 線型代数入門

線型代数入門 (基礎数学) [ 斎藤正彦 ]

価格:2,090円
(2021/12/6 21:07時点)
感想(2件)

【線形代数学入門】二次形式

1. 記事の目的
本記事では、二次形式について述べる。二次形式の零点全体は、放物線などの図形である。二次形式を用いることで、放物線などの二次曲線の分類を代数的(文字式の変形によって)に行うことができる。二次形式には標準形と呼ばれる形がある。この際に対称変換の理論が必要になる。対象変換については下記の記事を参照。

camelsan.hatenablog.com

2. 多項式
まず、1変数の多項式を定義する。
一つの文字xと、\mathbb{R}の元a_0, a_1, \dots, a_nから作られる式


\displaystyle\sum_{i=0}^n a_ix^i = a_0+a_1x+\dots+a_nx^n
\tag{1}

を文字x\mathbb{R}-係数多項式という。n多項式(1)の次数という。

次に多変数の多項式を定義する。最初に単項式を定義する。
n個の文字x_1,x_2,\dots,x_n\mathbb{R}の元aから作られる式


ax_1^{p_1}x_2^{p_2}\dots x_n^{p_n} \ \ (p_i\ge 0)
\tag{2}

n変数x_1,x_2,\dots,x_nの単項式という。p=p_1+p_2+\dots+p_nを単項式(2)の総次数という。個々のp_iは単項式(2)のx_iに関する次数と呼ばれる。

いくつかの単項式を記号+で結んだ式


\displaystyle\sum_{(p_1,p_2,\dots,p_n)} a_{p_1,p_2,\dots,p_n} x_1^{p_1}x_2^{p_2}\dots x_n^{p_n}
\tag{3}

n変数x_1,x_2,\dots,x_n多項式という。多項式(3)に含まれる0でない係数を持つ単項式の総次数の最大のものを、多項式(3)の総次数という。

多項式の核単項式の総次数がすべて等しいとき、その多項式を、斉次多項式という。このとき各探鉱しの総次数がnのとき、n次の斉次多項式と呼ぶこととする。

3. 二次形式
n個の変数x_1,x_2,\dots,x_nに関する実変数の2次の斉次多項式を、二次形式という。即ち


F(x_1,x_2,\dots,x_n)=\displaystyle\sum_{i,j=1}^n a_{ij} x_ix_j

である。ここで、a_{ii}は[tex:x_i2]の係数であるから一意的に決まる。しかし、x_ix_j=x_jx_iより、a_{ij} \ \ (i\neq j)は一意に定まらない( x_ix_jの係数は(a_{ij}+a_{ji})となり、和の分け方の不確定性によりa_{ij}は一意に決定できない )。今後、

a_{ij}=a_{ji}

という条件をつける(これによりx_ix_jの係数は2a_{ij}となり、a_{ij}が一意に定まる)。

3.1
n=3のとき


\begin{split}
F(x_1,x_2,x_3)&=\displaystyle\sum_{i,j=1}^3 a_{ij}x_ix_j \\
&=a_{11}x_1^2+a_{22}x_2^2+a_{33}x_3^2+2a_{12}x_1x_2+2a_{13}x_1x_3+2a_{23}x_2x_3
\end{split}

二次形式の係数から作られる行列A=(a_{ij})を二次形式Fの行列という。a_{ij}=a_{ji}よりA^t=AなのでAは実対称行列である。


\boldsymbol{x}=
\begin{pmatrix}
x_1 \\ x_2 \\ \vdots \\ x_n
\end{pmatrix}

とすれば


F(x_1,x_2,\dots,x_n)=F(\boldsymbol{x})=^t\boldsymbol{x}A\boldsymbol{x}

と表される。これを、対称行列Aによって定まる二次形式という意味で、


A[\boldsymbol{x}]=^t\boldsymbol{x}A\boldsymbol{x}

と表す。

3.2
n=3のとき、


A=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{12} & a_{22} & a_{23} \\
a_{13} & a_{23} & a_{33}
\end{pmatrix}, \ \ 
\boldsymbol{x}=
\begin{pmatrix}
x_1 \\ x_2 \\ x_3
\end{pmatrix}

とすると


\begin{split}
A[\boldsymbol{x}]&=
\begin{pmatrix}
x_1 & x_2 & x_3
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{12} & a_{22} & a_{23} \\
a_{13} & a_{23} & a_{33}
\end{pmatrix}
\begin{pmatrix}
x_1 \\ x_2 \\ x_3
\end{pmatrix} \\
&=\begin{pmatrix}
x_1 & x_2 & x_3
\end{pmatrix}
\begin{pmatrix}
a_{11}x_1+a_{12}x_2+a_{13}x_3 \\ a_{12}x_1+a_{22}x_2+a_{23}x_3 \\ a_{13}x_1+a_{23}x_2+a_{33}x_3
\end{pmatrix} \\
&=a_{11}x_1^2+a_{12}x_1x_2+a_{13}x_1x_3 \\
&+a_{12}x_1x_2+a_{22}x_1^2+a_{23}x_2x_3 \\
&+a_{13}x_1x_3+a_{23}x_1x_3+a_{33}x_3^2 \\
&=a_{11}x_1^2+a_{22}x_2^2+a_{33}x_3^2+2a_{12}x_1x_2+2a_{13}x_1x_3+2a_{23}x_2x_3
\end{split}

これは、例3.1のF(x_1,x_2,x_3)と一致する。

4. 二次形式の標準形
二つの変数ベクトル


\boldsymbol{x}=
\begin{pmatrix}
x_1 \\ x_2 \\ \vdots \\ x_n 
\end{pmatrix}, \ \ 
\boldsymbol{y}=
\begin{pmatrix}
y_1 \\ y_2 \\ \vdots \\ y_n 
\end{pmatrix}

正則行列Pによって、

\boldsymbol{x}=P\boldsymbol{y}

なる関係で呼ばれているとする。

G(\boldsymbol{y})=F[\boldsymbol{x}]

とおくとG(\boldsymbol{y})\boldsymbol{y}の二次形式である。実際、


\begin{split}
G(\boldsymbol{y})&=F[\boldsymbol{x}] \\
&=^t\boldsymbol{x}A\boldsymbol{x} \\
&=^t(P\boldsymbol{y})A(P\boldsymbol{y}) \\
&=^t\boldsymbol{y}(^tPAP)\boldsymbol{y} \\
&=^tPAP[\boldsymbol{y}]
\end{split}

即ち、G(\boldsymbol{y})は対称行列^tPAPによって定まる二次形式である。

二次形式F(\boldsymbol{x})が与えられたとき、適当な変数ベクトル\boldsymbol{y}=P\boldsymbol{x} ( P正則行列 )を見つけて、G(\boldsymbol{y})をなるべく簡単な二次形式にすることを考える。

特に、Pが直交行列ならば、^tP=P^{-1}なので、次の定理が成り立つ。
定理4.1
二次形式F(\boldsymbol{x})=A[\boldsymbol{x}]に対し、適当な直交行列Pをとって、\boldsymbol{x}=P\boldsymbol{y}とすれば、

F(\boldsymbol{x})=G(\boldsymbol{y})=\alpha_1y_1^2+\alpha_2y_2^2+\dots+\alpha_ny_n^2\tag{5}

となる。但し、\alpha_1,\alpha_2,\dots,\alpha_nは、Aの(重複をこめた)固有値である。
証明:下記の記事の定理2.3より、Aは対称行列なので、P^{-1}APが対角行列で、しかもその対角成分がA固有値\alpha_1,\alpha_2,\dots,\alpha_nであるものが存在する。

camelsan.hatenablog.com

よって、


\begin{split}
F(\boldsymbol{x})&=G(\boldsymbol{x})=^t\boldsymbol{y}(P^{-1}AP)\boldsymbol{y} \\
&=\alpha_1y_1^2+\alpha_2y_2^2+\dots+\alpha_ny_n^2
\end{split}

である。

定理4.1で、


\begin{split}
\alpha_1,\alpha_2,\dots,\alpha_p > 0, \alpha_{p+1}, \alpha_{p+2},\dots, \alpha_{p+q} < 0 \\
\alpha_{p+q+1}=\alpha_{p+q+2}=\dots=\alpha_n=0
\end{split}

となるように調整し、


y_i=\frac{1}{\sqrt{\alpha_i}}z_i \ \ (1\le i\le p), \ \ y_j=\frac{1}{\sqrt{\alpha_j}}z_j \ \ (p+1\le j\le p+q)

により変数変換を行うと、


\begin{split}
F(\boldsymbol{x})&=G(\boldsymbol{y})=H(\boldsymbol{z}) \\
&=z_1^2+z_2^2+\dots+z_p^2-z_{p+1}^2-\dots-z_{p+q}^2
\end{split}

となる。これを二次形式F(\boldsymbol{x})の標準形という。

このとき次の標準形の一意性が成り立つ。
定理4.2 (シルヴェスタの慣性法則)
二次形式の標準形は一意に定まる。即ち、変数にどんな正則線型変換を施して標準形に写しても、正負の数p,qは一定である。
証明:2通りの変数変換

\boldsymbol{x}=P\boldsymbol{y}, \ \ \boldsymbol{x}=Q\boldsymbol{z}

によって、2通りの標準形


\begin{split}
F(\boldsymbol{x})&=G(\boldsymbol{y})=y_1^2+y_2^2+\dots+y_p^2-y_{p+1}^2-\dots-y_{p+q}^2 \\
&=H(\boldsymbol{z})=z_1^2+z_2^2+\dots+z_s^2-z_{s+1}^2-\dots-z_{s+t}^2
\end{split}

を得たとする。このとき、p+q=s+t=r(A) ( A の階数) である。
p > sと仮定する。x_1,x_2,\dots,x_nに関する連立方程式


\begin{split}
y_i &= 0 \ \ (i=p+1,p+2,\dots, n) \\
z_j&=0 \ \ (j=1,2,\dots,s)
\end{split}

は自明でない解a_1,a_2,\dots,a_nを持つ。実際、方程式の個数はn-P+sであり、p-s>0より、変数の数nより小さいため、下記の記事の定理7.1より成り立つ。

camelsan.hatenablog.com


P^{-1}=
\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n \end{pmatrix}=\begin{pmatrix}b_1 \\ b_2 \\ \vdots \\ b_p \\ 0 \\ \vdots \\ 0 \end{pmatrix}, \ \ 
Q^{-1}
\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n \end{pmatrix}=\begin{pmatrix}0  \\ \vdots \\ 0 \\ c_{s+1} \\ \vdots \\ c_n \end{pmatrix}

の形なので、

F(\boldsymbol{a})=b_1^2+b_2^2+\dots+b_p^2=-c_{s+1}^2-c_{s+2}^2-\dots-c_n^2

である。左辺は\geで、右辺は\leなので、両辺は0でなければならない。よって、

b_1=b_2=\dots=b_p=0

となり、a_1,a_2\dots,a_nが自明でない解であることに反する。従ってp\le sである。psを入れ替えて、p\ge sも言えるので、p=sである。

一意に決まるp,qの組(p,q)を二次形式F(\boldsymbol{x})=A[\boldsymbol{x}]の符号という。pは実対称行列Aの正の固有値の数、qは負の固有値の数である。

二次形式が正値(半正値)であることを定義する。
定義
\boldsymbol{x}でない任意のベクトル\boldsymbol{x}に対して、F(\boldsymbol{x})>0 (またはF(\boldsymbol{x})\ge0 )が成立するとき、二次形式F(\boldsymbol{x})は正値(または半正値)であるという。

F(\boldsymbol{x})=^t\boldsymbol{x}A\boldsymbol{x}=(A\boldsymbol{x},\boldsymbol{x})であるから、下記の記事の定理4.1より、二次形式が正値(または半正値)であることと、実対称行列Aが正値(または半正値)であることは同値である。さらに、p=n \ \ (q=0)が成り立つことと同値である。

camelsan.hatenablog.com

二次形式の正値性を小行列式によって判定することができる。


A=
\begin{pmatrix}
a_{11} & a_{12} & \dots & a_{1n} \\
a_{21} & a_{22} & \dots & a_{2n} \\
\vdots & \vdots & & \vdots \\
a_{n1} & a_{n2} & \dots & a_{nn} 
\end{pmatrix}

に対し、


A=
\begin{pmatrix}
a_{11} & a_{12} & \dots & a_{1k} \\
a_{21} & a_{22} & \dots & a_{2k} \\
\vdots & \vdots & & \vdots \\
a_{k1} & a_{k2} & \dots & a_{kk} 
\end{pmatrix}

とおく( k=1,2,\dots,n )。

定理4.3
二次形式A[\boldsymbol{x}]が正値であるためには、|A_k| > 0 \ \ (k=1,2,\dots,n)が成り立つことが必要かつ十分な条件である。
証明:A[\boldsymbol{x}]が正値ならば、


\begin{split}
&\begin{pmatrix}
^t\boldsymbol{x}_k & ^t\boldsymbol{x}_{n-k}
\end{pmatrix}
\begin{pmatrix}
A_k & B \\
\boldsymbol{c} & A_{n-k}
\end{pmatrix}
\begin{pmatrix}
\boldsymbol{x}_k \\ \boldsymbol{x}_{n-k}
\end{pmatrix} \\
&=
\begin{pmatrix}
^t\boldsymbol{x}_kA_k+^t\boldsymbol{x}_{n-k}\boldsymbol{c} & ^t\boldsymbol{x}_kB+^t\boldsymbol{x}_{n-k}A_{n-k}
\end{pmatrix}
\begin{pmatrix}
\boldsymbol{x}_k \\ \boldsymbol{x}_{n-k}
\end{pmatrix} \\
&=^t\boldsymbol{x}_kA_k\boldsymbol{x}_k+^t\boldsymbol{x}_{n-k}\boldsymbol{c}\boldsymbol{x}_k+^t\boldsymbol{x}_kB\boldsymbol{x}_{n-k}+^t\boldsymbol{x}_{n-k}A_{n-k}\boldsymbol{x}_{n-k}
\end{split}

より、


\boldsymbol{x}=
\begin{pmatrix}
x_1 \\ \vdots \\ x_k \\ 0 \\ \vdots \\ 0
\end{pmatrix}, \ \ 
\boldsymbol{x}_k=
\begin{pmatrix}
x_1 \\ \vdots \\ x_k
\end{pmatrix}
\neq 0

として、0 \lt ^t\boldsymbol{x}A\boldsymbol{x}=^t\boldsymbol{x}_kA_k\boldsymbol{x}_kとなるので、A_kも正値である。
よって、ある直交行列P_kがあって、

P_k^{-1}A_kP_k=
\begin{pmatrix}
\alpha_1 & & \\
& \ddots & \\
& & \alpha_k
\end{pmatrix} \ \ (\alpha_1,\dots,\alpha_k > 0)

となる。よって、

|A_k|=|P_k^{-1}A_kP|=\alpha_1\dots\alpha_k > 0 \ \ (k=1,\dots,n)

である。
逆をnに関する数学的帰納法によって証明する。n=1のとき、x\neq 0に対し、

F(x)=ax^2

より、F(x) > 0であるためにはa>0であることが必要十分条件なので、0\lt |A_1|=aより成り立つ。n=1のとき成り立つと仮定すれば、A_{n-1}[\boldsymbol{x}]は正値である。


A=
\begin{pmatrix}
A_{n-1} & \boldsymbol{b} \\
^t\boldsymbol{b} & c
\end{pmatrix}

と区分けしておく(行列の区分けは下記の記事を参照)。

camelsan.hatenablog.com


P=
\begin{pmatrix}
E_{n-1} & A_{n-1}^{-1}\boldsymbol{b} \\
^t\boldsymbol{0} & 1
\end{pmatrix}

とおくと、[tex:^tA{n-1}=A{n-1}]を用いて、


\begin{split}
^tP
\begin{pmatrix}
A_{n-1} & \boldsymbol{0} \\
^t\boldsymbol{0} & c-A_{n-1}^{-1}[\boldsymbol{b}]
\end{pmatrix}
P&=
\begin{pmatrix}
E_{n-1} & \boldsymbol{0} \\
^t\boldsymbol{b}A_{n-1}^{-1} & 1
\end{pmatrix}
\begin{pmatrix}
E_{n-1} & \boldsymbol{0} \\
^t\boldsymbol{0} & c-A_{n-1}^{-1}[\boldsymbol{b}]
\end{pmatrix}
\begin{pmatrix}
E_{n-1} & A_{n-1}^{-1}\boldsymbol{b} \\
^t\boldsymbol{0} & 1
\end{pmatrix} \\
&=
\begin{pmatrix}
A_{n-1} & \boldsymbol{0} \\
^t\boldsymbol{b} & c-^t\boldsymbol{b}A_{n-1}^{-1}\boldsymbol{b}
\end{pmatrix}
\begin{pmatrix}
E_{n-1} & A_{n-1}^{-1}\boldsymbol{b} \\
^t\boldsymbol{0} & 1
\end{pmatrix} \\
&=
\begin{pmatrix}
A_{n-1} & \boldsymbol{b} \\
^t\boldsymbol{b} & c
\end{pmatrix}
\end{split}
\tag{6}

となる。定理4.1から、Pによる変数変換の前後で、二次形式の正値性は変化しないので、


B=
\begin{pmatrix}
A_{n-1} & \boldsymbol{0} \\
^t\boldsymbol{0} & c-A_{n-1}^{-1}[\boldsymbol{b}]
\end{pmatrix}

が正値であることを言えばよい。式(6)の両辺の行列式をとると、区分けと行列式の定理と、直交行列の行列式は常に1、即ち|^tP|=|P|=1より、

|A|=|A_{n-1}|\cdot (c-A_{n-1}^{-1}[\boldsymbol{b}])

仮定より、|A|>0, \ \ |A_{n-1}|>0であるから、d=c-A_{n-1}^{-1}[\boldsymbol{b}] > 0 である。\boldsymbol{0}でないn項列ベクトル\boldsymbol{x}

\boldsymbol{x}=
\begin{pmatrix}
\boldsymbol{x}^{\prime} \\ x_n
\end{pmatrix}

と区分けすれば


\begin{split}
B[\boldsymbol{x}]
&=
\begin{pmatrix}
^t\boldsymbol{x}^{\prime} & x_n
\end{pmatrix}
\begin{pmatrix}
A_{n-1} & \boldsymbol{0} \\
^t\boldsymbol{0} & d
\end{pmatrix}
\begin{pmatrix}
\boldsymbol{x}^{\prime} \\ x_n
\end{pmatrix} \\ 
&=
\begin{pmatrix}
^t\boldsymbol{x}^{\prime}A_{n-1} & dx_n
\end{pmatrix}
\begin{pmatrix}
\boldsymbol{x}^{\prime} \\ x_n
\end{pmatrix} \\
&=^t\boldsymbol{x}^{\prime}A_{n-1}\boldsymbol{x}^{\prime}+dx_n^2 > 0
\end{split}

即ちBは正値である。

\boldsymbol{0}でない任意のベクトル\boldsymbol{x}に対して、F(\boldsymbol{x})\lt 0 (または  F ( \boldsymbol{x} ) \ge 0 )となるような二次形式は負値(または半負値)であると言われる。A[\boldsymbol{x}]が負値であるのは、丁度(-A)[\boldsymbol{x}]が正値のときなので、定理4.3から、から次の定理が得られる。

定理4.4
二次形式A[\boldsymbol{x}]が負値であるためには、(-1)^k|A|_k>0 \ \ (k=1,2,\dots,n)が成り立つことが必要かつ十分な条件である。

5. 参考文献
[1] 線型代数入門

線型代数入門 (基礎数学) [ 斎藤正彦 ]

価格:2,090円
(2021/12/6 21:07時点)
感想(2件)

【線形代数学入門】対称変換

1. 記事の目的
下記の記事で、エルミート変換について述べた。本記事ではエルミート変換を実数上のベクトル空間に制限したものである、対称変換について述べる。

camelsan.hatenablog.com

2. 対称変換の対角化
実数上の線形空間Vの線型変換Tの特性根は、実数とは限らないため、固有ベクトルが存在しない場合がある。そのため常に実数上のベクトル空間の線型変換が対角化可能であるとは限らない(可能なものが対称変換である)。

定義
実数上のベクトル空間V (これをユークリッド空間と呼んだ)の対称変換Tが、Vの任意の2元\boldsymbol{x}, \boldsymbol{y}に対し

(T\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, T\boldsymbol{y})

を満たすとき、Tを対称変換という。

Tが対称変換ならば、Vの任意の正規直交基底に関するTを行列によって表示した場合の、行列は実対称行列となる。逆に、ある正規直交基底に関して実対称行列で表現されるような変換は、対称変換である。

実対称行列は、エルミート行列であるから、下記の記事の定理4.1の(1)より、その特性根はすべて実数である。

camelsan.hatenablog.com

従って、対称変換の特性根はすべて固有値である。

実対称変換の固有値と固有空間に関して次が成り立つ。
定理2.1
実計量ベクトル空間Vの対称変換Tの相異なる固有値\beta_1,\beta_2,\dots,\beta_kとし、対応する固有空間をW_1.W_2,\dots,W_kとすると、W_1.W_2,\dots,W_kは互いに直交し

V=W_1\oplus W_2\oplus\dots\oplus W_k

となる。
証明{\rm{dim}}Vに関する数学的帰納法で証明する。{\rm{dim}}V=0のとき、V=\{ \boldsymbol{0} \}で、\boldsymbol{0}でない固有ベクトルは存在しない。よって、V=\{ \boldsymbol{0} \}で定理が成立する。{\rm{dim}}V\ge 1とする。このとき、少なくとも一つの固有値が存在するので、k\ge 1である。
W_1^{\bot}T-不変である。実際、\boldsymbol{x}\in W_1^{\bot}ととれば、任意の\boldsymbol{y}\in W_1に対し、

(T\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, T\boldsymbol{y})=\beta_1 (\boldsymbol{x}, \boldsymbol{y})=0

となる。TW_1^{\bot}への制限をT_1とすれば、T_1は対称変換で、{\rm{dim}}W_1^{\bot}\le {\rm{dim}}V-1より、\beta_2,\dots,\beta_kがその相異なる固有値である。\beta_2,\dots,\beta_kに対するT_1の固有空間を、W_2^{\prime},\dots,W_k^{\prime}とすれば、数学的帰納法の仮定により、これらは互いに直交し、W_1^{\bot}W_2^{\prime},\dots,W_k^{\prime}の直和となる。従って、W_1, W_2^{\prime},\dots,W_k^{\prime}は互いに直交し、

V=W_1\oplus W_2^{\prime}\oplus\dots\oplus W_k^{\prime}

である。i=2,\dots,kに対し、\boldsymbol{x}\in W_1^{\prime}とすると、\boldsymbol{x}\beta_i固有ベクトルであるから、\boldsymbol{x}\in W_i である。よって、W_i^{\prime}\subset W_iである。ここで、あるi=2,\dots,kに対しW_i\neq W_i^{\prime}

V=W_1\oplus W_2^{\prime}\oplus\dots\oplus W_k^{\prime}\subsetneq W_1\oplus W_2\oplus\dots\oplus W_k\subseteq V

より、{\rm{dim}}V \lt {\rm{dim}}Vとなり、矛盾。よってW_i^{\prime}\neq W_iである。従って、

V=W_1\oplus W_2\oplus\dots\oplus W_k

となる。

定理2.1から次の定理が導かれる。
定理2.2
実計量ベクトル食う案Vの線型変換Tが適当な正規直交基底に関して対角行列で表現されるためには、Tが対象変換であることが必要かつ十分な条件である。
証明Tが対称変換のとき、定理2.1から、固有ベクトルからなる正規直交基底が存在する。このとき、このとき、この正規直交基底に関してTを行列で表現すると対角行列となる。逆にTが対角行列で表現されれば、Tは対称変換である。

定理2.2を行列で表すと次のようになる。
定理2.3
実正方行列Aに対し、P^{-1}APが対角行列になるような直交行列Pが存在するためには、Aが対称行列であることが必要かつ十分な条件である。
証明Aが実対称行列のとき、定理2.2を\mathbb{R}^nに適用すると、正規直交基底\boldsymbol{p}_1,\boldsymbol{p}_2,\dots,\boldsymbol{p}_nが存在する。このときP=(\boldsymbol{p}_1 \ \boldsymbol{p}_2 \ \dots \ \boldsymbol{p}_n)とすると、下記の記事の定理2.3より、Pは直交行列である。

camelsan.hatenablog.com

また、Pは単位ベクトルからなる\mathbb{R}^nの基底\boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_nから\boldsymbol{p}_1,\boldsymbol{p}_2,\dots,\boldsymbol{p}_nへの変換行列である。下記の記事4節の式(3)より(2つの変換行列を同じPとして)

\Lambda = P^{-1}AP

となる。ここで、\LambdaA固有値からなる対角行列である。

camelsan.hatenablog.com

逆に、P^{-1}AP=\Lambdaが対角行列と仮定すると、

A=P\Lambda P^{-1}

より、Pは直交行列なので、^tP=P^{-1}であるから、


\begin{split}
^{t}A &=^{t}{(P\Lambda P^{-1})} \\
&=^{t}P{^{-1}} ^{t}\Lambda ^{t}P \\
&=P\Lambda P^{-1}=A
\end{split}

より、Aは対称行列である。

3. 対称変換のスペクトル分解
エルミート変換と同様にして、対称変換もスペクトル分解が可能である。
Vを実計量ベクトル空間、Wをその部分空間とするとき、Vの任意の元\boldsymbol{x}は、

\boldsymbol{x}=\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime}, \ \ \boldsymbol{x}^{\prime}\in W, \boldsymbol{x}^{\prime\prime}\in W^{\bot}

の形に一意に表される。Vの線型変換

P:V\rightarrow V; \boldsymbol{x}\mapsto \boldsymbol{x}^{\prime}

VWへの射影子という。

次の同値条件が成り立つ。
定理3.1
実計量ベクトル空間Vの線型変換Pが、Vのある部分空間Wへの射影子であるためには、Pが対称変換であって、P^2=Pが成り立つことが必要かつ十分な条件である。
証明:下記の記事の定理2.1の証明と全く同じである。

camelsan.hatenablog.com

スペクトル分解は次のようになる。
定理3.2
実計量ベクトル空間Vの対称変換Tの相異なる固有値を、\beta_1,\beta_2,\dots,\beta_kとすれば、次の条件を満たす射影子P_1,P_2,\dots,P_kが一意的にさ定まる。

P_1+P_2+\dots+P_k=I, \ \ P_iP_j=0 \ \ (i\neq j)\tag{1}
T=\beta_1P_1+\beta_2P_2+\dots+\beta_kP_k\tag{2}

これを対称変換Tのスペクトル分解という。
逆に、(1)を満たす射影子P_1,P_2,\dots,P_kおよび相異なる実数\beta_1,\beta_2,\dots,\beta_kがあるとき、(2)によって定義される線型変換Tは対称変換である。
証明:下記の記事の定理3.1の証明と全く同じである。

camelsan.hatenablog.com

4. 正値対称変換
定義
対称変換T固有値がすべて正(または非負)であるとき、Tを正値(または半正値)対称変換という。

次の同値条件がある。
定理4.1
対称変換Tが正値(または半正値)であるためには、\boldsymbol{0}でない任意のベクトル\boldsymbol{x}に対して、(T\boldsymbol{x}, \boldsymbol{x})が正(または非負)であることが必要かつ十分な条件である。
証明:下記の記事の定理2.1の証明と全く同じである。

camelsan.hatenablog.com

任意の線型変換Tに対し、ある正規直交基底に関するTの行列による表示をAとする。このとき、^tAで表現される線型変換をT^{\ast}で表し、Tの随伴変換という。T^{\ast}は、任意のベクトル\boldsymbol{x}, \boldsymbol{y}に対して

(T^{\ast}\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, T\boldsymbol{y})

が成り立つことで特徴づけられる。

次の2つの定理は下記の記事の定理2.2と定理2.3と全く同様に証明できる。

camelsan.hatenablog.com

定理4.2
Tが対称変換ならば、T^2は半正値対称変換である。特に、Tが正値ならばT^2は正値である。逆にTが正値(または半正値)対称変換ならばS^2=Tとなるような正値(または半正値)対称変換がただ一つ存在する。

定理4.3
実計量ベクトル空間の正則線型変換Tは、正値対称変換と直交変換の積として一意的に表される。

定理4.3を行列で述べると次のようになる。
定理4.4
正則行列は、正値実対称行列と直交行列との積として一意的に表される。

5. 参考文献
[1] 線型代数入門

線型代数入門 (基礎数学) [ 斎藤正彦 ]

価格:2,090円
(2021/12/6 21:07時点)
感想(2件)

【線形代数学入門】エルミート変換

1. 記事の目的
下記の記事で、正規変換の特別な場合であるエルミート変換を導入し、固有値の言葉で特徴づけた。本記事では、エルミート変換について詳細に述べる。

camelsan.hatenablog.com

2. 正値エルミート変換
エルミート変換が正値であることを述べる。 Tをユニタリ空間Vのエルミート変換とする。T^{\ast}=Tより任意の\boldsymbol{x},\boldsymbol{y}\in Vに対して

(T\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, T\boldsymbol{y})

が成り立つ。特に

(T\boldsymbol{x}, \boldsymbol{x})=(\boldsymbol{x}, T\boldsymbol{x})=\overline{(T\boldsymbol{x}, \boldsymbol{x})}

より、(T\boldsymbol{x}, \boldsymbol{x})は実数である。また、下記の記事の定理4.1より、T固有値はすべて実数である。

camelsan.hatenablog.com

定義
エルミート変換T固有値がすべて正(または非負)のとき、Tを正値(または半正値)エルミート変換という。

エルミート変換の正値性に関して次の同値条件がある。
定理2.1
エルミート変換Tが正値(または半正値)であるためには、\boldsymbol{0}でない任意のベクトル\boldsymbol{x}に対して(T\boldsymbol{x}, \boldsymbol{x})が正(または非負)であることが必要かつ十分な条件である。
証明:エルミート変換Tが正値(または半正値)であると仮定する。T固有ベクトルからなるVの正規直交基底\boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_nをとり、T固有値\alpha_1,\alpha_2,\dots,\alpha_nとする。このとき\boldsymbol{0}でない任意のベクトル\boldsymbol{x}

\boldsymbol{x}=x_1\boldsymbol{e}_1+x_2\boldsymbol{e}_2+\dots+x_n\boldsymbol{e}_n

と表せば、


\begin{split}
(T\boldsymbol{x},\boldsymbol{x}) &= (\displaystyle\sum_{i=1}^nx_i\alpha_i\boldsymbol{e}_i, \displaystyle\sum_{i=1}^nx_i\boldsymbol{e}_i) \\
&= \displaystyle\sum_{i=1}^n\alpha_i |x_i|^2 \ \ > 0 \ \ (\ge 0)
\end{split}

が成り立つ。逆に、\boldsymbol{0}でない任意の\boldsymbol{x}に対して、(T\boldsymbol{x}, \boldsymbol{x})が正(または非負)ならば、とくに

(T\boldsymbol{e}_i,\boldsymbol{e}_i)=(\alpha_i\boldsymbol{e}_i,\boldsymbol{e}_i)=\alpha_i

もすべて正(または非負)である。

上記の定理から次のことが言える。
Tがエルミート変換ならば、T^2は半正値エルミート変換である。実際、\boldsymbol{0}でない任意のベクトル\boldsymbol{z}に対して、


\begin{split}
(T^2\boldsymbol{x}, \boldsymbol{y})&=(T\boldsymbol{x},T\boldsymbol{y})=(\boldsymbol{x},T^2\boldsymbol{y}) \\
(T^2\boldsymbol{z}, \boldsymbol{z})&=(T\boldsymbol{z},T\boldsymbol{z}) \ge 0
\end{split}

より成り立つ。

特にTが正値エルミート変換のとき、T^2も正値エルミート変換であり(T固有値\alphaとすると、T^2固有値\alpha^2なので)、この逆に対応する次の定理も成り立つ。
定理2.2
ユニタリ空間Vのエルミート変換をTとする。Tが正値(または半正値)ならば、S^2=Tとなるような正値(または半正値)エルミート変換Sが存在する。
証明Tが正値(または半正値)とする。Tのスペクトル分解を、

T=\beta_1P_1+\beta_2P_2+\dots+\beta_kP_k

とする(スペクトル分解に関しては下記の記事を参照)。

camelsan.hatenablog.com

\beta_i>0 \ \ (\beta_i \ge 0)であるから、

S=\sqrt{\beta_1}P_1+\sqrt{\beta_2}P_2+\dots+\sqrt{\beta_k}P_k

とおけば、P_i^2=P_iP_iP_j=0 \ \ (i\neq j)より、S^2=Tである。\boldsymbol{0}でない任意のベクトル\boldsymbol{x}に対して

\boldsymbol{x}=\boldsymbol{x}_1+\boldsymbol{x}_2+\dots+\boldsymbol{x}_k

とする。ただし、\boldsymbol{x}_iは、固有値\beta_iに関する固有空間の元である。このとき、


\begin{split}
(S\boldsymbol{x}, \boldsymbol{x})&=(\displaystyle\sum_{i=1}^k\sqrt{\beta_i}\boldsymbol{x}_i, \boldsymbol{x}_i) \\
&=\displaystyle\sum_{i=1}^k\sqrt{\beta_i}(\boldsymbol{x}_i, \boldsymbol{x}_i)>0 \ \ (\ge 0)
\end{split}

となるので、Sは正値(または半正値)エルミート変換である。
Sの一意性を証明する。もう一つの正値(または半正値)エルミート変換S^{\prime}があって、{S^{\prime}}^2=Tであるとする。下記の記事定理3.4の(2)とS^{\prime}の正値性(または半正値性)より、S^{\prime}の相異なる固有値\sqrt{\beta_1},\sqrt{\beta_2},\dots,\sqrt{\beta_k}であるから、S^{\prime}のスペクトル分解は、

S^{\prime}=\sqrt{\beta_1}P_1^{\prime}+\sqrt{\beta_2}P_2^{\prime}+\dots+\sqrt{\beta_k}P_k^{\prime}

の形である。

camelsan.hatenablog.com

これから、{S^{\prime}}^2=Tより、Tのスペクトル分解

T=\beta_1P_1^{\prime}+\beta_2P_2^{\prime}+\dots+\beta_kP_k^{\prime}

が得られるから、スペクトル分解の一意性よりP_i=P_i^{\prime} \ \ (i=1,2,\dots,k)である。従ってS=S^{\prime}である。

定理2.2のS\sqrt{T}と表すことにする。このことから、正則な線型変換に対する次の分解定理が得られる。

定理2.3
ユニタリ空間Vの任意の正則線型変換Tは、正値エルミート変換Hとユニタリ変換Uとの積として一意的に表される。
証明:任意のベクトル\boldsymbol{x}, \boldsymbol{y}に対し、

(TT^{\ast}\boldsymbol{x}, \boldsymbol{y})=(T^{\ast}\boldsymbol{x}, T^{\ast}\boldsymbol{y})=(\boldsymbol{x}, TT^{\ast}\boldsymbol{y})

より、

(TT^{\ast})^{\ast}=TT^{\ast}

となり、TT^{\ast}はエルミート変換である。また、\boldsymbol{0}でない任意のベクトル\boldsymbol{x}に対し、

(TT^{\ast}\boldsymbol{x}, \boldsymbol{x})=(T^{\ast}\boldsymbol{x}, T^{\ast}\boldsymbol{x})\ge 0

である。また、(TT^{\ast}\boldsymbol{x}, \boldsymbol{x})=0と仮定すると、

(T^{\ast}\boldsymbol{x}, T^{\ast}\boldsymbol{x})=0

より、T^{\ast}\boldsymbol{x}=\boldsymbol{0}である。Tが正則なので、T^{\ast}も正則であり、\boldsymbol{x}=\boldsymbol{0}となる。これは\boldsymbol{x}\boldsymbol{0}ではないことに矛盾する。従って、

(TT^{\ast}\boldsymbol{x}, \boldsymbol{x})\neq 0

であり、

(TT^{\ast}\boldsymbol{x}, \boldsymbol{x})> 0

なので、TT^{\ast}は正値エルミート変換である。よって、定理2.2から、H=\sqrt{TT^{\prime}}は正値エルミート変換である。U=H^{-1}Tとおくと、


\begin{split}
UU^{\ast}&=(H^{-1}T)(H^{-1}T)^{\ast} \\
&=H^{-1}TT^{\ast}H^{-1} \\
&=H^{-1}H^2H^{-1} = I
\end{split}

即ち、Uはユニタリ変換である。よって、T=HUと分解される。また、もう一つの分解T=_1U_1があるとすれば、H_1=HUU_1^{-1}H_1=H_1^{\ast}=(U_1^{-1})^{\ast}U^{\ast}H^{\ast}であるので、このとき


\begin{split}
H_1^2&=H_1H_1 \\
&=(HUU_1^{-1})((U_1^{-1})^{\ast}U^{\ast})H^{\ast} \\
&=HH^{\ast} \\
&=H^2
\end{split}

従って、H=H_1である。これから、U=U_1も得られる。

定理2.3を行列の言葉で述べると次のようになる。
定理2.4
任意の正則行列は、正値エルミート行列とユニタリ行列との積として一意的に表される。

3. 参考文献
[1] 線型代数入門

線型代数入門 (基礎数学) [ 斎藤正彦 ]

価格:2,090円
(2021/12/6 21:07時点)
感想(2件)

【線形代数学入門】正規変換のスペクトル分解

1. 記事の目的
下記の記事で正規変換とその対角化について述べた。本記事では、射影子と呼ばれるものを用いて、正規変換を分解する方法(スペクトル分解)について述べる。スペクトル分解の応用として、正規変換がエルミート変換およびユニタリ変換になるための条件を述べる。

2. 射影子
ユニタリ空間Vの部分空間をWとする。Wの直交補空間をW^{\bot}とすれば下記の記事の定理4.1より

V=W\oplus W^{\bot}

である。

camelsan.hatenablog.com

即ち、Vの任意の元\boldsymbol{x}は、

\boldsymbol{x}=\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime}, \ \ \boldsymbol{x}^{\prime}\in W, \ \ \boldsymbol{x}^{\prime\prime}\in W^{\bot}

と一意的に表される。このとき

P:V\rightarrow V;\boldsymbol{x}\mapsto\boldsymbol{x}^{\prime}

は線型変換である。PVWへの射影子という。

Vの線型変換がある部分空間の射影子となるための条件が次のように述べられる。

定理2.1
ユニタリ空間Vの線型変換Pが、ある部分空間Wへの射影子であるためには、

P^2=P, \ \ P^{\ast}=P\tag{1}

が成り立つことが必要かつ十分な条件である。
証明PWへの射影子であると仮定する。\boldsymbol{x}\in Vとして、

\boldsymbol{x}=\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime}, \ \ \boldsymbol{x}^{\prime}\in W, \ \ \boldsymbol{x}^{\prime\prime}\in W^{\bot}

と表すと、


\begin{split}
P^2\boldsymbol{x}&=P^2(\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime})=P(\boldsymbol{x}^{\prime})=P(\boldsymbol{x}^{\prime}+\boldsymbol{0})=\boldsymbol{x}^{\prime} \\
P\boldsymbol{x}&=P(\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime})=\boldsymbol{x}^{\prime}
\end{split}

より、P^2=Pである。P^{\ast}=Pを証明する。\boldsymbol{x},\boldsymbol{y}\in Vを、

\boldsymbol{x}=\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime},\boldsymbol{y}=\boldsymbol{y}^{\prime}+\boldsymbol{y}^{\prime\prime}, \ \ \boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime}\in W, \ \ \boldsymbol{x}^{\prime\prime}, \boldsymbol{y}^{\prime\prime} \in W^{\bot}

と表せば、


\begin{split}
(P\boldsymbol{x}, \boldsymbol{x})=(\boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime}+\boldsymbol{y}^{\prime\prime})&=(\boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime})+(\boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime\prime}) \\
&=(\boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime}) \\
&=(\boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime})+(\boldsymbol{x}^{\prime\prime}, \boldsymbol{y}^{\prime}) \\
&=(\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime}, \boldsymbol{y}^{\prime}) \\
&=(\boldsymbol{x}, P\boldsymbol{y}) = (P^{\prime}\boldsymbol{x}, \boldsymbol{y})
\end{split}

より、P^{\ast}=Pである。逆にPが式(1)を満たすとき、W=P(V)とおく。\boldsymbol{x}^{\prime}\in Wならば、Vのある元\boldsymbol{x}_0により、\boldsymbol{x}^{\prime}=P\boldsymbol{x}_0と書けるので、

P\boldsymbol{x}^{\prime}=P^2\boldsymbol{x}_0=P\boldsymbol{x}_0=\boldsymbol{x}^{\prime}

また、\boldsymbol{x}^{\prime\prime}\in W^{\bot}ならば、Vの任意の元\boldsymbol{y}に対し、P\boldsymbol{y}\in Wであるから、

(P\boldsymbol{x}^{\prime\prime}, \boldsymbol{y})=(P^{\ast}\boldsymbol{x}^{\prime\prime}, \boldsymbol{y})=(\boldsymbol{x}^{\prime\prime}, P\boldsymbol{y})=0

となり、P\boldsymbol{x}^{\prime\prime}~\boldsymbol{0}となる。従って、\boldsymbol{x}=\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime} \ \ (\boldsymbol{x}^{\prime}\in W, \boldsymbol{x}^{\prime\prime}\in W^{\bot})に対して、

P\boldsymbol{x}=P\boldsymbol{x}^{\prime}+P\boldsymbol{x}^{\prime\prime}=\boldsymbol{x}^{\prime}

が成り立つ。即ちPVW=P(V)への射影子となる。

2つの射影子に関して、次が成り立つ。
定理2.2
W_1,W_2をユニタリ空間Vの部分空間、P_1,P_2をそれぞれW_1,W_2への射影子とする。W_1W_2が直交するためには、P_1P_2=0 (またはP_2P_1=0 )が成立することが必要かつ十分な条件である。
証明W_1W_2が直交するとき、\boldsymbol{x}\in W_2とし、任意の\boldsymbol{y}\in W_1をとると、

(\boldsymbol{x}, \boldsymbol{y})=0

より、\boldsymbol{x}\in W_1^{\bot}である。即ち、W_2\subset W_1^{\bot}である。このとき[tex\boldsymbol{x}\in V]に対し、\boldsymbol{x}=\boldsymbol{x}^{\prime}+\boldsymbol{x}^{\prime\prime} \ \ (\boldsymbol{x}^{\prime}\in W_2, \boldsymbol{x}^{\prime\prime}\in W_2^{\bot})とすると、

P_1P_2\boldsymbol{x}=P_1\boldsymbol{x}^{\prime}=P_1(\boldsymbol{0}+\boldsymbol{x}^{\prime})=\boldsymbol{0}

よって、P_1P_2=0である。逆に、P_1P_2=0ならば、\boldsymbol{x}_1\in W_1\boldsymbol{x}_2\in W_2に対し、


\begin{split}
(\boldsymbol{x}_1,\boldsymbol{x}_2)&=(P_1\boldsymbol{x}_1,P_2\boldsymbol{x}_2) \\
&=(\boldsymbol{x}_1,P_1^{\prime}P_2\boldsymbol{x}_2) \\
&=(\boldsymbol{x}_1,P_1P_2\boldsymbol{x}_2) \\
&=0
\end{split}

となる。P_2P_1に関しても、上記の証明でW_1W_2を入れ替えれば証明できる。

3. スペクトル分解
Tがユニタリ空間Vの正規変換であるとする。Tの相異なる固有値すべてを\beta_1,\beta_2,\dots,\beta_k、対応する固有空間をW_1,W_2,\dots,W_kとする。下記の記事、定理3.7より、W_1,W_2,\dots,W_kは互いに直交し、

V=W_1\oplus W_2\oplus \dots \oplus W_k

である。

camelsan.hatenablog.com

W_iへの射影子をP_iとすれば、定理2.2と合わせると、

P_1+P_2+\dots +P_k=I, \ \ P_iP_j=0 \ \ (i\neq j)\tag{2}
T=\beta_1P_1+\beta_2P_2+\dots+\beta_kP_k\tag{3}

が成り立つ。これを正規変換Tのスペクトル分解という。

正規変換のスペクトル分解に関し、次の定理が成り立つ。
定理3.1
ユニタリ空間Vの正規変換Tに対し、Tの相異なる固有値\beta_1,\beta_2,\dots,\beta_kとすれば、(2)、(3)をみたす射影子P_1,P_2,\dots,P_kが一意的に決まる。逆に(2)を満たす射影子P_1,P_2,\dots,P_kと相異なる複素数\beta_1,\beta_2,\dots,\beta_kがあるとき、(3)によって定義される線型変換Tは正規変換である。
証明:スペクトル分解の一意性を証明する。射影子P_1^{\prime},P_2^{\prime},\dots,P_k^{\prime}によるもう一つのスペクトル分解

P_1^{\prime}+P_2^{\prime}+\dots +P_k^{\prime}=I, \ \ P_i^{\prime}P_j^{\prime}=0 \ \ (i\neq j)
T=\beta_1P_1^{\prime}+\beta_2P_2^{\prime}+\dots+\beta_kP_k^{\prime}

があったとする。P_i,P_i^{\prime}がそれぞれW_i,W_i^{\prime}への射影子であるとする。\boldsymbol{x}^{\prime}\in W_i^{\prime}とすると、

T(\boldsymbol{x}^{\prime})=\beta_i\boldsymbol{x}^{\prime}

で、\boldsymbol{x}^{prime}T固有値\beta_iに対する固有ベクトルである。よって\boldsymbol{x}^{\prime}\in W_iである。即ち、

W_i^{\prime}\subseteq W_i

となる。あるiW_i^{\prime}\neq W_i即ち、W_i^{\prime}\subsetneq W_iとすると、

V=\displaystyle\oplus_{i=1}^k W_i^{\prime}\subsetneq \displaystyle\oplus_{i=1}^k W_i=V

より矛盾。従って、任意のiで、W_i=W_i^{\prime}である。したがって、P_i=P_i^{\prime}である。(2)をみたす射影子P_1,P_2,\dots,P_kがあるとき、(3)によって定義される線型変換Tは正規変換となる。実際、

TT^{\ast}=\beta_1\overline{\beta_1}P_1+\beta_2\overline{\beta_2}P_2+\dots+\beta_k\overline{\beta_k}P_k=T^{\ast}T

である。

4. エルミート変換とユニタリ変換
ユニタリ空間Vの線型変換をTとする。T^{\ast}をその随伴変換とする。
T^{\ast}=Tをみたすとき、Tをエルミート変換という。
T^{\ast}=T^{-1}をみたすとき、Tをユニタリ変換という。

エルミート変換とユニタリ変換はともに、正規変換である。

正規変換がエルミート変換およびユニタリ変換になるための条件は次のように述べられる。
定理4.1
Tユニタリ空間Vの正規変換であるとする。
(1) Tがエルミート変換 \iff T固有値がすべて実数
(2) Tがユニタリ変換 \iff T固有値がすべて絶対値1複素数
証明Tのスペクトル分解を、


T=\beta_1P_1+\beta_2P_2\dots+\beta_kP_k

とすると、


\begin{split}
T^{\prime}&=\overline{\beta_1}P_1^{\prime}+\overline{\beta_2}P_2^{\prime}\dots+\overline{\beta_k}P_k^{\prime} \\
&=\overline{\beta_1}P_1+\overline{\beta_2}P_2\dots+\overline{\beta_k}P_k
\end{split}

である。
(1)


\begin{split}
Tがエルミート変換 &\iff T^{\ast}=T \\
&\iff \beta_i = \overline{\beta_i} \ \ (i=1,\dots,k) \\
&\iff \beta_iは実数 \ \ (i=1,\dots,k)
\end{split}

より成り立つ。
(2)


\begin{split}
Tがユニタリ変換 &\iff T^{\ast}=T^{-1} \\
&\iff  T^{\ast}T=I \\
&\iff I=|\beta_1|^2P_1+|\beta_2|^2P_2+\dots+|\beta_k|^2P_k \\
&\iff |\beta_i|^2=1 \ \ (i=1,\dots,k)
\end{split}

より成り立つ(下から2段目の\Rightarrowは、W_1,\dots,W_kの元を順に写すことで得られる)。

5. 参考文献
[1] 線型代数入門

線型代数入門 (基礎数学) [ 斎藤正彦 ]

価格:2,090円
(2021/12/6 21:07時点)
感想(2件)

【線形代数学入門】正規変換

1. 記事の目的
下記の記事で、計量ベクトル空間について述べた。

camelsan.hatenablog.com

計量ベクトル空間の間の線型変換の対角化について述べる。特に、正規変換と呼ばれる変換の対角化について述べる。対角化については下記の記事を参照。

camelsan.hatenablog.com

2. 正規変換の定義
Vをユニタリ空間(つまり常に\mathbb{C}上で、計量が入っているものと仮定する)、TVの線型変換とする。
ある正規直交基底に関してTを表現する行列をAとする。このとき

A^*=^t\overline{A}

で表現されるVの線型変換をTの随伴変換といい、T^{\ast}で表す。T^{\ast}は次の定理で述べられるような条件でも特徴づけられる。

定理2.1
Vをユニタリ空間、TVの線型変換とする。
T^*Tの随伴変換であることの必要かつ十分な条件は、任意の\boldsymbol{x},\boldsymbol{y}\in Vに対して


(T^*\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, Y\boldsymbol{y})

が成り立つことである。
証明T^*Tの随伴変換であるとき、Vの基底を(\boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_n;\varphi)をとって、Tを基底(\boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_n;\varphi)に関して、表示した行列をAとすると、T^{\ast}の行列表示はA^{\ast}である。このとき


(A^{\ast}\varphi(\boldsymbol{x}), \varphi(\boldsymbol{y}))=^t\varphi(\boldsymbol{x})^tA^t\overline{\varphi(\boldsymbol{y})}=(\varphi(\boldsymbol{x}), A\varphi(\boldsymbol{y}))

の両辺を\varphi^{-1}で写すと( \varphi^{-1}は計量同型なので、計量を保つ )


(T^{\ast}\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, T\boldsymbol{y})

となる。逆に


(T^{\ast}\boldsymbol{x}, \boldsymbol{y})=(\boldsymbol{x}, T\boldsymbol{y})
\tag{1}

が成り立つとき、Tを基底(\boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_n;\varphi)に関して表現した行列をAT^{\ast}を表現した行列をBとすると、式(1)の両辺を\varphiで写すと、


(B\varphi(\boldsymbol{x}), \varphi(\boldsymbol{y}))=(\varphi(\boldsymbol{x}), A\varphi(\boldsymbol{y}))=(A^{\ast}\varphi(\boldsymbol{x}), \varphi(\boldsymbol{y}))

となる。よって、

B=A^{\ast}

より、[tex^{\ast}]を基底(\boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_n;\varphi)で表現した行列はA^{\ast}となり、tT^{\ast}は随伴行列である。

定理2.1から、式(1)を成り立たせるようなT^{\ast}\boldsymbol{x}は一つしか存在しないので、随伴行列T^{\ast}は、正規直交基底の取り方には無関係である。

正規変換を定義する。
定義
Tをユニタリ空間Vの線型変換とする。このとき

T^{\ast}T=TT^{\ast}

が成り立つ[tex;T]を、正規変換という。

n次正方行列Aが正規行列であるとは、

A^{\ast}A=AA^{\ast}

を満たすことである。よって、正規変換の、任意の正規直交基底に関する行列は、正規行悦である。

3. 正規変換の対角化
任意の正規変換は、適当な正規直交基底に関して対角行列によって表現されることを証明する。

まず、次の定理を証明する。
定理3.1
複素線形ベクトル空間Vの2つの線型変換S, Tが交換可能ならば、S, Tは少なくとも一つの共通な固有ベクトルをもつ。
証明Tのある固有値\alphaに対する固有空間をW_\alphaとする。このとき\boldsymbol{x}\in W_{\alpha}とすると、

T(S\boldsymbol{x})=S(T\boldsymbol{x})=S(\alpha\boldsymbol{x})=\alpha (S\boldsymbol{x})

である。よって、S\boldsymbol{x}\in W_\alphaとなる。Sの定義域をW_\alphaに制限した写像

S_{W_\alpha}:W_\alpha\rightarrow W_{\alpha}; \boldsymbol{x}\mapsto S\boldsymbol{x}

とする。ここで、上で証明したことから、S_{W_\alpha}の値域はW_\alphaとなる。よって、S_{W_\alpha}W_\alphaの線型変換であり、その固有ベクトル\boldsymbol{a}をとると(固有方程式を考えれば、少なくとも一つ複素数の解を持つので、固有値を持ち、その固有ベクトルがある)、\boldsymbol{a}S固有ベクトルであり、\boldsymbol{a}\in W_\alphaでもあるので、T固有ベクトルでもある。

次の定理を証明するために、不変部分空間の概念を導入する。
定義
V\mathbb{R} (または\mathbb{C} )上のベクトル空間として、TVの線型変換とする。また、WVの部分空間とする。このとき

T(W)\subset W

が成り立つとき、WTによる不変部分空間(またはT-不変部分空間)であるという。

次の定理を証明する。
定理3.2
n次元ユニタリ空間Vの2つの線型変換S,Tが交換可能ならば、次のようなVの部分空間の列W_0,W_1,\dots,W_nが存在する。
(1) W_i \ \ (i=0,1,\dots,n)T-不変部分空間かつS-不変部分空間である。
(2) \{\boldsymbol{0}\}=W_0\subset W_1\subset \dots \subset W_{n-1}\subset W_n=V
(3) {\rm{dim}}W_i={\rm{dim}}W_{i-1}+1 \ \ (i=1,2,\dots,n)
証明n=1のとき、W_0=\{\boldsymbol{0}\}, \ \ W_1=Vとすると成り立つ。
{\rm{dim}}V=n-1のときに主張が成り立つと仮定する。S,Tの随伴変換をそれぞれS^{\ast}, T^{\ast}とすると、任意の\boldsymbol{x}, \boldsymbol{y}\in Vに対し


\begin{split}
(T^{\ast}S^{\ast}\boldsymbol{x}, \boldsymbol{y})&=(S^{\ast}\boldsymbol{x}, T\boldsymbol{y}) \\
&=(\boldsymbol{x}, ST\boldsymbol{y}) \\
&=(\boldsymbol{x}, TS\boldsymbol{y}) \\
&=(T^{\ast}\boldsymbol{x}, S\boldsymbol{y}) \\
&=(S^{\ast}T^{\ast}\boldsymbol{x}, \boldsymbol{y})
\end{split}

より、T^{\ast}S^{\ast}=S^{\ast}T^{\ast}となる。即ちT^{\ast}S^{\ast}は交換可能である。定理3.1より、T^{\ast}S^{\ast}に共通な固有ベクトルが存在し、それを\boldsymbol{a}とする。


W_{n-1}=\{\boldsymbol{x}\in V:(\boldsymbol{x}, \boldsymbol{a})=0\}

とする( W_{n-1}\boldsymbol{a}と直交するVのベクトル全体 )。
W_{n-1}T-不変かつS-不変である。実際、\boldsymbol{x}\in W_{n-1}とすると、


\begin{split}
(\boldsymbol{a}, T\boldsymbol{x})&=(T^{\ast}\boldsymbol{a}, \boldsymbol{x}) \\
&=\alpha(\boldsymbol{a}, \boldsymbol{x}) \\
&=0
\end{split}

ここで、\alpha\boldsymbol{a}に対するT^{\ast}固有値である。よって、T\boldsymbol{x}\in W_{n-1}であり、W_{n-1}T-不変である。TSにして同じ議論ができるので、W_{n-1}S-不変である。T, SW_{n-1}への制限をT^{\prime}, S^{\prime}とすると、T^{\prime}S^{\prime}は交換可能である(もともとのTSが交換可能であるため)。また、


\begin{split}
V&=\langle \boldsymbol{a} \rangle\oplus \langle \boldsymbol{a} \rangle^{\bot} \\
&=\langle \boldsymbol{a} \rangle\oplus W_{n-1}
\end{split}

より、


n={\rm{dim}}V={\rm{dim}}\langle \boldsymbol{a} \rangle + {\rm{dim}}W_{n-1}=1+{\rm{dim}} W_{n-1}

なので、

{\rm{dim}}W_{n-1}=n-1

である。数学的帰納法の仮定より、次のようなW_{n-1}の部分空間の列W_0,W_1,\dots,W_{n-1}が存在する。 (1) W_i \ \ (i=0,1,\dots,n-1)T^{\prime}-不変部分空間かつS^{\prime}-不変部分空間である。
(2) \{\boldsymbol{0}\}=W_0\subset W_1\subset \dots \subset W_{n-1}\subset W_{n-1}
(3) {\rm{dim}}W_i={\rm{dim}}W_{i-1}+1 \ \ (i=1,2,\dots,n-1)
このとき、Vの部分空間の列W_0,W_1,\dots,W_{n-1},W_n=Vが定理の条件を満たす。

定理3.2を行列の言葉で述べると次のようになる。
定理3.3
2つの正方行列A, Bが交換可能ならば、適当なユニタリ行列Uが存在して、U^{-1}AU, U^{-1}BUは同時に、上三角行列となる。特に、A=Bとして、任意の正方行列Aに対してU^{-1}AUが上三角行列になるようなユニタリ行列Uが存在する。
証明:正方行列Cの対角線の左下にある成分がすべて0であるとき、Cを上三角行列であるという。即ち

C=
\begin{pmatrix}
c_{11} & c_{12} & \dots & c_{1n} \\
0 & c_{22} & \dots & c_{2n} \\
\vdots & \vdots& & \vdots \\
0 & 0 & \dots & c_{nn}
\end{pmatrix}

定理3.2において、V=\mathbb{C}^nT=T_AS=T_Bとする。W_iの元で、W_{i-1}と直交する長さ1のベクトル\boldsymbol{u}_iをとると、\mathbb{C}^nの正規直交基底\boldsymbol{u}_1, \boldsymbol{u}_2,\dots, \boldsymbol{u}_nに関するT_A, T_Bの行列はともに上三角行列である(各W_iS, T-不変であるため)。U=(\boldsymbol{u}_1 \ \ \boldsymbol{u}_2 \ \  \dots \ \ \boldsymbol{u}_n)とすれば、その行列表示は、U^{-1}AU, U^{-1}BUである。

固有値に関して次の定理が成り立つ。
定理3.4
(1) A, Bが交換可能ならば、A+B (あるいはAB )の固有値A固有値B固有値との和(あるいは積)である。
(2) A固有値を(重複をこめて) \alpha_1,\alpha_2,\dots,\alpha_nとすると、A^k固有値は、\alpha_1^k,\alpha_2^k,\dots,\alpha_n^kである。
証明:上三角行列の特性根、即ち固有値は、対角成分である。実際、


C=
\begin{pmatrix}
c_{11} & c_{12} & \dots & c_{1n} \\
0 & c_{22} & \dots & c_{2n} \\
\vdots & \vdots & & \vdots \\
0 & 0 & \dots & c_{nn}  
\end{pmatrix}

とすると、


\begin{split}
\Phi_C(c)&=
\begin{vmatrix}
x-c_{11} & x-c_{12} & \dots & x-c_{1n} \\
0 & x-c_{22} & \dots & x-c_{2n} \\
\vdots & \vdots & & \vdots \\
0 & 0 & \dots & x-c_{nn}  
\end{vmatrix}
&=(x-c_{11})
\begin{vmatrix}
x-c_{22} & x-c_{23} & \dots & x-c_{2n} \\
0 & x-c_{32} & \dots & x-c_{3n} \\
\vdots & \vdots & & \vdots \\
0 & 0 & \dots & x-c_{nn}  
\end{vmatrix}
&=\dots \\
&=(x-c_{11})(x-c_{22})\dots (x-c_{nn})
\end{split}

より成り立つ。ここで、2番目の等式に関して下記の記事の6節定理(A)を利用した。

camelsan.hatenablog.com

(1) 定理3.3より、U^{-1}AU, \ \ U^{-1}BUがともに上三角行列となるようにUを選べば、


\begin{split}
U^{-1}(A+B)U &= U^{-1}AU + U^{-1}BU \\
U^{-1}(AB)U &= (U^{-1}AU) (U^{-1}BU) 
\end{split}

より、これらの式とU^{-1}CUC固有値が等しいことと、上三角行列の固有値は対角成分に等しいことから成り立つ。
(2) (1)の積の主張から成り立つ。

ここまで準備して、本記事の目的の主張である次の定理が証明できる。
定理3.5
ユニタリ空間Vの線型変換Tが、適当な正規直交基底に関して対角行列によって表現されるためには、Tが正規変換であることが必要かつ十分な条件である。
証明TT^{\ast}=T^{\ast}Tが成り立つならば定理3.4より、適当な正規直交基底に関するT, T^{\ast}の行列による表現A, A^{\ast}はともに、上三角行列となる。A^{\ast}=^t\overline{A}が上三角行列ならば、Aは下三角行列


\begin{split}
a_{11} & 0 & \dots & 0 \\
a_{21} & a_{22} & \dots & 0 \\
\dots & \dots & & \dots \\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{split}

である。従って、Aは上三角行列かつ下三角行列であり、結局Aは対角行列でなければならない。
逆に、ある正規直交基底に関するTの行列Aが対角行列ならば、AA^{\ast}=A^{\ast}Aであるから、TT^{\ast}=T^{\ast}Tが成り立つ。

定理3.5を行列の言葉で述べると次のようになる。
定理3.6
正方行列Aに対し、U^{-1}AUが対角行列になるようなユニタリ行列Uが存在するためには、Aが正規行列であることが必要かつ十分な条件である。

定理3.5から次の定理が導かれる。
定理3.7
ユニタリ空間Vの正規変換Tの相異なる固有値に対する固有値に対する固有ベクトルは互いに直交する。\beta_1,\beta_2,\dots,\beta_kTの相異なる固有値の全体とし、W_1,W_2,\dots,W_kを対応する固有空間とすれば、それらは互いに直交し、

V=W_1\oplus W_2\oplus\dots \oplus W_k

となる。
証明:定理3.5より、T固有ベクトルのみからなる正規直交基底\langle \boldsymbol{e}_1,\boldsymbol{e}_2,\dots,\boldsymbol{e}_n \rangleが存在する。このうち、\beta_iに対する固有ベクトルだけから生成される部分空間がW_iである。よって、

V=W_1\oplus W_2\oplus\dots \oplus W_k

となる。

4. 参考文献
[1] 線型代数入門

線型代数入門 (基礎数学) [ 斎藤正彦 ]

価格:2,090円
(2021/12/6 21:07時点)
感想(2件)