書籍のレビュー・概要
世界は対称性にあふれている。入力に対する構造的な変換に対して不変であるのが対称性で、物理世界を扱う機械学習で効率的な学習を実現し、未知の状況にも対応できるようになるために欠かせない概念だ。本書は関係する数学を基礎から解説した上で、対称性が機械学習の文脈でどのように表されるのかを示し、利用する手法を紹介する。 ◆著者からのメッセージ 人は見る位置や姿勢を変えても対象を正しく認識できます。私たちにとっては当たり前のことですが、どのようにして実現されているのかを考えると不思議に思っていました。これは、対象が3次元座標上で表現されているとすると、その座標変換(並進・回転など)に対して不変であるモデルを、人はもっているということです。これを一般座標変換不変性、物理的な原理としては一般共変性原理(任意の座標系で同じ形式をもつ)とよびます。 このように変換を施しても対象の構造や性質が変わらない不変性を対称性とよびます。 関数においては、 y=f(x) という関数があった時、入力xにある変換g、 x´=g(x) を適用しても常に f(x)=f(g(x)) が成り立つ場合、関数fは入力変換gに対し対称性があるとよびます。 これを一般化し、入力を変換した時、出力もある規則性をもって変換される性質を同変性とよびます。同変性も、関数自体がある性質に対し不変であるというようにいえます。 対称性で扱う並進や回転などの変換は無限個あり、そのまま扱うことは困難です。 しかし、これらはリー群とよばれる滑らかな多様体で表わすことができ、その単位元の接空間上で定義されるリー代数はリー群の特徴を備えたまま都合のよいベクトル空間で扱える特性があります。 こうした知見を使い、対称性の変換が無限個あったとしても効率的にそれによる性質を扱うことができます。例えば回転に対して不変性をもった関数を設計することができます。 機械学習では、データや対象の問題を構成要素に分解された形、いわゆる「もつれを解いた表現」に変換することが重要とされます。対称性の最小構成要素として現れる既約表現は、まさにこうしたもつれを解いた表現の構成要素といえます。 こうした対称性の知見は数学や物理学で長く研究されており、コンピュータサイエンスや機械学習を学んできた人(私を含め)には馴染みのないものでした。また、非専門家が学ぼうと思うと膨大な時間を要します。 本書は、基本的な対称性、群、リー群、リー代数について必要な知識をコンパクトに紹介するとともに、これらが実用的な機械学習で必要とされる対称性に対してどのように活用できるのかについて解説しました。 また、最後の章ではクリフォード代数(幾何代数)との接点など、最先端の話題についても扱っています。 物理世界を扱うAI、ロボティクス、コンピュータグラフィクス、計算化学におけるAIにおいてこうした知見は特に役に立つと思いますし、最初にあげた疑問「位置や姿勢不変な表現とは何なのか」にも答えられるようになります。 ぜひお手にとって読んでみてください。