固有値、固有ベクトルの話というのは、世の中に死ぬほど記事出ていると思います。 この記事でもその焼き直しになると思いますが、より高度な概念につなげていくためにはこれらの理解は必須のため、固有値と固有ベクトルについてまとめて […]
今回は、Pythonで対数(log, ログ)のグラフを描写していきます。日常生活においては、対数の計算はほとんどする必要はありませんし、意識することもないと思います。 しかし、AIや機械学習、統計学などの分野で、コンピュ […]
イェンゼンの不等式について学んでいきます。イェンゼンの不等式は、凸関数において成り立つ不等式です。 なかなか抽象的な面もありますが、一般系な凸関数において成り立つので、汎用性が高く、機械学習や統計学の勉強をすると度々登場 […]
ガンマ関数は、統計学や機械学習の基本的な関数で、その登場回数は非常に多いです。 一方、ガンマ関数自体は、ベイズ推定などのあくまでも正規化項の一部として扱われることが多く、その関数系や定義については意外と理解されていないと […]
逆行列補題、またの名前をSherman-Morrison-Woodbury(シャーマンモリソン)の公式とも呼ばれている、逆行列の公式を掲載します。 カルマンフィルタ の導出にこの公式が登場し、面食らったため、備忘録として […]
|カテゴリー:線形代数
確率や条件付き確率(conditional probability)を勉強していて度々登場する、確率、あるいは条件付き確率の連鎖律について説明します。条件付き確率は、下記のような定義となっています。 条件付き確率の定義式 […]
高校の数学で登場する微積分ですが、機械学習の勉強をしてから再度勉強する必要性が出てきて、頭を抱えている人は多いかと思います。 部分積分の公式 高校数学でよく登場する公式ですが、思い出した人も多いかと思います。 部分積分の […]
機械学習を勉強する上で、二項分布を学ぶことは非常に重要です。 二項分布はよくコイン投げを複数回行った時に、表が何回出る確率を表現するような確率分布です。 ベイズ推定などを勉強している人は、二項分布とその共役事前分布である […]
確率変数$X$における確率分布を$p(x)$とした時、その確率変数のエントロピーという統計量 $H[X]$を定義します。 連続確率変数のエントロピーの定義 離散確率変数のエントロピーの定義 このエントロピーは、1つの確率 […]
機械学習の理論の勉強や、論文を読む際など、線形代数やベクトルが絡む多くの演算が登場することになると思います。 これらは大学の教養課程で学ぶ内容で、理系大学に進学した人であれば一度は授業で習った内容かもしれませんが、実際に […]