機械学習を理解し使いこなす上で、KL情報量について理解することは避けては通れないといえるほど、KL情報量は非常に重要な概念です。 そのため、さまざまな参考書等で、KL情報量について説明されています。 だいたい次のような定 […]
一般的に、任意のガウス分布に従う確率変数 $X$において、線形変換$\bm{A}X + \bm{b}$を行っても、変換後の分布もガウス分布になることが知られています。 この事実は、ガウス過程回帰や線形動的モデル、カルマン […]
機械学習でガウス過程回帰やカルマンフィルタの導出をまともに理解しようとすると、多変量ガウス分布の条件付き分布にぶち当たることになります。 この導出自体は非常に多くの式変形を必要とし、理解するのがなかなかカオスです。一方で […]
カルマンフィルタ や逐次ベイズ推定といった手法を用いる際、正規分布の事前分布と尤度関数を掛け合わせ、事後分布を得るというような計算をすることになる。単変量のガウス関数の場合、2つの正規分布をかけ合わせると、新しい平均と分 […]
ガウス分布(Gaussian distribution)は、機械学習や統計で登場する確率密度関数の中でもっとも基本的で重要なものです。 一方で、1次元の正規分布はなんとか理解でいても、多変量のガウスとなると、イマイチ理解 […]
独立な2つの正規分布を足し合わせた時に、その確率変数も分布も正規分布になることを正規分布の再生性や、和の公式といったりすることがあります。 今回は、この正規分布の再生性・和の公式について、成り立つ式をおさらいする同時に、 […]