多変量解析の中で、重回帰分析は非常によく用いられている手法です。この記事を読んでいる人の中でも、その名前くらいは耳にしたことも多いのではないでしょうか。 重回帰分析は、説明変数が一般に多次元あるような場合の回帰問題を解く […]
単回帰分析は、機械学習の1つの手法である、直線近似の手法です。統計学や実務のデータサイエンス分野の教科書でも、一番最初に登場するくらい基本的な分析手法です。 単回帰分析を実際に行う場合は、Pythonやエクセル、Rなどの […]
機械学習分野で登場する、基底関数(basis function)について、整理し、Pythonを用いて可視化していきます。 基底関数はカーネル法と関連があることや、線形基底関数モデルなどの回帰モデルもあるなど登場頻度は低 […]
機械学習や統計学を学んでいると、デザイン行列(design matrix)と呼ばれる行列が登場します。 デザイン行列は、計画行列とも呼ばれており、単回帰、重回帰分析などの一般線形モデル等でもでよく登場します。 このデザイ […]
|カテゴリー:統計学
統計や機械学習で確率分布を扱う際には、モーメントという概念がしばしば登場します。 モーメント(積率) は、その確率分布の期待値や分散、歪度、尖度といった統計量を導出することができ、実用上非常に便利で重要な概念です。 しか […]
機械学習でガウス過程回帰やカルマンフィルタの導出をまともに理解しようとすると、多変量ガウス分布の条件付き分布にぶち当たることになります。 この導出自体は非常に多くの式変形を必要とし、理解するのがなかなかカオスです。一方で […]
多変量ガウス分布の周辺化は、かの有名なPRMLでも登場する概念です。 計算的にも結構しんどい内容が多く、意外と多くの人が飛ばしてしまっている内容なんじゃないのかなと思います。しかし、ガウス過程やカルマンフィルタの導出や概 […]
統計学や確率の勉強を始めると、周辺化(marginalization)や周辺分布(周辺確立分布, marginal probability distribution)という概念がしばしば登場します。 確率や統計学を扱うテ […]
|カテゴリー:確率分布
ARモデル(Auto Regressive)モデルは、自己回帰モデルと呼ばれています。 現在の時刻$t$におけるデータが、$t$以前の$0~ t-1$のデータで回帰できるモデルのことを、ARモデルと表現します。 古典的な […]
PythonのライブラリであるScipyには、統計学で頻出する確率密度関数が多数収録されており、データを何かしらの確率分布でモデリングする際には、毎度お世話になることになります。 特にScipyのStatsモジュールには […]