ローカルレベルモデルは、時系列解析や現在制御における状態空間モデルのもっとも現象がシンプルになるような設定や仮定をおいたモデルです。別名、ランダムウォーク・プラス・ノイズ・モデルとも呼ばれています。 今回は状態空間モデル […]
2007年に発表された、Bayesian Online Changepoint Detectionの紹介と解説を行います。該当論文のarxivへのリンクはこちらになっています。この解説記事は、この論文の英語版の解説記事を […]
次回列分析においては、ARIMAやSARIMAのように、過去の観測値をもとにモデル化する手法がある一方で、状態空間モデルは、観測値以外の見えない状態量があると仮定し、その状態により観測値が生起されるとしてモデル化する手法 […]
カルマンフィルタ リング問題に代表されるような、線形動的システム(Linear Dynamical System)のパラメータをEMアルゴリズムで推定してみます。 やってる内容そのものは、「Parameter Estim […]
ディープラーニングの学習をしていると、最も難解に思えるのが、誤差逆伝播法(Back Propagation)と呼ばれる、ニューラルネットワークの重みパラメータの更新方法です。 様々な深層学習の入門書を読んでも、この部分が […]
|カテゴリー:深層学習
深層学習で登場するシグモイド関数の数式とその導関数を、Pythonを用いてグラフ化・可視化していきます。 シグモイド関数自体は、深層学習では活性化関数として広く利用されており、誤差逆伝搬においては、その導関数の性質から、 […]
|カテゴリー:深層学習
合成関数の微分は、物理学でも深層学習でも多くの分野で登場する重要な公式です。 大学数学で頻繁に登場する内容ですが、忘れた人は復習して、思い出せるようにしておきましょう。 合成関数の微分の公式 まず定義を先に提示します。 […]
確率変数$X$を線形変換するとは次のような操作を指します。 例えば、恣意的な設定ですが、くじ引きを引いた時、出た目の数$x$に対して賞金が$y = 100 x + 2000$円もらえるようなくじがあるとします。この時、出 […]
深層学習や機械学習を勉強していると、目的関数を最小化するために、データからパラメータを学習することが多々あると思います。 実はこの内容自体は、最適化数学の文脈で語ることができます。今回は、数理最適化について、初心者向けに […]
RNN(Recurrent Neural Network)は1990年代の以外と古くから存在するニューラルネットワークの手法で、時系列予測や自然言語処理の多くのニューラルネットワークの手法の源流となっている手法です。 現 […]