数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その112【最適化アルゴリズム⑪】

ニューラルネットワークの最適化アルゴリズムAdamをJuliaにて確認。学習率を0.001にしている都合、収束までは時間がかかる。勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その111【最適化アルゴリズム⑩】

ニューラルネットワークの最適化アルゴリズムAdamをScilabにて確認。学習率を0.001にしている都合、収束までは時間がかかる。勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その110【最適化アルゴリズム⑨】

ニューラルネットワークの最適化アルゴリズムAdamをPythonにて確認。学習率を0.001にしている都合、収束までは時間がかかる。勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その109【最適化アルゴリズム⑧】

ニューラルネットワークの最適化アルゴリズムAdamをMATLABにて確認。学習率を0.001にしている都合、収束までは時間がかかる。勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
数値計算

【入門】最適化アルゴリズム③【数値計算】

各最適化アルゴリズムの依存関係を記載。1次の勾配で勢いをつけて、2次の勾配で抑制するというのが全体を通しての共通点。Adamの更新式を実現するためのプログラムフローを記載。学習率は0.001とかなり小さめの値に設定。これにより収束は遅くなる。かわりに特殊な最適解が得られるのでそれを確認する。
数値計算

【入門】最適化アルゴリズム②【数値計算】

AdaDeltaについて説明。RMSpropの拡張版に当たる。最適化アルゴリズムAdamについて説明。モーメンタムとRMSpropの合わせ技。1次の勾配と、2次の勾配の指数移動平均を使用する。
数値計算

【入門】最適化アルゴリズム①【数値計算】

もう一個試す予定の最適化アルゴリズムAdamへ至る系譜を説明予定。AdaGradについて説明。更新式をモーメンタムと比較。RMSpropについて説明。AdaGradの完了版であるため、AdaGradと更新式を比較。
数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その108【最適化アルゴリズム⑦】

Adamの更新式を実現するためのプログラムフローを記載。モーメンタムの部分をAdamに差し替えただけ。学習率は0.001とかなり小さめの値に設定。これにより収束は遅くなる。かわりに特殊な最適解が得られるのでそれを確認する。
数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その107【最適化アルゴリズム⑥】

各最適化アルゴリズムの依存関係を記載。1次の勾配で勢いをつけて、2次の勾配で抑制するというのが全体を通しての共通点。Adamが1次の勾配と2次の勾配を合わせたアルゴリズムとなる。
数値計算

MATLAB,Python,Scilab,Julia比較 第4章 その106【最適化アルゴリズム⑤】

最適化アルゴリズムAdamについて説明。モーメンタムとRMSpropの合わせ技。1次の勾配と、2次の勾配の指数移動平均を使用する。