数値計算 MATLAB,Python,Scilab,Julia比較 第4章 その54【逆伝播⑤】 活性化関数の微分について説明。 活性関数のブロック図と連鎖律上の位置づけを確認。 シグモイド関数の導関数を復習。 シグモイド関数の偏導関数を確認。 2024.04.08 数値計算
数値計算 MATLAB,Python,Scilab,Julia比較 第4章 その53【逆伝播④】 連鎖律に於ける誤差関数の位置づけを確認。 ブロック図的には一番後ろだが、連鎖律としては先頭。 誤差関数の確認。 誤差関数の偏導関数の確認。 2024.04.07 数値計算
数値計算 MATLAB,Python,Scilab,Julia比較 第4章 その52【逆伝播③】 合成関数の微分こと連鎖律について説明。 学習データを加味した場合の多変量関数の連鎖律について簡単に説明。 詳細は後日。 2024.04.06 数値計算
数値計算 MATLAB,Python,Scilab,Julia比較 第4章 その51【逆伝播②】 一連の合成関数について書き出し。 合成関数を構成する各数式を書き出し。 誤差関数、活性化関数、入力と重みの内積。 2024.04.05 数値計算
数値計算 MATLAB,Python,Scilab,Julia比較 第4章 その50【逆伝播①】 誤差逆伝播法とか単純パーセプトロンに関連する用語を確認。 様々な都合で、単純パーセプトロンに対する誤差逆伝播法を「逆伝播」と呼称することに。 逆伝播を行う単純パーセプトロンの構成を確認。 誤差関数は二乗和誤差関数を1/2にしたもの。 1/2により微分後の数式がシンプルになる。 2024.04.04 数値計算
数値計算 【入門】勾配降下法(Julia)【数値計算】 勾配降下法の実験をScilabで実施。 予想通り局所最適解に陥った。 局所最適解の回避方法としては学習率を状況に応じて変更する様々は最適化アルゴリズムがある。 モーメンタム、AdaGrad、Adamなどなど。 2024.04.03 数値計算
数値計算 【入門】勾配降下法(Scilab)【数値計算】 勾配降下法の実験をScilabで実施。 予想通り局所最適解に陥った。 局所最適解の回避方法としては学習率を状況に応じて変更する様々は最適化アルゴリズムがある。 モーメンタム、AdaGrad、Adamなどなど。 2024.04.02 数値計算
数値計算 【入門】勾配降下法(Python)【数値計算】 勾配降下法の実験をPythonで実施。 予想通り局所最適解に陥った。 局所最適解の回避方法としては学習率を状況に応じて変更する様々は最適化アルゴリズムがある。 モーメンタム、AdaGrad、Adamなどなど。 2024.04.01 数値計算
数値計算 【入門】勾配降下法(MATLAB)【数値計算】 勾配降下法の実験をMATLABで実施。 予想通り局所最適解に陥った。 局所最適解の回避方法としては学習率を状況に応じて変更する様々は最適化アルゴリズムがある。 モーメンタム、AdaGrad、Adamなどなど。 2024.03.31 数値計算
数値計算 MATLAB,Python,Scilab,Julia比較 第4章 その49【勾配降下法⑦】 勾配降下法の実験をJuliaで実施。 予想通り局所最適解に陥った。 局所最適解の回避方法としては学習率を状況に応じて変更する様々は最適化アルゴリズムがある。 モーメンタム、AdaGrad、Adamなどなど。 2024.03.30 数値計算