MATLAB、Python、Scilab、Julia比較ページはこちら
https://www.simulationroom999.com/blog/comparison-of-matlab-python-scilab/
はじめに
の、
MATLAB,Python,Scilab,Julia比較 第4章 その97【モーメンタム⑦】
を書き直したもの。
ニューラルネットワークの最適化アルゴリズムについて。
モーメンタムをプログラムとして実装する。
今回はMATLABで実現。
モーメンタムのプログラムフロー【再掲】
まずは、プログラムフローを再掲。
- シグモイド関数の定義
- シグモイド関数の導関数の定義
- データの準備
- ネットワークの構築
- 重みとバイアスの初期化
- モーメンタム項の初期化
- 学習(4000エポック)
- 順伝播
- 誤差計算(平均二乗誤差)
- 逆伝播
- パラメータの更新(モーメンタム)
- 決定境界線の表示
今回は、MATLABで実現する。
MATLABコード
MATLABコードは以下。
% シグモイド関数の定義
sigmoid = @(x) 1./(1 + exp(-x));
% シグモイド関数の導関数の定義
sigmoid_derivative = @(x) sigmoid(x).*(1 - sigmoid(x));
% データの準備
X = [0 0; 0 1; 1 0; 1 1]; % 入力データ
y = [0; 1; 1; 0]; % 出力データ
% ネットワークの構築
hidden_size = 4; % 隠れ層のユニット数
output_size = 1; % 出力層のユニット数
learning_rate = 0.5; % 学習率
momentum = 0.9; % モーメンタム
input_size = size(X, 2);
W1 = randn(input_size, hidden_size); % 入力層から隠れ層への重み行列
b1 = randn(1, hidden_size); % 隠れ層のバイアス項
W2 = randn(hidden_size, output_size); % 隠れ層から出力層への重み行列
b2 = randn(1, output_size); % 出力層のバイアス項
% モーメンタム項の初期化
vW1 = zeros(size(W1));
vb1 = zeros(size(b1));
vW2 = zeros(size(W2));
vb2 = zeros(size(b2));
% 学習
epochs = 4000; % エポック数
errors = zeros(epochs, 1); % エポックごとの誤差を保存する配列
for epoch = 1:epochs
% 順伝播
Z1 = X * W1 + ones(size(X, 1),1)*b1; % 隠れ層の入力
A1 = sigmoid(Z1); % 隠れ層の出力
Z2 = A1 * W2 + b2; % 出力層の入力
A2 = sigmoid(Z2); % 出力層の出力
% 誤差計算(平均二乗誤差)
error = (1/size(X, 1)) * sum((A2 - y).^2);
errors(epoch) = error;
% 逆伝播
delta2 = (A2 - y) .* sigmoid_derivative(Z2);
delta1 = (delta2 * W2') .* sigmoid_derivative(Z1);
grad_W2 = A1' * delta2;
grad_b2 = sum(delta2);
grad_W1 = X' * delta1;
grad_b1 = sum(delta1);
% パラメータの更新
vW1 = momentum * vW1 - learning_rate * grad_W1;
vb1 = momentum * vb1 - learning_rate * grad_b1;
vW2 = momentum * vW2 - learning_rate * grad_W2;
vb2 = momentum * vb2 - learning_rate * grad_b2;
W1 = W1 + vW1;
b1 = b1 + vb1;
W2 = W2 + vW2;
b2 = b2 + vb2;
end
% 決定境界線の表示
h = 0.01; % メッシュの間隔
[x1, x2] = meshgrid(min(X(:,1))-0.5:h:max(X(:,1))+0.5, min(X(:,2))-0.5:h:max(X(:,2))+0.5);
X_mesh = [x1(:) x2(:)];
hidden_layer_mesh = sigmoid(X_mesh * W1 + ones(size(X_mesh, 1),1)*b1);
output_layer_mesh = sigmoid(hidden_layer_mesh * W2 + b2);
y_mesh = round(output_layer_mesh); % 出力を0または1に丸める
figure;
decision_mesh = reshape(y_mesh, size(x1)); % 分類結果のメッシュを元のグリッドサイズに変形する
colormap([0.8 1 0.8; 1 0.8 0.8]); % カラーマップの順序を入れ替える
contourf(x1, x2, decision_mesh);
hold on;
scatter(X(y==1, 1), X(y==1, 2), 100, 'r', 'filled'); % クラス1のデータ点を赤でプロット
scatter(X(y==0, 1), X(y==0, 2), 100, 'g', 'filled'); % クラス0のデータ点を緑でプロット
ylabel('X2');
xlabel('X1');
title('XOR Classification');
legend('', 'Class 1', 'Class 0'); % クラスの順序を入れ替える
grid
hold off;
処理結果
処理結果は以下。
分類のパターンとしては大きく2パターンあるので、それぞれを分類と誤差関数の推移を掲載。
パターン1
パターン2
まとめ
- 最適化アルゴリズム モーメンタムを用いて分類の学習をMATLABで実現。
- 問題無く動作。
- 学習の収束が通常の勾配降下法よりも比較的早い。
MATLAB、Python、Scilab、Julia比較ページはこちら
Pythonで動かして学ぶ!あたらしい線形代数の教科書
Amazon.co.jp
ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
Amazon.co.jp
ゼロからはじめるPID制御
https://amzn.to/3SvzuyR
OpenCVによる画像処理入門
https://amzn.to/498ZUgK
恋する統計学[回帰分析入門(多変量解析1)] 恋する統計学[記述統計入門]
Amazon.co.jp
Pythonによる制御工学入門
Amazon.co.jp
理工系のための数学入門 ―微分方程式・ラプラス変換・フーリエ解析
https://amzn.to/3UAunQK
コメント