Rainbow Engine

IT技術を分かりやすく簡潔にまとめることによる学習の効率化、また日常の気付きを記録に残すことを目指します。

機械学習 (Machine Learning)

確率的勾配降下法(SGD)をロジスティック回帰に適用しPythonで実装した例をご紹介

投稿日:2022年10月6日 更新日:

 

<目次>

(1) 確率的勾配降下法(SGD)をロジスティック回帰に適用しPythonで実装した例をご紹介
 (1-1) (課題)「勾配降下法」が抱える課題
 (1-2) (対策)確率的勾配降下法(SGD)とは?
 (1-3) (実装)Pythonで実装する際のポイント
 (1-4) (実装例)サンプルプログラム

(1) 確率的勾配降下法(SGD)をロジスティック回帰に適用しPythonで実装した例をご紹介

(1-1) (課題)「勾配降下法」が抱える課題

・パラメータ(重み\(w\)、バイアス\(b\))更新の度に、全N件の総和(Σ)を求める必要があるため、Nの値が膨大になると「計算時間が非常に長くなる」や「処理メモリの不足」といった問題が発生する。
 
(式)「勾配降下法」のパラメータ更新
\( \boldsymbol{w}^{(k+1)} = \boldsymbol{w}^{k}+\eta \sum^{N}_{n=1} (t_n-y_n) \boldsymbol{x_n} \)
\( b^{(k+1)} = b^{k}+\eta \sum^{N}_{n=1} (t_n-y_n) \)

(図111)勾配降下法のイメージ(N=4の例)

(1-2) (対策)確率的勾配降下法(SGD)とは?

・SGD は「Stochastic Gradient Descent」(確率的勾配降下法)の頭文字を取っている略語です。
・「勾配降下法」の課題である「計算時間が非常に長くなる」や「処理メモリの不足」を改善する手法です。
・具体的にはパラメータ(重み\(w\)、バイアス\(b\))更新の度に、データ全N件の中から「ランダムで1件を選択」して更新に使用します。
 
(式)「確率的勾配降下法」のパラメータ更新
\( \boldsymbol{w}^{(k+1)} =\boldsymbol{w}^{k}+\eta (t_n-y_n) \boldsymbol{x_n} \)
\( b^{(k+1)} =b^{k} +\eta (t_n-y_n) \)

・\(n\)の添え字のある文字は、\(N\)個のデータからランダムに選択します。
 
(図121)確率的勾配降下法のイメージ(N=4の例)
 

(1-3) (実装)Pythonで実装する際のポイント

・実装時のポイントは、Epoc(全データN個に対する繰り返し数)の最初で、データをシャッフルして使用する事でランダム性を再現します。
・データをランダムにシャッフルするために「sklearn.utils.shuffle」のライブラリを使用します。
 
(Before)パラメータ(重みw、バイアスb)更新で、入力Xについて「全N件の総和」を求めて更新処理を行う
    ############################################
    # STEP5:学習
    ############################################
    for epoc in range(25):
        # バッチのデータ数だけ繰り返し
        for n1 in range(N):
 
            ############################################
            # STEP3:最適化手法の定義(例:勾配降下法)
            ############################################
            # Σ(t[n]-y[n])の計算
            # (tn-yn)、(tn-yn)xnの変数
            t_y = 0
            t_y_x = tf.Variable(tf.zeros([M],tf.float64), dtype = tf.float64, shape=[M])
            for n2 in range(N): 
                # yの計算(モデルの出力)
                y = tf.nn.sigmoid(np.dot(X[n2],weight)+bias)

                # Σ(t[n]-y[n])の更新
                t_y = t_y + (t[n2]-y[0])
                # Σ(t[n]-y[n])xnの更新
                t_y_x.assign_add(tf.math.scalar_mul((t[n2]-y[0]),X[n2]))               

            # 重みwの勾配(∂E(w,b)/∂w)の計算
            dweight.assign(tf.math.scalar_mul((1.0/N),t_y_x))
            # バイアスbの勾配(∂E(w,b)/∂b)の計算
            dbias.assign([(1.0/N)*t_y])
 
(After)パラメータ(重みw、バイアスb)更新で、入力Xについて「全N件のデータからランダムで1件を選択」して更新処理を行う
from sklearn.utils import shuffle
    ############################################
    # STEP5:学習
    ############################################
    for epoc in range(25):
        # バッチのデータ数だけ繰り返し
        for n in range(N):
            # データをシャッフル
            X_,t_ = shuffle(X.numpy(),t.numpy())
            xn = X_[n]

            ############################################
            # STEP3:最適化手法の定義(例:勾配降下法)
            ############################################
            # yの計算(モデルの出力)
            y = tf.nn.sigmoid(np.dot(xn,weight)+bias)

            # 重みwの勾配(∂E(w,b)/∂w)の計算
            dweight = tf.math.scalar_mul((t_[n]-y[0]),xn)
            # バイアスbの勾配(∂E(w,b)/∂b)の計算
            dbias.assign([t_[n]-y[0]])
 

(1-4) (実装例)サンプルプログラム

・「確率的勾配降下法」を「ロジスティック回帰」モデルに適用し、「OR回路」を学習させた例。
############################################
# ロジスティクス回帰 - 確率的勾配降下法(Scotastic Gradient Descent)
############################################
import numpy as np
import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
from sklearn.utils import shuffle

# 入力xの次元
M = 2
# 入力データセットの数
N = 4

def or_gate(X_arg,t_arg):
    ############################################
    # STEP1:モデルの定義
    ############################################
    # 入力の電気信号xの初期化
    X = tf.constant(X_arg, dtype = tf.float64, shape=[N,M])
    # 重みwの定義 ⇒[1行×M列]
    weight = tf.Variable(tf.zeros([M],tf.float64), dtype = tf.float64, shape=[M])
    # バイアスbの定義 ⇒[1行] 
    bias = tf.Variable([0], dtype = tf.float64, shape=[1])
    # シグモイド関数:y = σ(wx + b)の定義 ⇒[1行]
    y = tf.Variable([0], dtype = tf.float64, shape=[1])    
    # 正解値tの定義([[0,1,1,1]) ⇒[n行×1列]
    t = tf.Variable(t_arg, dtype = tf.float64, shape=[N])
    # 重みwの勾配(∂E(w,b)/∂w)の定義
    dweight = tf.Variable(tf.zeros([M],tf.float64), dtype = tf.float64, shape=[M])
    # バイアスbの勾配(∂E(w,b)/∂b)の定義
    dbias = tf.Variable([0], dtype = tf.float64, shape=[1])
    # 学習率ηの定義
    eta = 0.1
    # Epocの定義
    epoc = 0

    ############################################
    # STEP4:セッションの初期化
    ############################################
    # ⇒今回は不要
    # (TensorFlow v2以降はSessionを使用しないため)

    ############################################
    # STEP5:学習
    ############################################
    for epoc in range(25):
        # バッチのデータ数だけ繰り返し
        for n in range(N):
            # データをシャッフル
            X_,t_ = shuffle(X.numpy(),t.numpy())
            xn = X_[n]
            ############################################
            # STEP2:誤差関数の定義
            ############################################
            # ⇒今回は不要
            # (確率的勾配降下法の式を使うため、途中経過の誤差関数Eは計算不要)

            ############################################
            # STEP3:最適化手法の定義(例:勾配降下法)
            ############################################
            # yの計算(モデルの出力)
            y = tf.nn.sigmoid(np.dot(xn,weight)+bias)

            # 重みwの勾配(∂E(w,b)/∂w)の計算
            dweight = tf.math.scalar_mul((t_[n]-y[0]),xn)
            # バイアスbの勾配(∂E(w,b)/∂b)の計算
            dbias.assign([t_[n]-y[0]])

            # 重みwの再計算        
            weight.assign_add(dweight)
            # バイアスbの再計算
            bias.assign_add(dbias)

            # コンソール出力
            decimals = 4
            print("Epoc= ",epoc,
                    "No. = ",   n,
                    "x1,x2 =",  X[n].numpy(),
                    "t =",      '{:01}'.format(tf.convert_to_tensor(t_[n]).numpy()),
                    "w1,w2 =",  np.round(weight.numpy(),decimals),
                    "theta =",  np.round(bias.numpy(),decimals),
                    "y =",      '{:06.4f}'.format(tf.convert_to_tensor(y[0]).numpy()),
                    "dw1,dw2 =",np.round(dweight.numpy(),decimals),
                    "db =",     np.round(dbias.numpy(),decimals))

def main():
    # 初期値を設定し学習実行
    X = [[0,0],[0,1],[1,0],[1,1]]
    t = [0,1,1,1]
    or_gate(X,t)

if __name__ == "__main__":
    main()
(図131)

目次にもどる

Adsense審査用広告コード


Adsense審査用広告コード


-機械学習 (Machine Learning)

執筆者:


comment

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

関連記事

Kerasで「AttributeError: ‘Sequential’ object has no attribute ‘XXX’」エラー原因・対処(+predict_classes関数やpredict_proba関数の解説)

  <目次> (1) Kerasで「AttributeError: ‘Sequential’ object has no attribute ‘XXX&# …

no image

確率と尤度の違いとは?概念や数式なども交えて比較紹介

  <目次> (1) 確率と尤度の違いとは?概念や数式なども交えて比較紹介  (1-1) 確率:「パラメータ」からデータの「確率」を算出した値?  (1-2) 尤度:「データ」からパラメータ …

ロジスティック回帰をエクセルで計算する方法(ディープラーニング)

<目次> (1) ロジスティック回帰をエクセルで計算する方法(ディープラーニング)  (1-1) 【前提①】ロジスティック回帰とは?  (1-2) 【前提②】解決したい課題  (1-3) ロジスティッ …

no image

ディープラーニングの論理回路とは?Pythonのサンプルプログラムもご紹介

  <目次> (1) ディープラーニングの論理回路とは?Pythonのサンプルプログラムもご紹介  (1-1) ニューラルネットワークとは?  (1-2) 論理回路とは?  (1-3) AN …

ディープラーニングのロジスティクス回帰をPythonで実装した例をご紹介

  <目次> (1) ディープラーニングのロジスティック回帰をPythonで実装した例をご紹介  (1-1) 実装のフロー  (1-2) 実装例 (1) ディープラーニングのロジスティック回 …

  • English (United States)
  • 日本語
Top