• トップ
  • ブログ一覧
  • 機械学習の元祖「パーセプトロン」とは?
  • 機械学習の元祖「パーセプトロン」とは?

    メディアチームメディアチーム
    2019.05.21

    IT技術

    パーセプトロンとは?

    パーセプトロンは、1958年に発表された、いわば「機械学習の元祖」です。

    パーセプトロンはニューラルネットワークの一種で、形式ニューロンを複数用いてネットワーク状に接続したものを指します。

    一般的に、以下のように分類されます。

    1. 2層からなる「単純パーセプトロン」
    2. 3層以上からなる「多層パーセプトロン」

    現在は、後者の多層パーセプトロンが主流です。

    しかし、入門編としまして、シンプルでわかりやすい単純パーセプトロンの解説と実装を紹介していきたいと思います。

    実行環境

    実装はPythonでおこなっていきますが、筆者の実行環境は以下の通りです。

    Python3.7.3
    numpy1.16.3
    matplotlib3.0.3

    また、以後紹介するコードでは、以下のようなインポートがされている前提で解説していきます。

    1import numpy as np
    2import matplotlib.pyplot as plt

    それでは、解説していきます!

    多層パーセプトロンについての記事はこちら

    featureImg2019.05.30多層パーセプトロンを実装してみよう!【機械学習】多層パーセプトロンとは?今回は、現在の機械学習の基盤となっている「多層パーセプトロン」を実装します。また、それと並行し...

    そもそも形式ニューロンとはなんでしょうか?

    形式ニューロンは1943年に発表された、世界初の神経細胞モデルです。

    非常にシンプルながら、その汎用性と実装のしやすさから現在も、この考え方が主流です。

    形式ニューロンの性質は、非常にシンプルです。

    数式で表すと

    (1)y=i=1nwixi\displaystyle y = \sum_{i=1}^n{w_i x_i}
    (2)z=f(y)\displaystyle z = f(y)
    (3)f(x)={1(x>0)0(x0)\displaystyle f(x)= \begin{cases}1 & ( x \gt 0 ) \\ 0 & ( x \leq 0 ) \end{cases}

    上の図と式で示すように、ある外部からの入力 xi{i=1,2,3,,n}x_i \{i=1,2,3,\cdots,n\} に対して、それぞれ重み wi{i=1,2,3,,n}w_i \{i=1,2,3,\cdots,n\} がかけられ、その和 yy がニューロンへの最終的な入力になります。

    その後、その入力があるしきい値(バイアス) θ\theta を超えていれば 11 を、超えてなければ 00 を出力する、という性質を持ち合わせています。

    このとき、式(3)を活性化関数(あるいは入出力関数)と言います。

    パーセプトロンでは、通常、ステップ関数が使われます。

    ただ、近年の機械学習では、様々な活性化関数が使われています。

    式を実際にPythonで実装

    1def inputsum(inputs, weights):  # (1)
    2    return np.dot(inputs, weights)
    3
    4
    5def output(y):  # (2)
    6    return step(y)
    7
    8
    9def step(x):  # (3)
    10    return 1 if x > 0 else 0

    上記のように、とてもシンプルなコードになりました!

    単純パーセプトロン

    単純パーセプトロンは、図のような2層からなるネットワークを指します。

    上の図では、1層目に複数のニューロンが用いられています。

    しかし、実際には入力層には入力データ(訓練データ、学習データ)がセットされるので、実質1つの形式ニューロンを用いたシンプルな構造になっています。

    パーセプトロンは、入力層と出力層のニューロンを結ぶシナプス結合荷重(重み)を学習していきます。

    では、学習方法について話を進める前に、そもそも「学習」についてご説明したいと思います。

    パーセプトロンの学習

    単純パーセプトロンでは、出力層ニューロンは1つで、その出力値は0か1の二値です。

    つまり、ある入力データに対してクラスに属しているか否かを判別することが最終的な目標となります。

    先ほどのパーセプトロンの図と式から、出力値というのは以下のような一つの関数で表すことができます。

    f(x)=w0+w1x1+w2x2++wnxnf(x)=-w_0+w_1x_1+w_2x_2+\cdots+w_nx_n

    この関数 f(x)f(x) が、正なら「1」を、負なら「0」を出力するわけですから、重みを調整して2つのクラス分類が可能というわけです。

    アヤメの分類問題

    ちょっと文字だけではわかりづらいので、簡単に入力が2次元として図を用いて見てみましょう。

    機械学習でよく使われる、アヤメの分類問題を例に考えてみます。

    ちなみに、「アヤメデータセット(UCI Machine Learning Repository: Iris Data Set)」とは、4次元の特徴データから、3つのクラス分類をする、比較的、簡単な識別ベンチマークのひとつです。

    4次元の特徴データ:がくの長さ、がくの幅、花びらの長さ、花びらの幅

    このデータセットから2クラス(青:setosa, 緑:versicolor)を、x軸が「がくの長さ+幅」y軸が「花びらの長さ+幅」として実際にプロットしてみましょう。

    【UCI Irisデータセットのsetosaクラスとversicolorクラス】

    このようにこの2クラスでは、なんとなくクラスごとにデータが固まっているように見えます。

    このような図を特徴空間とも言います。

    もし、このグループを一つの直線で分割するとすれば、例えば以下のような直線が望ましそうですね。

    【決定境界の例】

    このような直線が引ければ、答えが分からない未知データに対しても、直線より下に位置するデータ(すなわち f(x)0f(x)\leq0 )はsetosaで、上に位置するデータ(すなわち f(x)>0f(x)>0 )ならversicolorだと分類できます。

    この直線を決定境界(Decision Boundary)と言い、先ほどの関数 f(x)f(x) に当たります。

    しかし、単純パーセプトロンの重み ww は、最初はランダムな値に初期化されているので、図のような綺麗な直線は引けていません。

    この決定境界と呼ばれるクラス分類の境界線を引くことが学習のゴールです。

    学習法

    次に、どうやって決定境界を学習していくかを解説していきます。

    特徴空間上に決定境界を引くわけですが、さきほど書いたように最初は重みがランダムで初期化されているので、デタラメな決定境界が引かれています。

    【デタラメな決定境界】

    そこで学習の方針としては、一つ一つの学習データに対して今の決定境界で自身が正しいクラスに分類されているか、を見ていきます。

    誤差関数

    そのためにまずは、誤差関数 EE というものを定義します。

    Ep=tpf(xp)     (4)E_p=t_p-f(x_p) \ \ \ \ \ (4)

    ここで、式(4)は、ある学習パターン pp の入力ベクトル xpx_p が与えられた時の出力 f(xp)f(x_p) と、それに対応するクラスラベル(教師信号) tpt_p の差を意味します。

    もし、ある学習パターン pp の出力値がsetosa( f(xp)=0f(x_p)=0 )で、教師信号もsetosa( tp=0t_p=0 )であれば、 Ep=0E_p=0 となります。

    教師信号がversicolor( tp=1t_p=1 )ならば Ep=1E_p=1 となります。

    これらの関係を表にまとめてみると

    EpE_pf(xp)=0f(x_p)=0f(xp)=1f(x_p)=1
    tp=0t_p=00-1
    tp=1t_p=11 0

    上記のようになります。

    ここで重要なのは、誤差関数は重みの修正の向きを表しています。

    1. E=0E=0 なら修正する必要なし。
    2. E=1E=1 なら重みを大きくする方向に修正する。
    3. E=1E=-1 なら重みを小さくする方向に修正する。

    といった具合に学習を進めていけば、最終的に全ての学習パターンに対して誤差が0になるはずです。

    しかし、この誤差関数をそのまま使うと、修正量が必ず1の大きさなので、一般的には以下のような重み更新式を用います。

    重み更新式

    Δw=ηEpxp    (5)\Delta w=\eta E_{p}x_{p} \ \ \ \ (5)

    ここで η\eta は、学習率といいあらかじめ自分で設定する必要があります。

    通常、0.1~0.0001のような小さな値が使われます。

    以上が学習の流れになります。

    Pythonでコーディング

    では、実際に、Pythonでコーディングしてみます

    (今回は学習率 0.001 を使用)。

    1def error(output, label):  # 誤差関数 (4)
    2    return label - output
    3
    4
    5def update(weights, err, x):  # 重み更新式 (5)
    6    for i in range(len(x)):
    7        weights[i] += 0.001 * float(err) * x[i]

    動作確認

    ここからは、実際にPythonを用いて動作確認していきましょう!

    動作確認条件

    今回は、以下のような条件で学習をしていきます。

    併せて、この後、紹介するコードでどの行に対応しているかも書いておきます。

    学習率η\eta0.00128行目
    最大学習回数100 epochs84行目
    重み初期値0~1の乱数17行目
    データセットIrisデータセット31行目
    学習終了条件最大学習回数に到達または全てのデータに対する誤差が0になったとき94行目

    最終的なPythonコード

    1import numpy as np
    2import matplotlib.pyplot as plt
    3
    4
    5def inputsum(inputs, weights):  # (1)
    6    return np.dot(inputs, weights)
    7
    8
    9def output(inputs, weights):  # (2)
    10    return step(inputsum(inputs, weights))
    11
    12
    13def step(x):  # (3)
    14    return 1 if x > 0 else 0
    15
    16
    17def init():
    18    # 閾値(バイアス)も一緒に初期化
    19    return np.random.rand(5)
    20
    21
    22def error(output, label):  # 誤差関数 (4)
    23    return label - output
    24
    25
    26def update(weights, err, x):  # 重み更新式 (5)
    27    for i in range(len(x)):
    28        weights[i] += 0.001 * float(err) * x[i]
    29
    30
    31def iris():
    32    data = open('iris.data', 'r')
    33    lines = data.read().split()
    34    dataset = ([])
    35
    36    for line in lines:
    37        pattern = line.split(',')
    38        dataset.append(pattern)
    39    data.close()
    40
    41    return dataset
    42
    43
    44def result(weights, dataset):  # 決定境界を描画する
    45    fig = plt.figure()
    46    ax = fig.add_subplot(1, 1, 1)
    47    boundary = ([])
    48    for pattern in dataset:
    49        if pattern[-1] == 'Iris-setosa':
    50            ax.scatter(float(pattern[0]) + float(pattern[1]), float(pattern[2]) + float(pattern[3]), color='blue')
    51
    52        if pattern[-1] == 'Iris-versicolor':
    53            ax.scatter(float(pattern[0]) + float(pattern[1]), float(pattern[2]) + float(pattern[3]), color='green')
    54    plt.xlim(6, 11)
    55
    56    for i in range(15):
    57        boundary.append(-((weights[1] + weights[2])/(weights[3] + weights[4]))*i + weights[0]/(weights[3] + weights[4]))
    58
    59    ax.plot(boundary, color='red')
    60    ax.set_title('Decision Boundary')
    61    ax.set_xlabel('sepal length + sepal width')
    62    ax.set_ylabel('petal length + petal width')
    63    # fig.savefig('result.png', format='png', dpi=300)
    64    fig.show()
    65
    66
    67def test(weights, data, labels):  # 識別率を計算
    68    correct = 0
    69    for p in range(len(data)):
    70        out = output(data[p], weights)
    71        if out == labels[p]:
    72            correct += 1
    73
    74    print('識別率:' + str(correct*100/len(data)) + '%')
    75
    76
    77if __name__ == '__main__':
    78    dataset = iris()
    79
    80    # 今回は2クラス分しか使わない
    81    patterns = ([])
    82    labels = ([])
    83
    84    for pattern in dataset:
    85        if pattern[-1] != 'Iris-virginica':
    86            # 閾値(バイアス)入力を0番目に設定
    87            patterns.append([-1.0] + list(map(float, pattern[0:-1])))
    88
    89            # setosaは0、versicolorは1の教師信号とする
    90            labels.append(0 if pattern[-1] == 'Iris-setosa' else 1)
    91
    92    # 入力パターンを表示
    93    print(patterns)
    94    weights = init()
    95
    96    for epoch in range(100):
    97        sumE = 0
    98
    99        for p in range(len(patterns)):
    100            e = error(output(patterns[p], weights), labels[p])
    101            update(weights, e, patterns[p])
    102            sumE += e**2
    103
    104        print(str(epoch) + '/100 epoch.')
    105        print(sumE)
    106        if sumE == 0:
    107            break
    108
    109    result(weights, dataset)
    110    test(weights, patterns, labels)

    動作結果

    動作結果の一例は、以下のようになります。

    もちろん、重みの初期値によって結果は変動します。

    そのため、この結果の限りではありません。

    【動作結果例】

    0/100 epoch.
    50
    1/100 epoch.
    50
    2/100 epoch.
    50
    3/100 epoch.
    8
    4/100 epoch.
    0
    識別率:100.0%

    結果を見てわかるように、きれいに決定境界が引けていて、識別率もわずか4回の学習で「100%」を獲得できていることがわかります。

    (偶に識別率は100%でもうまく決定境界が引けないことがあるのは、4次元のデータを無理やり2次元で描写しているからです。)

    これでこのパーセプトロンはIrisデータセットのうち、2クラスは分類できるネットワークになりました。

    これが初期の人工知能で、今ある人工知能技術の基盤となっています。

    単純パーセプトロンの欠点

    最後に、単純パーセプトロンの欠点を紹介してこの記事を終わりにします。

    1. 先ほどの動作確認でわかったように、2クラス分類しかできない
    2. また、重要な欠点として、線形分離可能な問題にしか使うことができない

    Irisのsetosaとversicolorを表した図3のように、綺麗にクラスごとに分かれていれば良いのですが、以下のように2クラスが混同しているとうまく決定境界が引けません

    【Irisデータセットのversicolorとvirginicaで実験した場合】

    この問題を解決するために多層パーセプトロンが提案されたのです。

    多層パーセプトロンについての記事はこちら

    featureImg2019.05.30多層パーセプトロンを実装してみよう!【機械学習】多層パーセプトロンとは?今回は、現在の機械学習の基盤となっている「多層パーセプトロン」を実装します。また、それと並行し...

    こちらの記事もオススメ!

    featureImg2020.07.28機械学習 特集知識編人工知能・機械学習でよく使われるワード徹底まとめ!機械学習の元祖「パーセプトロン」とは?【人工知能】ニューラルネ...

    featureImg2020.07.17ライトコード的「やってみた!」シリーズ「やってみた!」を集めました!(株)ライトコードが今まで作ってきた「やってみた!」記事を集めてみました!※作成日が新し...

    ライトコードでは、エンジニアを積極採用中!

    ライトコードでは、エンジニアを積極採用しています!社長と一杯しながらお話しする機会もご用意しております。そのほかカジュアル面談等もございますので、くわしくは採用情報をご確認ください。

    採用情報へ

    メディアチーム
    メディアチーム
    Show more...

    おすすめ記事

    エンジニア大募集中!

    ライトコードでは、エンジニアを積極採用中です。

    特に、WEBエンジニアとモバイルエンジニアは是非ご応募お待ちしております!

    また、フリーランスエンジニア様も大募集中です。

    background