博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
机器学习之深入理解神经网络理论基础、BP算法及其Python实现
阅读量:6265 次
发布时间:2019-06-22

本文共 4640 字,大约阅读时间需要 15 分钟。

  人工神经网络(Artificial Neural Networks,ANN)系统是 20 世纪 40 年代后出现的。它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信 息存储、良好的自组织自学习能力等特点。BP(Back Propagation)算法又称为误差反向传播算法,是人工神经网络中的一种监督式的学习算法。BP 神经网络算法在理 论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,在优化、信号处理与模式识别、智能控制、故障诊断等许 多领域都有着广泛的应用前景。


神经元模型

神经网络中最基本的成分是神经元模型。在这个模型中,神经元接收到来自n个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,神经元接收到的总数入值将与神经元的阈值进行比较,然后通过激活函数处理以产生神经元的输出。

这里写图片描述

理想中的激活函数是下图中(a)所表示的阶跃函数,它将输入值映射为输出值0或者1,然而,阶跃函数具有不连续性、不光滑等不太好的性质,因此实际常用Sigrnoid函数作为激活函数,典型的Sigrnoid函数是下图中(b)所示,它把可能在较大范围内变化的输入值挤压到(0,1)输出值范围内。

这里写图片描述


多层前向神经网络

常见的神经网络层级结构是多层前向神经网络

多层前向神经网络由三部分组成:输出层、隐藏层、输出层,每层由单元组成;

输入层由训练集的实例特征向量传入,经过连接结点的权重传入下一层,前一层的输出是下一层的输入;隐藏层的个数是任意的,输入层只有一层,输出层也只有一层;

除去输入层之外,隐藏层和输出层的层数和为n,则该神经网络称为n层神经网络,如下图为2层的神经网络;

这里写图片描述

一层中加权求和,根据非线性方程进行转化输出;理论上,如果有足够多的隐藏层和足够大的训练集,可以模拟出任何方程;

使用神经网络之前,必须要确定神经网络的层数,以及每层单元的个数;

为了加速学习过程,特征向量在传入输入层前,通常需要标准化到0和1之间;

离散型变量可以被编码成每一个输入单元对应一个特征值可能赋的值,比如:特征值A可能去三个值(a0,a1,a2),那么可以使用3个输入单元来代表A

如果A=a0,则代表a0的单元值取1,其余取0;

如果A=a1,则代表a1的单元值取1,其余取0;
如果A=a2,则代表a2的单元值取1,其余取0;

这里写图片描述

神经网络既解决分类(classification)问题,也可以解决回归(regression)问题。对于分类问题,如果是两类,则可以用一个输出单元(0和1)分别表示两类;如果多余两类,则每一个类别用一个输出单元表示,所以输出层的单元数量通常等一类别的数量。

没有明确的规则来设计最佳个数的隐藏层,一般根据实验测试误差和准确率来改进实验。


误差逆传播算法(BP算法)

通过迭代来处理训练集中的实例;

对比经过神经网络后预测值与真实值之间的差;

反方向(从输出层=>隐藏层=>输入层)来最小化误差,来更新每个连接的权重;

算法详细介绍:

输入:数据集、学习率、一个多层神经网络构架;

输出:一个训练好的神经网络;

初始化权重和偏向:随机初始化在-1到1之间(或者其他),每个单元有一个偏向;对于每一个训练实例X,执行以下步骤:

1、由输入层向前传送:

结合神经网络示意图进行分析:

这里写图片描述

由输入层到隐藏层:

Oj=iwijxi+θj
由隐藏层到输出层:
Ok=jwjkOj+θk
两个公式进行总结,可以得到:
Ij=iwijOi+θj
Ij为当前层单元值,
Oi为上一层的单元值,
wij为两层之间,连接两个单元值的权重值,
θj为每一层的偏向值。我们要对每一层的输出进行非线性的转换,示意图如下:

这里写图片描述

当前层输出为Ij,f为非线性转化函数,又称为激活函数,定义如下:

f(x)=11+ex
即每一层的输出为:
Oj=11+eIj

这样就可以通过输入值正向得到每一层的输出值。

2、根据误差反向传送 对于输出层:其中Tk是真实值,Ok是预测值:

Errk=Ok(1Ok)(TkOk)
对于隐藏层:
Errj=Oj(1Oj)kErrkwjk
权重更新:其中
l为学习率:
Δwij=(l)ErrjOi
wij=wij+Δwij
偏向更新:
Δθj=(l)Errj
θj=θj+Δθj

3、终止条件

① 偏重的更新低于某个阈值;

②预测的错误率低于某个阈值;
③达到预设一定的循环次数;

算法举例:

这里写图片描述

这里写图片描述


BP神经网络的python实现

需要先导入numpy模块

import numpy as np

定义非线性转化函数,由于还需要用到给函数的导数形式,因此一起定义

def tanh(x):    return np.tanh(x)def tanh_deriv(x):    return 1.0 - np.tanh(x)*np.tanh(x)def logistic(x):    return 1/(1 + np.exp(-x))def logistic_derivative(x):    return logistic(x)*(1-logistic(x))

设计BP神经网络的形式(几层,每层多少单元个数),用到了面向对象,主要是选择哪种非线性函数,以及初始化权重。layers是一个list,里面包含每一层的单元个数。

class NeuralNetwork:    def __init__(self, layers, activation='tanh'):        """        :param layers: A list containing the number of units in each layer.        Should be at least two values        :param activation: The activation function to be used. Can be        "logistic" or "tanh"        """        if activation == 'logistic':            self.activation = logistic            self.activation_deriv = logistic_derivative        elif activation == 'tanh':            self.activation = tanh            self.activation_deriv = tanh_deriv        self.weights = []        for i in range(1, len(layers) - 1):            self.weights.append((2*np.random.random((layers[i - 1] + 1, layers[i] + 1))-1)*0.25)            self.weights.append((2*np.random.random((layers[i] + 1, layers[i + 1]))-1)*0.25)

实现算法

def fit(self, X, y, learning_rate=0.2, epochs=10000):        X = np.atleast_2d(X)        temp = np.ones([X.shape[0], X.shape[1]+1])        temp[:, 0:-1] = X        X = temp        y = np.array(y)        for k in range(epochs):            i = np.random.randint(X.shape[0])            a = [X[i]]            for l in range(len(self.weights)):                a.append(self.activation(np.dot(a[l], self.weights[l])))            error = y[i] - a[-1]            deltas = [error * self.activation_deriv(a[-1])]            for l in range(len(a) - 2, 0, -1):                deltas.append(deltas[-1].dot(self.weights[l].T)*self.activation_deriv(a[l]))            deltas.reverse()            for i in range(len(self.weights)):                layer = np.atleast_2d(a[i])                delta = np.atleast_2d(deltas[i])                self.weights[i] += learning_rate * layer.T.dot(delta)

实现预测

def predict(self, x):        x = np.array(x)        temp = np.ones(x.shape[0]+1)        temp[0:-1] = x        a = temp        for l in range(0, len(self.weights)):            a = self.activation(np.dot(a, self.weights[l]))        return a

我们给出一组数进行预测,我们上面的程序文件保存名称为BP

from BP import NeuralNetworkimport numpy as npnn = NeuralNetwork([2,2,1], 'tanh')x = np.array([[0,0], [0,1], [1,0], [1,1]])y = np.array([1,0,0,1])nn.fit(x,y,0.1,10000)for i in [[0,0], [0,1], [1,0], [1,1]]:    print(i, nn.predict(i))

结果如下:

([0, 0], array([ 0.99738862]))([0, 1], array([ 0.00091329]))([1, 0], array([ 0.00086846]))([1, 1], array([ 0.99751259]))

参考:


相关博客:

1、机器学习系列之

2、机器学习系列之

3、机器学习系列之

4、机器学习系列之

5、机器学习系列之

6、机器学习系列之


具体更多资源可前往

你可能感兴趣的文章
oracle set命令详解
查看>>
可变的数据变量一定要初始化之后才能再用
查看>>
浅用block 转
查看>>
HDU 3032 Nim or not Nim?(博弈,SG打表找规律)
查看>>
Android soundpool初探
查看>>
c#操作access,update语句不执行的解决办法
查看>>
艺术(良质)的代价--读禅与摩托车维修艺术
查看>>
Linux 比较重要且难掌握命令 集合
查看>>
C#基本概念列举说明
查看>>
如何有效使用Project(2)——进度计划的执行与监控
查看>>
iOS 工作遇到问题记录
查看>>
Android 中屏幕点击事件的实现
查看>>
做为一个前端工程师,是往node方面转,还是往HTML5方面转
查看>>
spark 安装配置
查看>>
图片裁剪和异步上传插件--一步到位(记录)
查看>>
在Vs2012 中使用SQL Server 2012 Express LocalDB打开Sqlserver2012数据库
查看>>
【分享】博客美化(7)推荐几个优秀的自定义博客
查看>>
人工智能和机器学习领域的一些有趣的开源项目
查看>>
python sorted排序
查看>>
python中xrange和range的异同
查看>>