Press "Enter" to skip to content

web前端,一起来学习神经网络。

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

最近在学习机器学习,想着边学习边分享的意思写了这篇文章,神经网络的介绍以及教程网络上已经有很多了,所以我这里也不去介绍了,今天我们手写一个神经元。

 

1、神经元是什幺?

 

我这边从百科复制来了一段。

 

“人工神经网络通常呈现为相互连接的“神经元”,它可以从输入的计算值,并且能够机器学习以及模式识别由于它们的自适应性质的系统。”

 

可以看出神经网络是由若干个神经元组成的,而神经元的作用就是将输入转换成我们想要的输出。

 

我们简单的画个示意图(如下图)

 

 

图中可以看出小圆圈是我们的神经元, i0,i1 是我们的输入, output 是我们的输出,然后我们再加上 权重 (如下图)。

 

权重 是什幺?这边举个例子。

 

小花,小红,小强经常去看电影,每次小花去了小强肯定去,因为小强喜欢小花,但有一天小强喜欢上了小红,小红去了小强才会去。

 

这就是不确定因素,每一个输入都会有一个权重,权重就是不断变化的值,我们不断地改变权重,让我们的结果预测的更好。

 

最后我们再加上偏置,每个神经元都有一个偏置(与线性方程 y=wx+b 中的 b 的意义是一致的,控制着函数偏离原点的距离),可以更好的拟合数据。(如下图)

 

 

最后用 线性回归公式 计算我们的输出 output = i0 * w0 + i1 * w1 + bias,最后计算出来的结果可能很很大或者很小,这不是我们想要的结果,我们可以运用激活函数 sigmoidSigmoid 函数常被用作神经网络的激活函数,可以将变量映射到0,1之间。(如下图)

 

 

 

2.用代码来实现一下。

 

1.先定义下数据 左边是我们的输入,右边是我们的答案。可以看出这是个或运算,只要有一个是1答案就为1

 

const datas = [
    [[1, 1], 1],
    [[1, 0], 1],
    [[0, 0], 0],
    [[0, 1], 1],
];

 

输入有了,我们还需要权重和偏置,我们先初始化三个值,分别是两个权重跟一个偏置。

 

const random = []
for (i = 0; i < 3; i++) {
    random.push(Math.random());
}

 

然后计算输出,我们之前说过了 线性回归公式 output = i0 * w0 + i1 * w1 + bias

 

//计算输出
function output(datas) {
    return output = datas[0] * random[0] + datas[1] * random[1] + random[2]
}

 

用Sigmoid函数将结果映射到0,1之间

 

//计算输出
function output(datas) {
    let outputs = datas[0] * random[0] + datas[1] * random[1] + random[2]
    return sigmoid(outputs)
}
//用Sigmoid将结果映射到0,1之间
function sigmoid(x) {
    return 1 / (1 + Math.pow(Math.E, -x))
}

 

这样一个简单的神经元就写好了,但预测的结果肯定不对的,我们还得训练它!(重要的就在这!!!)

 

首先我们先写一个函数,来计算每次预测与答案的误差。

 

//计算我们的预测与答案的误差
function errorValue(output, result) {
    return Math.abs(output - result)
}

 

然后我们定义我们的训练函数,有了误差,我就可以根据误差来调整权重的值为止。

 

function train(inputs, result) {
    const devW = 0.001 //权重每次偏移多少
    let error = errorValue(output(inputs), result),记录下此次的误差
    dRandom = [], //上一次的权重
    dError = null; //上一次的误差值
        
    random.forEach((val, idx) => {
        // 更改权重
        random[idx] += devW
        // 再次计算误差
        dError = errorValue(output(inputs), result)
        // 上一次误差减去这一次误差,看看我们的误差大了还是小了。
        dRandom[idx] = (dError - error) / devW
        //ps:有了两次的误差,我们可以知道,初始的权重与偏置,离目标值差多少。
        //还原初始值
        random[idx] = val
    })
    
    random.forEach((val, idx) => {
        //减去误差值
        random[idx] -= dRandom[idx]
    })
}

 

这样就完成了,我们调试一下,先增加个死循环,如果错误率小于0.001,我们就跳出循环,并输出我们的权重跟偏置。

 

let a = 0, //计数
    isBreak = false;//是否跳出循环
function train(inputs, result) {
    const devW = 0.001 //权重每次偏移多少
    let error = errorValue(output(inputs), result),// 记录下此次的误差
        dRandom = [], //上一次的权重
        dError = null; //上一次的误差值
    random.forEach((val, idx) => {
        // 更改权重
        random[idx] += devW
        // 再次计算误差
        dError = errorValue(output(inputs), result)
        // 上一次误差减去这一次误差,看看我们的误差大了还是小了。
        dRandom[idx] = (dError - error) / devW
        //ps:有了两次的误差,我们可以知道,初始的权重与偏置,离目标值差多少。
        //还原初始值
        random[idx] = val
    })
    random.forEach((val, idx) => {
        //减去误差值
        random[idx] -= dRandom[idx]
    })
    a++
    // 每五万次输入一下
    if (a % 50000 == 0) {
        console.log(`运行:${a/50000}万次,错误率${error},预测答案${output(inputs)}`)
        if (error < 0.001) {
            isBreak = true
            // 出我们的权重跟偏置
            console.log(random)
        }
    }
}
for (i = 0; ; i++) {
    datas.forEach(data => {
        train(data[0], data[1])
    })
    if (isBreak) break
}

 

我们来看下运行结果

 

 

把我们的公式拿过来计算下。 utput = i0 * w0 + i1 * w1 + bias

 

假如输入1 1

 

1×16+1×16-7=25 然后用sigmoid函数计算一下

假如输入0 0

 

0x16+0x16-7=-7后用sigmoid函数计算一下

假如输入0 1

 

0x16+1×16-7=9后用sigmoid函数计算一下

可以看出答案都是比较理想的

 

由于只有一个神经元,能够做到的事情很少,但这并不是终点,一起加油吧。

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注