当前位置:网站首页>神经网络的设计过程
神经网络的设计过程
2022-08-02 14:08:00 【伏月三十】
神经网络的设计过程
eg鸢尾花的分类
基础知识
神经网络:采集大量数据对构成数据集
花萼长、花萼宽、花瓣长、花瓣宽(输入特征)---->对应的类别(标签,需要人工标定)
把数据集喂入搭建好的神经网络结构,网络通过反向传播优化参数得到模型,模型读入新输入特征,输出识别结果。
输入数据:一行四列
输出数据:一行三列
权重w:四行三列
偏置b:三个
神经元:输出层的每一个小球
搭建网络
搭建网络:全连接网络(里面的每一个神经元y0、y1、y2和前面一层 的每一个节点x0、x1、x2、x3都有连接)
网络搭建好后,线上的w、b会被随机初始化一些随机数。
前向传播
喂入一组输入特征5.8、4.0、1.2、0.2,和它们对应的标签:0狗尾草鸢尾;
神经网络执行前向传播x*w+b计算出y。
损失函数
输出y,数据最大的就是可能性最高的,是1,而不是标签0。因为w、b是随机生成的。
用到损失函数(预测值和标准值之间的差距,越小越好)
均方误差是一种常用的损失函数。它计算每个前向传播输出y和标准答案y_的差,求平方,再求和,再除以n求平均值,表征了网络前向传播推理(结果)和标准答案之间的差距。
梯度下降
反向传播
代码
import tensorflow as tf
#设置w的随机初始值为5,设定为可训练
w = tf.Variable(tf.constant(5,dtype=tf.float32))
#学习率为0.2
lr = 0.2
#循环迭代40次
epoch = 40
for epoch in range(epoch):#定义顶层循环,表示对数据集循环epoch次
with tf.GradientTape() as tape:#11-13梯度的计算过程
loss = tf.square(w + 1)#损失函数定义为(w+1)^2
grads = tape.gradient(loss,w)#.gradient函数告知对谁求导 loss对w的导数 损失函数对偏置的导数
w.assign_sub(lr * grads)#.assign_sub对变量做自减 w(t+1)=w(t)-lr*偏导数
print("After %s epoch,w is %f,loss is %f" % (epoch,w.numpy(),loss))
#lr初始值:0.2 修改学习率 0.001(太小) 0.999(太大) 看收敛过程
#最终目的:找到loss最小 即w=-1的最优参数w
边栏推荐
- UIWindow的makeKeyAndVisible不调用rootviewController 的viewDidLoad的问题
- 关于UDF
- 什么是 Web 3.0:面向未来的去中心化互联网
- Cannot figure out how to save this field into database. You can consider adding a type converter for
- LLVM系列第四章:逻辑代码块Block
- MySQL知识总结 (六) MySQL调优
- MySQL知识总结 (十一) MySql 日志,数据备份,数据恢复
- redis基础
- LLVM系列第六章:函数返回值Return
- MySQL知识总结 (十) 一条 SQL 的执行过程详解
猜你喜欢
随机推荐
PostgreSQL 性能谜题
PyTorch(11)---卷积神经网络_一个小的神经网络搭建model
“非图灵完备”到底意味着什么
华为防火墙
深度学习之文本分类总结
自定义UDF函数
科创知识年度盛会,中国科创者大会8月6日首场开幕!
针对多轮推理分类问题的软标签构造方法
Hession使用
Must-know knowledge about disassembly
STL容器自定义内存分配器
In the Visual studio code solutions have red wavy lines
电商项目常见连续登录,消费,日期等问题
Policy Evaluation收敛性、炼丹与数学家
NER(命名体识别)之 FLAT模型
2. Basic use RecyclerView
The NDK portal: C
Ffmpeg交叉编译
对疫情期间量化策略表现的看法
数据乱码问题—更改mysql字符编码