分类: 教程

TensorFlow 2.0教程 | 七、循环神经网络

本讲将使用循环神经网络实现连续数据的预测 7.1 循环核 循环核:参数时间共享,循环层提取时间信息。 循环核具有记忆力,通过不同时刻的参数共享,实现了对时间序列的信息提取。 循环核示意:有圆柱体是记忆体,记忆体下面、侧面、上面分别有三组待训练的参数矩阵。 ​ 中间圆柱体是记忆体,可以设定个数,改变记忆容量,当记忆体个数被指定,输入xt、输出yt维度被指定,周围这些待训练参数的维度也就被限定了。

TensorFlow 2.0教程 | 六、经典卷积神经网络

经典卷积神经网络 6.1 LeNet LeNet卷积神经网络是L eCun于1998年提出,时卷积神经网络的开篇之作。通过共享卷积核减少了网络的参数 在统计卷积神经网络层数时,一般只统计卷积计算层和全连接计算层,其余操作可以认为是卷积计算层的附属,LeNet共有五层网络。 经过C1和C3两层卷积后,再经过连续的三层全链接。 第一层卷积:6个55的卷积核;卷积步长时1;不使用全零填充;Le

TensorFlow 2.0教程 | 五、卷积神经网络

5.1 卷积计算过程 全连接NN:每个神经元与前后相邻层的每个神经元都有连接关系,输入是特征,输出为预测的结果。 全连接神经网络参数个数: $$ \sum_{\text {各层 }}(\text { 前层神经元个数 } \times \text { 后层神经元个数 }+\text { 后层神经元个数 }) $$ w:前层*后层 b:后层 上一讲图片识别中,每张图片28×28个点,128个神经

TensorFlow 2.0教程 | 三、使用Tensorflow搭建神经网络

3.1 搭建网络sequenial 用Tensorflow API: tf. keras 六步法搭建神经网络 第一步:import相关模块,如import tensorflow as tf。 第二步:指定输入网络的训练集和测试集,如指定训练集的输入x_train和标签y_train,测试集的输入x_test和标签y_test。 第三步:逐层搭建网络结构,model = tf.keras.mo

TensorFlow 2.0教程 | 二、深入TensorFlow

2.1 预备知识 tf.where() 条件语句真返回A,条件语句假返回B 1tf.where(条件语句,真返回A,假返回B) 代码示例 123456789import osos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' # 关闭log信息import tensorflow as tfa = tf.constant(

TensorFlow 2.0教程 | 一、初识TensorFlow

本讲目标:学会神经网络计算过程,使用基于TF2原生代码搭建你的第一个的神经网络训练模型 1.1 人工智能三学派 当今人工智能主流方向——连接主义 人工智能的定义:让机器具备人的思维和意识 人工智能三学派: 行为主义:基于控制论,构建感知-动作控制系统。 (控制论,如平衡、行走、避障等自适应控制系统) 符号主义:基于算数逻辑表达式,求解问题时先把问题描述为表达式,再求解表达式。(可用公 式