1.tf.layers.dense的用法
dense:相当于一个全连接层
函数解释如下:
tf.layers.dense(
inputs,
units,
activation=None,
use_bias=True,
kernel_initializer=None,
bias_initializer=tf.zeros_initializer(),
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
bias_constraint=None,
trainable=True,
name=None,
reuse=None
)
● inputs:输入。
● units: 输出的大小(维数).
● activation: 使用什么激活函数(神经网络的非线性层),
● use_bias: 使用bias为True(默认使用),不用bias改成False即可。
● kernel_initializer:权重矩阵的初始化函数。 如果为None(默认值),则使用tf.get_variable使用的默认初始化程序初始化权重。
● bias_initializer:bias的初始化函数。
● kernel_regularizer:权重矩阵的正则函数。
● bias_regularizer:bias的的正则函数。
● activity_regularizer:输出的的正则函数。
● kernel_constraint:可选,默认为 None,施加在权重上的约束项
● name:名字
● reuse:Boolean,是否以同一名称重用前一层的权重。
全连接层:
dense1 = tf.layers.dense(inputs=pool3, units=1024, activation=tf.nn.relu)
dense2= tf.layers.dense(inputs=dense1, units=512, activation=tf.nn.relu)
logits= tf.layers.dense(inputs=dense2, units=10, activation=None)
参数含义
一般只用到前三个参数:
● inputs就是该层的输入;
● units为神经元数目,即经过该层后的输出维度,也就是会将inputs的最后一个维度变成units;
● activation选择你所用的激活函数。
版权声明:本文为qq_45704645原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。