全连接层
全连接层实现了output = activation(dot(input, kernel) + bias)
全连接的的神经网络层。
激活层
对输出使用激活函数。单一层对神经网络输出施加一个激活函数。
Dropout层
对输入数据进行适当的丢弃
Flatten
对输入进行Flatten,不影响batch 大小
Reshape
对输出重新定义唯独。
Permute
根据一定的模型改变输入序列
RepeatVector
重复输入n次
Lambda
自定义层,嵌入自定义的表达式。
softmax层
$$softmax(x)i=\frac {exp(x_i)}{\sum{j}exp(x_j)} $$
tensorflow中定义的基本层,通常是对某一个NN的输出进行转化,转化成各个输出的概率。