深度学习入门笔记


激活函数

activation function :将输入信号的总和转换为输出信号,作用就是决定如何激活输入信号的总和。

sigmoid func

h(x) = 1 / 1 + exp(-x)

阶跃函数

相当于感知机

def step_fun(x):
  if X > 0:
    return 1
  else:
    return 0
#np的类型
def step_fun(x):  
  y = x > 0
  return y.astype(np.int)

ReLU函数

Rectified Linear Unit

def relu(X):
  return np.maximum(0,x)

nn重要概念

神经网络内积:


输出层: softmax():yk = exp (ak) / exp (a1+a2+…+an)


Author: 寒风渐微凉
Reprint policy: All articles in this blog are used except for special statements CC BY 4.0 reprint policy. If reproduced, please indicate source 寒风渐微凉 !
 Previous
Next 
  TOC