一、sigmoid函数
def sigmoid(x): return 1 / ( 1 + np.exp(-x) )
二、阶跃函数
def step_function(x): return np.array(x > 0, dtype=np.int)
三、ReLu函数
def relu(x): return np.maximum(0, x)
四、softmax函数
def softmax(a): exp_a = np.exp(a) sum_exp_a = np.sum(exp_a) y = exp_a / sum_exp_a return y
函数作用:将所有元素调整为0-1之间的小数,并且各元素相加总和为1,作用于概率统计计算
附录:
机器学习与神经网络的不同
def hello(): print("Odoo代码块") return True