神经网络中的超参数
神经网络中常见的超参数:
1.隐藏层的大小n^[l](size of hidden layers)
2.学习率 alpha(learning rate)
3.迭代次数(number of iterations)
4.神经网络中的层数L(number of layers L in the neral network)
一个计算流程图,就是正向或者说从左到右的计算来计算成本函数𝐽,你可能
需要优化的函数,然后反向从右到左计算导数。
参考吴恩达深度学习视频:https://www.bilibili.com/video/BV1FT4y1E74V?p=15&spm_id_from=pageDriver
Sigmoid outputs a value between 0 and 1 which makes it a very good choice for binary classification.
You can classify as 0 if the output is less than 0.5 and classify as 1 if the output is more than 0.5.
It can be done with tanh as well but it is less convenient as the output is between -1 and 1.(Sigmoid
输出的值介于 0 和 1 之间,这使其成为二元分类的一个非常好的选择。 如果输出小于 0.5,则可以将其归类为 0,如果输出
大于 0.5,则归类为 1。 它也可以用 tanh 来完成,但是它不太方便,因为输出在
-1 和 1 之间。)