victory的博客

长安一片月,万户捣衣声

0%

防止模型过拟合的6种必备方法

在训练机器学习模型时常常会遇到模型过拟合的情况,即模型在训练集上的表现良好,但是在验证集或者
测试集上表现相对较差;
常见的防止过拟合的方法:
1.使用K重交叉验证方法或者留一验证方法
2.数据增强
3.正则化
4.早停
5.Dropout
6.移除特征
参考资料

情绪识别想法与实践的起点

步入研一以来,about我的研究方向,一开始聚焦在脑电伪迹去除,大约看了10篇左右论文,后来在与给老师的汇报和交流中,关于研究方向
的keywords变成了:深度学习、脑电、分类、音乐、情绪识别,偶然我遇到了下面这篇论文,题目的每一个字都与我的research密切对应,
因此一场深度学习情绪分类的战役由此拉开。。。

Paper title: Spatiotemporal Emotion Recognition using Deep CNN Based on EEG during Music Listening
论文地址

这篇论文的作者有几篇关于脑电情绪分类的研究文章,详细信息查看researchgate!
researcher researchgate site

论文简要介绍

Considerations:
1.explore the model’s capabilities in varied window sizes and electrode orders
2.model’s complexity:(3conv ~ 6conv)

Results:
temporal information in distinct window sizes significantly affects recognition performance

Used Megthod:CNN
without mannually extracting features

划分数据集前对数据的shuffle

划分数据集前对数据集和标签的shuffle很重要!!!划分数据集前对数据集和标签的shuffle很重要!!!划分数据集前对数据集和标签的shuffle很重要!!!
重要的事情说三遍!

shuffle对模型的accuracy有较大的影响,因此在将数据输入模型之前应该将数据集进行shuffle!

Python如何打乱训练数据集顺序的几种方法

前向传播和反向传播中使用的cache

the “cache” records values from the forward propagation units and sends it to the backward
propagation units because it is needed to compute the chain rule derivatives.(“cache”记录
来自正向传播单元的值并将其发送到反向传播单元,因为需要链式计算导数。)

sigmoid or tanh?

Sigmoid outputs a value between 0 and 1 which makes it a very good choice for binary classification.
You can classify as 0 if the output is less than 0.5 and classify as 1 if the output is more than 0.5.
It can be done with tanh as well but it is less convenient as the output is between -1 and 1.(Sigmoid
输出的值介于 0 和 1 之间,这使其成为二元分类的一个非常好的选择。 如果输出小于 0.5,则可以将其归类为 0,如果输出
大于 0.5,则归类为 1。 它也可以用 tanh 来完成,但是它不太方便,因为输出在
-1 和 1 之间。)