层数确定:
浅层网络(1-2 隐藏层):适合捕捉简单模式(如线性趋势 + 少量非线性特征),计算快且不易过拟合。
深层网络(3 + 隐藏层):适合复杂时序数据(如多因子序列、长期趋势),但需警惕过拟合和梯度消失。
经验法则:先用 1 层隐藏层尝试,若验证集效果差再增加层数(如每增加一层观察损失函数变化)。
参考同类问题成功案例(如 LSTM 预测股价通常用 1-3 层)。
神经元个数确定:
输入层:神经元数 = 特征数(如 10 个因子则 10 个节点)。
输出层:回归任务用 1 个节点(预测收益率),分类任务用 2 个节点(涨跌概率)。
隐藏层:公式法:nh=32ni+no(ni为输入层节点,no为输出层节点)。
试错法:从较小值(如 16、32)开始,逐步增加至验证集误差不再下降(如 64、128)。
正则化:通过 Dropout 层或 L2 正则化控制过拟合,允许适当增加神经元数。
关键原则:
优先保证模型泛化能力,而非训练集拟合度。使用早停法(Early Stopping)防止层数 / 神经元过多导致过拟合。
发布于2025-5-21 15:33 武汉

