确定滞后阶数通常需要考虑多个因素,以下是一些常用的方法:
信息准则
AIC (Akaike Information Criterion):AIC倾向于选择较小的模型,即较少的滞后阶数,以减少自由度,但可能会牺牲一些拟合度。
SC (Schwarz Criterion):SC与AIC类似,但惩罚项的系数不同,通常SC对较复杂的模型施加更重的惩罚。
HQ (Hannan-Quinn Criterion):HQ是AIC和SC的加权平均,试图在两者之间找到平衡。
统计检验
LR (Likelihood Ratio) 检验:当AIC和SC不是同时取最小值时,可以使用LR检验来比较不同滞后阶数的模型。
经验验证
当样本容量较小,信息准则可能不够可靠,此时可能需要依赖经验判断。
比较滞后1、2、3阶通常可以得到一个较好的结果。
软件工具
使用统计软件如EViews可以辅助确定最大滞后阶数。在EViews的VAR估计结果窗口中,可以通过相关选项输入最大滞后阶数,并选择*号最多的阶数作为滞后阶数。
交叉验证
使用交叉验证方法评估不同滞后阶数下模型的性能,例如在Python的statsmodels库中可以使用交叉验证来选择最佳的滞后阶数。
其他检验
DW (Durbin-Watson) 值:用于检验时间序列是否存在自相关性。
Wald统计量:用于检验模型参数的显著性。
格兰杰检验:用于检验一个时间序列是否是另一个时间序列的格兰杰原因。
选择滞后阶数时,需要综合考虑模型的拟合优度、自由度、解释变量的个数等因素,并可能需要通过多次尝试和经验来确定最佳的滞后阶数。需要注意的是,不同的模型和数据集可能需要不同的滞后阶数,因此最佳滞后阶数可能因情况而异