投稿问答最小化  关闭

万维书刊APP下载

贝叶斯门限自回归模型(上)

2022/10/25 16:47:58  阅读:212 发布者:

自回归(AR)模型是应用经济学和其他学科中使用最广泛的模型之一,因为它们具有通用性和简单性。然而,真实经济和金融数据的动态特征可能会因时间段而异,从而限制了线性时间序列模型的适用性。例如,失业率的变化是经济状况的函数,无论是扩张还是收缩。已经开发了各种模型,允许时间序列动力学依赖于它们所属系统的制度(regime)。与制度相关的模型类别包括马尔可夫切换、平滑过渡和门限值自回归 (TAR) 模型。

TARTong 1982)是一类非线性时间序列模型,应用于计量经济学(Hansen 2011),金融分析(CaoTsay 1992)和生态学(Tong 2011)。TAR模型允许由过去观察到的结果水平触发制度转换。Stata 中的门限值命令提供了某些 TAR 模型的频率估计。

Stata 17中,bayesmh 命令支持线性和非线性模型规范中的时间序列运算符,在这篇文章中,我想展示如何使用贝叶斯姆命令拟合一些贝叶斯 TAR 模型。这些示例还将演示现有门限值命令无法实现的建模灵活性。

01/

    TAR 模型定义

{yt} 是在离散t时间观察到的序列。具有p阶(order)的一般TAR模型,TAR(p),具有以下形式:

其中zt是门限值变量(threshold variable),−∞∞是制度门限值(regime thresholds),et 是独立的标准正态分布误差。第j制度有自己的一组自回归系数 {aji} 和标准差 σj。不同的制度也允许有不同的阶数p。在上面的等式中,这可以通过将 p 替换为特定于制度的 pj 来表示。

TAR模型中,正如定义所暗示的那样,结构断裂(structural breaks)不在某些时间点发生,而是由门限值变量 zt 的大小触发的。通常具有 zt=ytd,其中 d 是一个正整数,称为延迟参数(delay parameter)。这些模型被称为自我激励的TARSETAR),也是我在下面说明的模型。

02/

实际国内生产总值数据集

在博德里和库普(1993年)中,第三次评估报告模型被用来模拟国民生产总值。作者证明了国民生产总值增长率的不对称持续性,积极冲击(与扩张期相关)比负面冲击(衰退期)更持久。在类似的方法中,我使用美国实际国内生产总值(GDP)的增长率作为经济状况的指标来模拟扩张期和衰退期之间的差异。

使用 import fred 命令从美联储经济数据存储库获得以数十亿美元为单位的实际 GDP 季度观测值。我只考虑1947年第一季度至2021年第二季度之间的观察结果。将生成一个季度日期变量 dateq,并将其与 tsset 一起使用以设置时间序列。

我对实际GDP从一个季度到下一个季度的变化感兴趣。为此,我生成了一个新的变量 rgdp,以百分比来衡量这种变化。rgdp的正值表示经济增长或扩张,而接近0或负值则与停滞或衰退有关。下面,我使用 tsline 命令来绘制时间序列。在那里,可以看到一些以GDP急剧下降为标志的衰退时期,包括2020年的最新衰退时期。

具有两种制度的TAR模型估计一个门限值r这可以被想象成一条水平线,在某种程度上非正式地将扩张与衰退时期分开。在贝叶斯 TAR 中,门限值r是一个随机变量,其分布是根据先前和观测到的数据估计的。

03/

贝叶斯 TAR 规范

在我演示如何在 Stata 中指定贝叶斯 TAR 模型之前, 让我先使用 bayesmh 命令为 rgdp 拟合一个更简单的贝叶斯 AR1) 模型。它将作为与具有结构断裂的模型进行比较的基线。

给定 rgdp 的范围,对于 {rgdp} 方程中的两个系数,我使用normal(0, 100),对于方差参数 {sig2},先验的 igamma(0.01, 0.01)。我还使用 Gibbs 采样来更有效地模拟模型参数。

AR1) 系数 {L1.rgdp} 的后验均值估计值为 0.12,表示 rgdp 的序列正相关。这意味着实际GDP增长在一定程度上持续存在。{sig2} 的后验均值估计值为 1.34,表明波动率水平高于 1%,如果后者用标准差来衡量。然而,这个简单的AR1)模型并没有告诉我们持久性和波动性如何根据经济状况而变化。

在继续之前,我保存了模拟和估计结果以供以后参考。

为了描述经济的双态模型,我想指定最简单的双模式SETAR模型,其阶数为1,延迟为1。在下一节中,我将讨论顺序和延迟参数的选择。

转自:云导师学术辅导平台”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com