Wednesday 13 September 2017

Is moving average estacionário


Considere o processo de ordem infinita MA definido por yt epsilont um epsilon epsilon, onde a é uma constante e os epsilont s são iid N 0, v variável aleatória. Qual é a melhor maneira de mostrar que yt é não-estacionário Eu sei que eu preciso olhar As raízes características do polinômio características e, em seguida, julgar se estão ou não fora do círculo unidade, mas qual é a melhor maneira de abordar este problema Devo tentar reescrever o processo de ordem infinita MA como um processo de ordem finita AR ou é Mais fácil de trabalhar o processo MA. asked Oct 19 13 at 21 11.Quem são AR estacionária AR autorregressiva, MA média móvel, e estacionária ARMA processos mistos. Processo AR autorregressivo estacionário Os processos AR autorregressivos estacionários têm funções teóricas de autocorrelação ACFs que decai em direção a zero, em vez disso De corte para zero Os coeficientes de autocorrelação podem alternar em sinal com freqüência, ou mostrar um padrão ondulatório, mas em todos os casos, eles caem em direção a zero Por contraste, AR process Ses com ordem p têm funções de autocorrelação parcial teóricas PACF que cortaram para zero após o atraso p O comprimento de atraso do pico PACF final é igual à ordem AR do processo, p Processo MA de média móvel As ACFs teóricas de MA processos de média móvel com ordem q Cortado para zero após o retardo q, a ordem MA do processo No entanto, os seus PACFs teóricos decrescem em direcção a zero O comprimento de atraso do pico ACF final é igual à ordem MA do processo, q Processo ARMA misto estacionário Processos ARMA mistos estacionários mostram uma mistura Das características AR e MA Ambos os ACF teóricos e os PACF caem em direção zero. Copyright 2016 Minitab Inc Todos os direitos Reserved. A Breve Introdução à Modern Time Series. Definição Uma série de tempo é uma função aleatória xt de um argumento t em um conjunto T Em outras palavras, uma série de tempo é uma família de variáveis ​​aleatórias x t-1 xtxt 1 correspondente a todos os elementos no conjunto T, onde T é suposto ser um conjunto denumerable, infinito. Definição Um tempo observado seri Es tte T o T é considerado como parte de uma realização de uma função aleatória xt Um conjunto infinito de realizações possíveis que poderiam ter sido observadas é chamado ensemble. Para colocar as coisas mais rigorosamente, a série de tempo ou função aleatória é uma função real Xw, t das duas variáveis ​​w e t, onde wW e t T Se fixamos o valor de w temos uma função real xtw do tempo t, que é uma realização da série temporal Se fixarmos o valor de t, Então temos uma variável aleatória xwt Para um dado ponto no tempo existe uma distribuição de probabilidade sobre x Assim, uma função aleatória xw, t pode ser considerada como uma família de variáveis ​​aleatórias ou como uma família de realizações. Definição Definimos a função de distribuição Da variável aleatória w dado t 0 como P oxx Da mesma forma, podemos definir a distribuição conjunta para n variáveis ​​aleatórias. Os pontos que distinguem a análise de séries temporais de análises estatísticas ordinárias são os seguintes: 1 A dependência entre observações em diferentes cronolo Pontos críticos no tempo desempenha um papel essencial Em outras palavras, a ordem das observações é importante Na análise estatística ordinária, presume-se que as observações são mutuamente independentes 2 O domínio de t é infinito 3 Temos de fazer uma inferência a partir de uma realização A realização Da variável aleatória pode ser observada apenas uma vez em cada ponto no tempo. Na análise multivariada temos muitas observações sobre um número finito de variáveis. Esta diferença crítica requer a hipótese de estacionariedade. Definição A função aleatória xt é estritamente estacionária se todas as As funções de distribuição dimensional finita definindo xt permanecem as mesmas mesmo que todo o grupo de pontos t 1 t 2 tn seja deslocado ao longo do eixo do tempo. Isto é, if. para quaisquer inteiros t 1 t 2 tn e k Graficamente, pode-se imaginar a realização de Uma série estritamente estacionária como tendo não apenas o mesmo nível em dois intervalos diferentes, mas também a mesma função de distribuição, até os parâmetros Que o definem A suposição de estacionaridade torna nossas vidas mais simples e menos onerosas Sem estacionaridade teríamos que provar o processo freqüentemente em cada ponto de tempo para construir uma caracterização das funções de distribuição na definição anterior Estacionaridade significa que podemos confinar a nossa Atenção a algumas das funções numéricas mais simples, ou seja, os momentos das distribuições Os momentos centrais são dados por Definição i O valor médio da série temporal t é ie o primeiro momento de ordem ii A função de autocovariância de t é o segundo momento Sobre a média Se ts então você tem a variância de xt Usaremos para denotar a autocovariância de uma série estacionária, onde k denota a diferença entre t e s iii A função de autocorrelação ACF de t é. Usaremos para denotar a autocorrelação de Uma série estacionária, onde k denota a diferença entre t e s iv A autocorrelação parcial PACF f kk é a correlação entre zt e ztk após removi Uma maneira simples de calcular a autocorrelação parcial entre zt e ztk é executar as duas regressões. Em seguida, calcula-se a correlação entre os dois vetores residuais Ou, após a medição da correlação entre os dois vetores residuais Variáveis ​​como desvios de suas médias, a autocorrelação parcial pode ser encontrada como o coeficiente de regressão de LS em zt no modelo. Quando o ponto sobre a variável indica que ele é medido como um desvio de sua média v As equações de Yule-Walker fornecem uma importante Relação entre as autocorrelações parciais e as autocorrelações Multiplicar ambos os lados da equação 10 por zt kj e ter expectativas Esta operação dá-nos a seguinte equação de diferença nas autocovariâncias. Ou, em termos das autocorrelações. Esta representação aparentemente simples é realmente um resultado poderoso , Para j 1,2 k podemos escrever o sistema completo de equações, conhecido como as equações de Yule-Walker. Desde a álgebra linear você k Agora que a matriz de rs é de grau completo. Portanto, é possível aplicar a regra de Cramer sucessivamente para k 1,2 para resolver o sistema para as autocorrelações parciais. Os três primeiros são: Temos três resultados importantes em séries estritamente estacionárias. A implicação é Que podemos usar qualquer realização finita da seqüência para estimar a segunda média se t é estritamente estacionário e E t 2 então. A implicação é que a autocovariância depende apenas da diferença entre t e s, não o seu ponto cronológico no tempo. Usar qualquer par de intervalos na computação da autocovariância enquanto o tempo entre eles fosse constante E podemos usar qualquer realização finita dos dados para estimar as autocovariâncias Em terceiro lugar, a função de autocorrelação no caso de estacionariedade estrita é dada por. Implica que a autocorrelação depende apenas da diferença entre t e s também, e novamente eles podem ser estimados por qualquer realização finita dos dados. Se o nosso objetivo é Por exemplo, se a média e as covariâncias de xt são constantes e independentes do ponto cronológico no tempo, então talvez não seja importante para nós Que a função de distribuição é a mesma para intervalos de tempo diferentes. Definição Uma função aleatória é estacionária no sentido amplo ou fracamente estacionária, ou estacionária no sentido de Khinchin, ou covariância estacionária se m 1 tm e m 11 t, Não implica em si mesmo uma estacionaridade fraca A estacionaridade fraca não implica uma estacionariedade estrita A estrita estacionaridade com E t 2 implica uma fraca estacionariedade. Os teoremas erógicos se preocupam com a questão das condições necessárias e suficientes para inferir a partir de uma única realização de uma série cronológica. Até assumir fraca estacionaridade. O teorema Se t é fracamente estacionário com m média e função de covariância, então. É para qualquer dado e 0 e h 0 existe um número T o tal que para todo TT o se e somente se. Esta condição necessária e suficiente é que as autocovariâncias expiram, caso em que a média da amostra é um estimador consistente para A média populacional. Corelário Se t é fracamente estacionário com E tkxt 2 para qualquer t, e E tkxtxtskxts é independente de t para qualquer inteiro s, then. if e somente se where. A consequência do corolário é a suposição de que xtxtk é fracamente O Teorema Ergódico não é mais do que uma lei de grande número quando as observações são correlacionadas. Podemos perguntar neste ponto sobre as implicações práticas da estacionariedade A aplicação mais comum do uso de técnicas de séries temporais é modelar dados macroeconômicos, tanto teóricos quanto Atheoretic Como um exemplo do primeiro, pode-se ter um modelo de acelerador-multiplicador Para que o modelo seja estacionário, os parâmetros devem ter certos valores Um teste do modelo é então recolher os dados relevantes Ata e estimar os parâmetros Se as estimativas não são consistentes com a estacionaridade, então deve-se repensar o modelo teórico ou o modelo estatístico, ou both. We agora têm máquinas suficientes para começar a falar sobre a modelagem de dados de séries temporais univariadas Há quatro Etapas no processo 1 construção de modelos a partir de conhecimento teórico ou experiencial 2 identificação de modelos baseados nos dados observados série 3 montagem dos modelos estimando os parâmetros do modelo s 4 verificação do modelo Se na quarta etapa não ficarmos satisfeitos retornamos ao passo Um O processo é iterativo até que a verificação e a reespecificação adicionais não produzem mais melhorias nos resultados Diagramaticamente. Definição Algumas operações simples incluem o seguinte O operador de retrocesso Bx tx t-1 O operador de avanço Fx txt 1 O operador de diferença 1 - B xtxt - x t - 1 O operador diferença se comporta de uma forma consistente com a constante em uma série infinita Ou seja, seu inverso é o limite de Uma soma infinita A saber, -1 1-B -1 1 1-B 1 BB 2 O operador de integração S -1 Uma vez que é o inverso do operador de diferença, o operador de integração serve para construir a soma. MODEL BUILDING Nesta seção nós Oferecem uma breve revisão do tipo mais comum de modelos de séries temporais. Com base em um conhecimento s do processo de geração de dados, escolhe-se uma classe de modelos para identificação e estimativa a partir das possibilidades que se seguem. Definição Suponha que Ex tm é independente de t Um modelo como. com as características é chamado o modelo autorregressivo de ordem p, AR p. Definição Se uma variável dependente do tempo processo estocástico t satisfaz então t é dito para satisfazer a propriedade Markov Na LHS a expectativa é condicionada a história infinita De xt No RHS é condicionada apenas uma parte da história A partir das definições, um modelo AR p é visto para satisfazer a propriedade de Markov Usando o operador backshift podemos escrever o nosso modelo AR como. O teorema A necessário e sufficie Nt condição para o modelo AR p para ser estacionário é que todas as raízes do polinomial. lie fora do círculo unit. Exemplo 1 Considere o AR 1 A única raiz de 1 - f 1 B 0 é B 1 f 1 A condição para A estacionariedade requer que. Se então a série observada aparecerá muito frenética E g considere. Em que o termo de ruído branco tem uma distribuição normal com uma média zero e uma variância de um. As observações mudam de sinal com quase todas as observações. Se, por outro Então a série observada será muito mais suave. Nesta série, uma observação tende a ser acima de 0 se seu predecessor estiver acima de zero. A variância de et é se 2 para todos t A variância de xt quando tem média zero, é dada por Uma vez que a série é estacionária, podemos escrever Hence. A função de autocovariância de uma série AR 1 é, supondo sem perda de generalidade m 0.Para ver o que isto parece em termos dos parâmetros AR faremos uso do fato de que podemos Escreva xt como segue. Multiplicando por x tk e tendo expec A função de autocorrelação é a autocovariância dividida pela variância do termo de ruído branco. Ou, Usando as fórmulas anteriores de Yule-Walker para as autocorrelações parciais que temos. Para um AR 1, as autocorrelações desaparecem Exponencialmente e as autocorrelações parciais exibem um pico em um lag e são zero a partir daí. Exemplo 2 Considere o AR 2 O polinômio associado no operador lag. As raízes poderiam ser encontradas usando a fórmula quadrática As raízes são. Quando as raízes são reais e Como consequência a série declinará exponencialmente em resposta a um choque Quando as raízes são complexas ea série aparecerá como uma onda de sinal amortecida. O teorema de estacionaridade impõe as seguintes condições sobre os coeficientes de AR. A autocovariância para um processo AR 2, com Zero significa, is. Dividing através da variância de xt dá a função de autocorrelação Desde que nós podemos escrever Similarmente para a segunda e terceira autocorrelations. The outros As autocorrelações são resolvidas de forma recursiva. Seu padrão é governado pelas raízes da equação de diferença linear de segunda ordem. Se as raízes são reais, então as autocorrelações declinarão exponencialmente Quando as raízes são complexas, as autocorrelações aparecerão como uma onda senoidal amortecida Usando o Yule-Walker As autocorrelações parciais morrem lentamente. A autocorrelação parcial, por outro lado, é bastante distinta. Tem picos em um e dois atrasos e é zero em seguida. Se o xt é um processo AR p estacionário, então ele pode ser Equivalentemente escrito como um modelo de filtro linear Ou seja, o polinômio no operador de retrocesso pode ser invertido eo AR p escrito como uma média móvel de ordem infinita em vez disso. Exemplo Suponha que zt é um processo AR 1 com média zero O que é verdadeiro para a corrente Período também deve ser verdadeira para períodos anteriores Assim, por substituição recursiva podemos escrever. Quadrado ambos os lados e tomar expectativas. O lado direito desaparece como K desde f 1 Portanto, a soma converge para zt em média quadrática Podemos reescrever o modelo AR p como um filtro linear que sabemos ser estacionário. A Função de Autocorrelação e Autocorrelação Parcial Geralmente Suponha que uma série estacionária zt com zero médio seja conhecida Ser auto-regressivo A função de autocorrelação de um AR p é encontrada tomando-se as expectativas de e dividindo-se pela variância de z t. Isso nos diz que rk é uma combinação linear das autocorrelações anteriores. Podemos usar isso aplicando a regra de Cramer a i Na resolução de fkk Em particular, podemos ver que esta dependência linear fará k k 0 para kp Esta característica distintiva da série autorregressiva será muito útil quando se trata de identificação de uma série desconhecida. Se você tiver MathCAD ou MathCAD Explorer então Você pode experimentar interativamente com algumas das idéias AR p apresentadas aqui. Modelos de média móvel Considere um modelo dinâmico em que a série de interesse depende apenas de alguma parte de t A história do termo de ruído branco Diagramaticamente isso pode ser representado como. Definição Suponha que é uma seqüência não correlacionada de variáveis ​​aleatórias iid com média zero e variância finita Então, um processo de média móvel de ordem q, MA q, é dado por. O processo médio é sempre estático Proof Ao invés de começar com uma prova geral, vamos fazê-lo para um caso específico Suponha que zt é MA 1 Então, Claro, em tem zero média e variância finita A média de zt é sempre zero As autocovariâncias serão dadas Você pode ver que a média da variável aleatória não depende do tempo de qualquer forma Você também pode ver que a autocovariância depende apenas do deslocamento s, não sobre onde na série começamos Podemos provar o mesmo resultado de forma mais geral Começando com, o que tem a representação da média móvel alternativa Considere primeiro a variância de z t. Por substituição recursiva você pode mostrar que isso é igual a. A soma que sabemos ser uma série convergente, então a variância é f Inite e é independente do tempo As covariâncias são, por exemplo. Você também pode ver que as covariâncias automáticas dependem apenas dos pontos relativos no tempo, não o ponto cronológico no tempo Nossa conclusão de tudo isso é que um processo de MA é estacionário Para o Geral MA q processar a função de autocorrelação é dada por. A função de autocorrelação parcial irá morrer suavemente Você pode ver isso por inverter o processo para obter um processo AR. Se você tiver MathCAD ou MathCAD Explorer, então você pode experimentar interativamente com alguns dos MA q idéias apresentadas aqui. Mixed Autoregressive - Moving Average Models. Definition Suponha que é uma seqüência não correlacionada de variáveis ​​aleatórias iid com média zero e variância finita Então um auto-regressivo, processo de média móvel de ordem p, q, ARMA p, q, é dado As raízes do operador autorregressivo devem estar todas fora do círculo unitário. O número de incógnitas é pq 2 O p e q são óbvios O 2 inclui o nível do processo, m e th E variância do termo de ruído branco, sa 2.Suponha que combinamos nossas representações AR e MA de modo que o modelo seja. E os coeficientes são normalizados de modo que bo 1 Então esta representação é chamada ARMA p, q se as raízes de 1 Todos estão fora do círculo da unidade Suponha que o yt são medidos como desvios da média para que possamos cair ao então a função de autocovariância é derivada de. if jq então os termos MA deixam de existir na expectativa de dar. Isto é, a função de autocovariância parece Como um AR típico para atrasos após q eles morrem suavemente após q, mas não podemos dizer como 1,2,, q vai olhar Nós também podemos examinar o PACF para esta classe de modelo O modelo pode ser escrito como. Podemos escrever isso Como um processo MA inf. O que sugere que os PACF s morrer lentamente Com alguma aritmética, poderíamos mostrar que isso só acontece após os p primeiros p contribuído pela parte AR. Lei Espacial Na realidade, uma série temporal estacionária pode muito bem ser representada por P 2 e q 2 Se o seu negócio é fornecer Uma boa aproximação à realidade e bondade de ajuste é o seu critério, em seguida, um modelo pródigo é preferido Se o seu interesse é a eficiência preditiva, em seguida, o modelo parcimonioso é preferred. Experiment com as idéias ARMA apresentadas acima com uma planilha MathCAD. Autoregressive Integre Moving Average Models. MA Filtrar o filtro AR Integrar o filtro. Às vezes, o processo ou série que estamos tentando modelar não é estacionário em níveis. Mas pode ser parado em, digamos, as primeiras diferenças. Ou seja, na sua forma original as autocovariâncias para a série podem não ser independentes Do ponto cronológico no tempo. No entanto, se construímos uma nova série que é as primeiras diferenças da série original, esta nova série satisfaz a definição de estacionariedade. Isto é freqüentemente o caso com dados econômicos que são altamente trended. Definition Suponha que zt é Não estacionária, mas zt - z t - 1 satisfaz a definição de estacionaridade. Também, em, o termo de ruído branco tem média finita e variância Podemos escrever O modelo como. Isto é chamado de ARIMA p, d, q o modelo p identifica a ordem do operador AR, d identifica a potência em q identifica a ordem do operador MA Se as raízes de f B estão fora do círculo unitário então nós Pode reescrever o ARIMA p, d, q como um filtro linear I e ele pode ser escrito como um MA Nós reservamos a discussão da detecção de raízes unitárias para outra parte das notas de aula. Considere um sistema dinâmico com xt como uma série de entrada E yt como uma série de saída Diagramaticamente temos. Esses modelos são uma discreta analogia de equações diferenciais lineares Suponhamos a seguinte relação. Onde b indica um atraso puro Recorde que 1-B Fazendo esta substituição o modelo pode ser escrito. Se o coeficiente polinomial Em yt pode ser invertido então o modelo pode ser escrito como. VB é conhecido como a função de resposta de impulso Vamos encontrar esta terminologia novamente em nossa discussão posterior de cointegração autorregressiva de vetor e modelos de correção de erro. MODEL IDENTIFICAÇÃO Ter decidir D em uma classe de modelos, é preciso agora identificar a ordem dos processos que geram os dados Isto é, é preciso fazer melhores suposições quanto à ordem dos processos AR e MA dirigindo a série estacionária A série estacionária é completamente caracterizada pela sua média E autocovariâncias Por razões analíticas usualmente trabalhamos com as autocorrelações e autocorrelações parciais Essas duas ferramentas básicas têm padrões exclusivos para processos AR e MA estacionários Poderíamos calcular estimativas de amostra das funções de autocorrelação e autocorrelação parcial e compará-las com resultados tabulados para modelos padrão. Amostra Função de Autocovariância. Função de Autocorrelação de Amostra. As autocorrelações parciais de amostra serão. Usando as autocorrelações e autocorrelações parciais é bastante simples em princípio Suponha que temos uma série zt com média zero, que é AR 1 Se fôssemos executar a regressão de zt 2 Em zt 1 e zt nós esperaríamos encontrar que o coeficiente em zt não era diferente de ze Ro, uma vez que esta autocorrelação parcial deve ser zero Por outro lado, as autocorrelações para esta série deve estar diminuindo exponencialmente para atrasos crescentes veja o AR 1 exemplo acima Suponha que a série é realmente uma média móvel A autocorrelação deve ser zero em qualquer lugar, mas em O primeiro lag A autocorrelação parcial deve morrer exponencialmente Mesmo a partir de nossa brincadeira muito superficial através dos fundamentos da análise de séries temporais é evidente que há uma dualidade entre os processos AR e MA Esta dualidade pode ser resumida na tabela a seguir.

No comments:

Post a Comment