forex.wf forex forum binary options trade - Forex - Moving average acf no Brasil.
  • Welcome to forex.wf forex forum binary options trade. Please login or sign up.
 

Moving average acf no Brasil.

Started by admin, Aug 08, 2020, 06:22 am

Previous topic - Next topic

admin

Moving average acf no Brasil.
Um relato de Correlogram Na análise de dados, geralmente começamos com as propriedades estatísticas descritivas dos dados da amostra (por exemplo, média, desvio padrão, distorção, kurtosis, distribuição empírica, etc.). Esses cálculos são certamente úteis, mas eles não contabilizam a ordem das observações nos dados da amostra. A análise de séries temporais exige que prestem atenção à ordem e, portanto, requer um tipo diferente de estatística descritiva: estatística descritiva de séries temporais ou simplesmente análise de correlograma. A análise de correlograma examina a dependência tempo-espaço dentro dos dados da amostra, e enfoca a auto-covariância empírica, auto-correlação e testes estatísticos relacionados. Finalmente, o correlograma é uma pedra angular para identificar o (s) modelo (s) e modelo (s). O que um gráfico para auto-correlação (ACF) ou auto-correlação parcial (PACF) nos informa sobre a dinâmica do processo subjacente Este tutorial é um pouco mais teórico que os tutoriais anteriores na mesma série, mas faremos o nosso melhor para dirigir as intuições Casa para você. Antecedentes Primeiro, comece com uma definição para a função de auto-correlação, simplifique-a e investigue o ACF teórico para um processo de ARMA. Função de auto-correlação (ACF) Por definição, a correlação automática para lag k é expressa da seguinte forma: Este gráfico ACF também é infinito, mas a forma real pode seguir padrões diferentes. Um processo de AR pode ser representado por um processo de MA infinito O AR possui memória infinita. Mas o efeito diminui ao longo do tempo. As funções de suavização exponencial são casos especiais de um processo AR, e eles também possuem memória infinita. Exemplo 4 - Modelo ARMA (p, q) Agora, vemos o que o argumento ACF de um processo puro de MA e AR parece Como, mas, e quanto a uma mistura dos dois modelos. Pergunta: por que precisamos considerar um modelo de mistura como o ARMA, pois podemos representar qualquer modelo como um MA ou um modelo AR. Resposta: estamos tentando reduzir o requisito de memória e o Complexidade do processo superestimando os dois modelos. Usando a fórmula de auto-correlação MA (q), podemos calcular as funções de auto-correlação ARMA (p, q) para sua representação MA. Isso está ficando intenso Alguns de vocês podem estar se perguntando por que não usamos VAR ou uma representação de espaço de estado para simplificar as notações. Eu fiz um ponto para permanecer no domínio do tempo e evitei novas idéias ou truques de matemática, pois eles não serviriam nossas intenções aqui: Implicando o pedido ARMA exato usando os valores de ACF por si mesmos, o que é tudo menos preciso. Intuição: os valores de ACF podem ser considerados como os valores de coeficientes do modelo de MA equivalente. Intuição: a variância condicional não tem barreira (efeito) nos cálculos de auto-correlação. Intuição: A média de longo prazo também não possui barreira (efeito) nas auto-correlações. Função de auto-correlação parcial (PACF) Até agora, vimos que identificar a ordem do modelo (MA ou AR) não é trivial para casos não simples, então precisamos de outra ferramenta de auto-correlação parcial (PACF). A função de auto-correlação parcial (PACF) desempenha um papel importante na análise de dados com o objetivo de identificar a extensão do atraso em um modelo autoregressivo. O uso desta função foi introduzido como parte da abordagem Box-Jenkins para a modelagem de séries temporais, pelo que se poderia determinar os atrasos apropriados p em um modelo AR (p) ou em um modelo ARIMA (p, d, q) estendido, traçando As funções de auto-correlação parcial. Simplificando, o PACF para lag k é o coeficiente de regressão para o kth term, como mostrado abaixo: O PACF assume que o modelo subjacente é AR (k) e usa múltiplas regressões para calcular o último coeficiente de regressão. Intuição rápida: os valores de PACF podem ser pensados ​​(grosso modo) como valores de coeficientes do modelo AR equivalente. Como o PACF é útil para nós Supondo que temos um processo AR (p), então o PACF terá valores significativos para os primeiros atrasos e cairá para zero depois. E quanto ao processo MA O processo MA tem valores PACF não-nulos para um número de atrasos (teoricamente) infinito de atrasos. Exemplo 4: MA (1) Identificando os números de termos AR ou MA em um modelo ARIMA ACF e PACF: Depois de uma série temporal ter sido estacionada por diferenciação, o próximo passo na montagem de um modelo ARIMA é determinar se AR ou MA termos São necessários para corrigir qualquer autocorrelação que permaneça na série diferenciada. Claro, com um software como o Statgraphics, você poderia tentar algumas combinações diferentes de termos e ver o que funciona melhor. Mas existe uma maneira mais sistemática de fazer isso. Ao analisar as linhas de função de autocorrelação (ACF) e autocorrelação parcial (PACF) da série diferenciada, você pode identificar tentativamente os números de termos AR e ou MA que são necessários. Você já conhece o gráfico ACF: é apenas um gráfico de barras dos coeficientes de correlação entre séries temporais e atrasos de si. O plano PACF é um gráfico dos coeficientes de correlação parciais entre as séries e os atrasos de si. Em geral, a correlação quotpartial entre duas variáveis ​​é a quantidade de correlação entre elas que não é explicada por suas correlações mútuas com um conjunto especificado de outras variáveis. Por exemplo, se estamos regredindo uma variável Y em outras variáveis ​​X1, X2 e X3, a correlação parcial entre Y e X3 é a quantidade de correlação entre Y e X3 que não é explicada pelas suas correlações comuns com X1 e X2. Esta correlação parcial pode ser calculada como a raiz quadrada da redução de variância que é alcançada pela adição de X3 à regressão de Y em X1 e X2. Uma correlação automática parcial é a quantidade de correlação entre uma variável e um atraso de si que não é explicado por correlações em todas as notas de ordem inferior. A autocorrelação de uma série temporal Y no intervalo 1 é o coeficiente de correlação entre Y t e Y t - 1. O que é presumivelmente também a correlação entre Y t -1 e Y t -2. Mas se Y t está correlacionado com Y t -1. E Y t -1 está igualmente correlacionado com Y t -2. Então também devemos esperar encontrar correlação entre Y t e Y t-2. Na verdade, a quantidade de correlação que devemos esperar no intervalo 2 é precisamente o quadrado da correlação lag-1. Assim, a correlação no intervalo 1 quotpropagatesquot para lag 2 e presumivelmente para atrasos de ordem superior. A autocorrelação parcial no intervalo 2 é, portanto, a diferença entre a correlação real no intervalo 2 e a correlação esperada devido à propagação da correlação no intervalo 1. Aqui está a função de autocorrelação (ACF) da série UNITS, antes de qualquer diferenciação ser realizada: As autocorrelações são significativas para um grande número de atrasos, mas talvez as autocorrelações nos intervalos 2 e acima sejam meramente decorrentes da propagação da autocorrelação no intervalo 1. Isso é confirmado pelo argumento PACF: Observe que o gráfico PACF tem uma significância Pico apenas no intervalo 1, o que significa que todas as autocorrelações de ordem superior são efetivamente explicadas pela autocorrelação lag-1. As autocorrelações parciais em todos os atrasos podem ser calculadas ajustando uma sucessão de modelos autorregressivos com um número crescente de atrasos. Em particular, a autocorrelação parcial no intervalo k é igual ao coeficiente estimado de AR (k) em um modelo auto-regressivo com termos k, isto é, Um modelo de regressão múltipla em que Y é regredido em LAG (Y, 1), LAG (Y, 2), etc. até LAG (Y, k). Assim, por mera inspeção do PACF, você pode determinar quantos termos de AR você precisa usar para explicar o padrão de autocorrelação em uma série de tempo: se a autocorrelação parcial é significativa no intervalo k e não significativa em atrasos de ordem superior - ou seja. Se o PACF quotcuts offquot at lag k - então isso sugere que você deve tentar ajustar um modelo de ordem autorregressivo k O PACF da série UNITS fornece um exemplo extremo do fenômeno de corte: ele tem um pico muito grande no intervalo 1 E nenhum outro pico significativo, indicando que, na ausência de diferenciação, um modelo AR (1) deve ser usado. No entanto, o termo AR (1) neste modelo resultará ser equivalente a uma primeira diferença, porque o coeficiente estimado de AR (1) (que é a altura do pico PACF no intervalo 1) será quase exatamente igual a 1 . Agora, a equação de previsão para um modelo AR (1) para uma série Y sem ordens de diferenciação é: Se o coeficiente AR (1) 981 1 nesta equação for igual a 1, é equivalente a prever que a primeira diferença De Y é constante - ou seja É equivalente à equação do modelo de caminhada aleatória com crescimento: o PACF da série UNITS está nos dizendo que, se não diferenciarmos, então devemos caber um modelo AR (1) que se tornará equivalente a tomar Uma primeira diferença. Em outras palavras, está nos dizendo que UNITS realmente precisa de uma ordem de diferenciação para ser estacionada.

admin

Assinaturas AR e MA: se o PACF exibir um corte acentuado enquanto o ACF decai mais devagar (ou seja, tem picos significativos em atrasos maiores), dizemos que a série estacionada exibe uma assinatura quotAR, o que significa que o padrão de autocorrelação pode ser explicado com mais facilidade Adicionando termos AR do que adicionando termos MA. Provavelmente, você achará que uma assinatura AR é comumente associada à autocorrelação positiva no intervalo 1 - ou seja. Ele tende a surgir em séries que são ligeiramente inferiores. A razão para isso é que um termo AR pode atuar como uma diferença quotparcial na equação de previsão. Por exemplo, em um modelo AR (1), o termo AR age como uma primeira diferença se o coeficiente autorregressivo for igual a 1, não faz nada se o coeficiente autorregressivo for zero e ele atuará como uma diferença parcial se o coeficiente for entre 0 e 1. Então, se a série for ligeiramente inferior à diferença - ou seja Se o padrão não estacionário de autocorrelação positiva não tiver sido completamente eliminado, ele irá trocar por uma diferença parcial ao exibir uma assinatura AR. Portanto, temos a seguinte regra de ouro para determinar quando adicionar termos AR: Regra 6: Se o PACF da série diferenciada exibir um corte nítido e ou a autocorrelação lag-1 é positiva - isto é. Se a série aparecer um pouco quotunderdifferencedquot - então considere adicionar um termo AR ao modelo. O atraso em que o PACF corta é o número indicado de termos AR. Em princípio, qualquer padrão de autocorrelação pode ser removido de uma série estacionada adicionando termos autorregressivos suficientes (atrasos da série estacionada) para a equação de previsão, e o PACF informa quantos são provavelmente necessários. No entanto, esta não é sempre a maneira mais simples de explicar um determinado padrão de autocorrelação: às vezes é mais eficiente adicionar os termos MA (atrasos dos erros de previsão). A função de autocorrelação (ACF) desempenha o mesmo papel para os termos MA que o PACF reproduz para os termos AR - ou seja, o ACF lhe diz quantos termos MA são susceptíveis de serem necessários para remover a autocorrelação restante da série diferenciada. Se a autocorrelação é significativa no intervalo k mas não em atrasos maiores - isto é. Se o ACF quotcuts offquot no lag k - isso indica que exatamente os termos de k MA devem ser usados ​​na equação de previsão. No último caso, dizemos que a série estacionada exibe uma assinatura quotMA, o que significa que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos MA que adicionando termos AR. Uma assinatura MA é comumente associada à autocorrelação negativa no intervalo 1 - isto é. Tende a surgir em séries que são ligeiramente diferenciadas. A razão para isso é que um termo de MA pode quettamente cancelar uma ordem de diferenciação na equação de previsão. Para ver isso, lembre-se de que um modelo ARIMA (0,1,1) sem constante é equivalente a um modelo Simple Sponente Exponencial. A equação de previsão para este modelo é onde o coeficiente MA (1) 952 1 corresponde à quantidade 1 - 945 no modelo SES. Se 952 1 for igual a 1, isso corresponde a um modelo SES com 945 0, que é apenas um modelo CONSTANT porque a previsão nunca é atualizada. Isto significa que quando 952 1 é igual a 1, é realmente cancelar a operação de diferenciação que normalmente permite que a previsão de SES se recupere na última observação. Por outro lado, se o coeficiente de média móvel for igual a 0, este modelo reduz-se a um modelo de caminhada aleatória - isto é. Ele deixa a operação de diferenciação sozinha. Então, se 952 1 for algo maior que 0, é como se cancelássemos parcialmente uma ordem de diferenciação. Se a série já estiver ligeiramente diferenciada - ou seja. Se a autocorrelação negativa for introduzida - então as cotas para uma diferença serão parcialmente canceladas ao exibir uma assinatura MA. (Muita onda de braços está acontecendo aqui Uma explicação mais rigorosa desse efeito é encontrada na Folha de Matemática de Modelos ARIMA). Daí a seguinte regra adicional: Regra 7: Se o ACF da série diferenciada exibir uma O corte acentuado e a autocorrelação lag-1 são negativos --e Se a série aparecer um pouco quotoverdifferencedquot - então considere adicionar um termo MA ao modelo. O atraso em que o ACF corta é o número indicado de termos MA. Um modelo para a série UNITS - ARIMA (2,1,0): Anteriormente, determinamos que a série UNITS precisava (pelo menos) de uma modalidade de diferenciação não-sazonal para ser estacionada. Depois de tomar uma diferença não-sazonal - ou seja. Ajustando um modelo ARIMA (0,1,0) com constante - as parcelas ACF e PACF se parecem com isto: Observe que (a) a correlação no intervalo 1 é significativa e positiva, e (b) o PACF mostra um quotcutoffquot mais nítido do que O ACF. Em particular, o PACF tem apenas dois picos significativos, enquanto o ACF tem quatro. Assim, de acordo com a Regra 7 acima, a série diferenciada exibe uma assinatura AR (2). Se, portanto, definir a ordem do termo AR para 2 - ou seja. Ajustar um modelo ARIMA (2,1,0) - obtemos as seguintes parcelas ACF e PACF para os resíduos: a autocorrelação nos atrasos cruciais - ou seja, defasos 1 e 2 - foi eliminada e não existe um padrão discernível Em atrasos de ordem superior. A série de séries temporais dos resíduos mostra uma tendência ligeiramente preocupante para se afastar da média: no entanto, o relatório de resumo de análise mostra que o modelo, no entanto, funciona bastante bem no período de validação, ambos os coeficientes de AR são significativamente diferentes de zero e o padrão O desvio dos resíduos foi reduzido de 1.54371 para 1.4215 (quase 10) pela adição dos termos AR. Além disso, não há nenhum sinal de quotunit rootquot porque a soma dos coeficientes AR (0.2522540.195572) não é próxima de 1. (As raízes das unidades são discutidas em detalhes mais detalhadamente abaixo). No geral, isso parece ser um bom modelo . As previsões (não transformadas) para o modelo mostram uma tendência ascendente linear projetada para o futuro: a tendência nas previsões de longo prazo deve-se ao fato de que o modelo inclui uma diferença não-sazonal e um termo constante: esse modelo é basicamente uma caminhada aleatória com Crescimento ajustado pela adição de dois termos autorregressivos - ou seja, Dois atrasos da série diferenciada. A inclinação das previsões de longo prazo (ou seja, o aumento médio de um período para outro) é igual ao termo médio no resumo do modelo (0.467566). A equação de previsão é: onde 956 é o termo constante no resumo do modelo (0.258178), 981 1 é o coeficiente AR (1) (0.25224) e 981 2 é o coeficiente AR (2) (0.195572). Média versus constante: em geral, o quotmeanquot termo na saída de um modelo ARIMA refere-se à média da série diferenciada (ou seja, a tendência média se a ordem de diferenciação for igual a 1), enquanto o quotconstantquot é o termo constante que aparece No lado direito da equação de previsão. Os termos médios e constantes são relacionados pela equação: MEIO CONSTANTE (1 menos a soma dos coeficientes AR). Neste caso, temos 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modelo alternativo para a série UNITS - ARIMA (0,2,1): Lembre-se de que, quando começamos a analisar a série UNITS, não estávamos inteiramente certos do Ordem correta de diferenciação para uso. Uma ordem de diferenciação não-sazonal produziu o desvio padrão mais baixo (e um padrão de autocorrelação positiva leve), enquanto duas ordens de diferenciação não-sazonal produziram uma trama de séries temporais mais estacionárias (mas com autocorrelação negativa bastante forte). Aqui estão ambos ACF e PACF da série com duas diferenças não-sazonais: O pico negativo único no intervalo 1 na ACF é uma assinatura MA (1), de acordo com a Regra 8 acima. Assim, se usássemos 2 diferenças não sazonais, gostaríamos também de incluir um termo MA (1), produzindo um modelo ARIMA (0,2,1). De acordo com a Regra 5, também queremos suprimir o termo constante. Aqui, então, são os resultados de ajustar um modelo ARIMA (0,2,1) sem constante: Observe que o desvio padrão de ruído branco estimado (RMSE) é apenas muito ligeiramente maior para esse modelo do que o anterior (1.46301 aqui versus 1.45215 anteriormente). A equação de previsão para este modelo é: onde theta-1 é o coeficiente MA (1). Lembre-se que isso é semelhante a um modelo Linear Exponential Suavização, com o coeficiente MA (1) correspondente à quantidade 2 (1-alfa) no modelo LES. O coeficiente de MA (1) de 0,76 neste modelo sugere que um modelo de LES com alfa na proximidade de 0,72 se encaixaria igualmente bem. Na verdade, quando um modelo LES é ajustado para os mesmos dados, o valor ideal de alfa é de cerca de 0,61, o que não está muito longe. Aqui está um relatório de comparação de modelos que mostra os resultados da montagem do modelo ARIMA (2,1,0) com constante, o modelo ARIMA (0,2,1) sem constante eo modelo LES: os três modelos executam quase idênticamente em O período de estimativa eo modelo ARIMA (2,1,0) com constante aparece um pouco melhor do que os outros dois no período de validação. Com base apenas nestes resultados estatísticos, seria difícil escolher entre os três modelos. No entanto, se traçamos as previsões de longo prazo feitas pelo modelo ARIMA (0,2,1) sem constante (que são essencialmente as mesmas do modelo LES), vemos uma diferença significativa daqueles do modelo anterior: As previsões têm um pouco menos de tendência ascendente do que as do modelo anterior - porque a tendência local próxima ao final da série é ligeiramente inferior à tendência média em toda a série -, mas os intervalos de confiança aumentam muito mais rapidamente. O modelo com duas ordens de diferenciação pressupõe que a tendência da série é variável no tempo, portanto, considera que o futuro distante é muito mais incerto do que o modelo com apenas uma ordem de diferenciação. Qual modelo devemos escolher. Isso depende dos pressupostos que fazemos com relação à constância da tendência nos dados. O modelo com apenas uma ordem de diferenciação assume uma tendência média constante - é essencialmente um modelo de caminhada aleatória ajustado com crescimento - e, portanto, faz projeções de tendência relativamente conservadoras. Também é bastante otimista sobre a precisão com que pode prever mais de um período à frente. O modelo com duas ordens de diferenciação assume uma tendência local variável no tempo - é essencialmente um modelo de alisamento exponencial linear - e suas projeções de tendência são um pouco mais difíceis. Como regra geral neste tipo de situação, eu recomendaria escolher o modelo com a menor ordem de diferenciação, outras coisas sendo aproximadamente iguais. Na prática, os modelos de alinhamento aleatório ou simples-exponencial-suavização parecem funcionar melhor do que os modelos de alisamento exponencial linear. Modelos mistos: na maioria dos casos, o melhor modelo resulta em um modelo que usa apenas os termos AR ou apenas os termos MA, embora em alguns casos, um modelo quotmixedquot com ambos os termos AR e MA possa proporcionar o melhor ajuste para os dados. No entanto, deve-se ter cuidado ao montar modelos mistos. É possível que um termo AR e um termo MA cancelem os efeitos uns dos outros. Mesmo que ambos possam parecer significativos no modelo (conforme julgado pelas estatísticas t de seus coeficientes). Assim, por exemplo, suponha que o modelo quotcorrectquot para uma série temporal seja um modelo ARIMA (0,1,1), mas, em vez disso, você se encaixa em um modelo ARIMA (1,1,2) - ou seja. Você inclui um termo de AR adicional e um termo de MA adicional. Em seguida, os termos adicionais podem acabar aparecendo significativo no modelo, mas, no interior, eles podem estar apenas trabalhando uns contra os outros. As estimativas de parâmetros resultantes podem ser ambíguas e o processo de estimação de parâmetros pode demorar muitas (por exemplo, mais de 10) iterações para convergir. Assim: Regra 8: É possível que um termo de AR e um termo de MA cancelem os efeitos uns dos outros, então, se um modelo de AR-MA misturado parece se adequar aos dados, também tente um modelo com um termo de AR menos e um termo de MA menor - principalmente se as estimativas de parâmetros no modelo original exigirem mais de 10 iterações para convergir. Por esse motivo, os modelos ARIMA não podem ser identificados por uma abordagem passo a passo quotback que inclui ambos os termos AR e MA. Em outras palavras, você não pode começar por incluir vários termos de cada tipo e, em seguida, jogar fora aqueles cujos coeficientes estimados não são significativos.

admin

Em vez disso, você normalmente segue uma abordagem stepwisequot quotforward, adicionando termos de um tipo ou outro como indicado pela aparência das parcelas ACF e PACF. Raizes da unidade: se uma série estiver grosseiramente subjugada ou superdiferenciada - ou seja. Se uma série completa de diferenciação precisa ser adicionada ou cancelada, isso geralmente é sinalizado por uma quotunit rootquot nos coeficientes estimados de AR ou MA do modelo. Um modelo de AR (1) é dito ter uma raiz unitária se o coeficiente estimado de AR (1) for quase exatamente igual a 1. (Por citar exatamente quot, eu realmente não significa significativamente diferente de. Em termos do erro padrão próprio dos coeficientes. ) Quando isso acontece, significa que o termo AR (1) imita com precisão uma primeira diferença, caso em que você deve remover o termo AR (1) e, em vez disso, adicionar uma ordem de diferenciação. (Isso é exatamente o que aconteceria se você montasse um modelo AR (1) na série UNITS indiferenciada, como observado anteriormente.) Em um modelo AR de ordem superior, existe uma raiz unitária na parte AR do modelo se a soma de Os coeficientes AR são exatamente iguais a 1. Neste caso, você deve reduzir o orden do termo AR por 1 e adicionar uma ordem de diferenciação. Uma série de tempo com uma unidade de raiz nos coeficientes de AR é não estacionária - isto é. Ele precisa de uma maior ordem de diferenciação. Regra 9: Se houver uma unidade de raiz na parte AR do modelo - ou seja. Se a soma dos coeficientes AR for quase exatamente 1 - você deve reduzir o número de termos AR por um e aumentar a ordem de diferenciação por um. Da mesma forma, um modelo de MA (1) é dito ter uma raiz de unidade se o coeficiente estimado de MA (1) for exatamente igual a 1. Quando isso acontece, significa que o termo MA (1) está exatamente cancelando uma primeira diferença, em Em qual caso, você deve remover o termo MA (1) e também reduzir a ordem de diferenciação por um. Em um modelo de MA de ordem superior, existe uma raiz de unidade se a soma dos coeficientes MA for exatamente igual a 1. Regra 10: Se houver uma unidade de raiz na parte MA do modelo - isto é. Se a soma dos coeficientes MA for quase exatamente 1 - você deve reduzir o número de termos MA por um e reduzir a ordem de diferenciação por um. Por exemplo, se você encaixa um modelo de alisamento exponencial linear (um modelo ARIMA (0,2,2)) quando um modelo de suavização exponencial simples (um modelo ARIMA (0,1,1) teria sido suficiente, você pode achar que A soma dos dois coeficientes MA é quase igual a 1. Ao reduzir a ordem MA e a ordem de diferenciação por cada uma, você obtém o modelo SES mais apropriado. Um modelo de previsão com uma unidade de raiz nos coeficientes MA estimados é dito não invariável. O que significa que os resíduos do modelo não podem ser considerados como estimativas do ruído aleatório quottruequot que gerou as séries temporais. Outro sintoma de uma raiz unitária é que as previsões do modelo podem significar upquot ou comportar-se estranhamente. Se a trama de séries temporais das previsões de longo prazo do modelo parece estranha, você deve verificar os coeficientes estimados do seu modelo para a presença de uma unidade de raiz. Regra 11: Se as previsões a longo prazo parecerem erráticas ou instáveis, pode haver uma unidade de raiz nos coeficientes AR ou MA. Nenhum desses problemas surgiu com os dois modelos instalados aqui, porque nós tínhamos o cuidado de começar com ordens plausíveis de diferenciação e números apropriados de coeficientes AR e MA ao estudar os modelos ACF e PACF. Discussões mais detalhadas das raízes das unidades e efeitos de cancelamento entre os termos AR e MA podem ser encontradas na documentação da Estrutura Matemática do modelo ARIMA.