ARMA Unplugged Esta é a primeira entrada em nossa série de tutoriais desconectados, nos quais aprofundamos os detalhes de cada um dos modelos de séries temporais com os quais você já está familiarizado, destacando os pressupostos subjacentes e conduzindo suas intuições. Nesta questão, abordamos o modelo ARMA como uma pedra angular na modelagem de séries temporais. Ao contrário dos problemas de análise anteriores, começaremos aqui com a definição do processo ARMA, indicar as entradas, saídas, parâmetros, restrições de estabilidade, premissas e finalmente desenhar algumas diretrizes para o processo de modelagem. Antecedentes Por definição, a média móvel auto-regressiva (ARMA) é um processo estocástico estacionário composto por somas de Excel autoregressivo e componentes de média móvel. Alternativamente, em uma formulação simples: Premissas Vamos olhar mais de perto para a formulação. O processo ARMA é simplesmente uma soma ponderada das observações e choques de resultados passados, com poucos pressupostos fundamentais: o que esses pressupostos significam que um processo estocástico é uma contrapartida de um processo determinista que descreve a evolução de uma variável aleatória ao longo do tempo. No nosso caso, a variável aleatória é O processo ARMA apenas captura a correlação serial (ou seja, auto-correlação) entre as observações. Em palavras simples, o processo ARMA resume os valores de observações passadas, não seus valores quadrados ou seus logaritmos, etc. A dependência de ordem superior exige um processo diferente (por exemplo, ARCHGARCH, modelos não-lineares, etc.). Existem inúmeros exemplos de um processo estocástico em que os valores passados afetam os atuais. Por exemplo, em um escritório de vendas que recebe PDOs de forma contínua, alguns são realizados como vendas vencidas, algumas como vendas perdidas e algumas derrubadas no próximo mês. Como resultado, em qualquer mês, alguns dos casos de vendas vencidas se originam como PDOs ou são vendas repetidas dos meses anteriores. Quais são os choques, inovações ou termos de erro Esta é uma pergunta difícil, e a resposta não é menos confusa. Ainda assim, vamos tentar: em palavras simples, o termo de erro em um determinado modelo é um balde catch-all para todas as variações que o modelo não explica. Ainda perdido. Utilize um exemplo. Para um processo de preço de ações, há possivelmente centenas de fatores que impulsionam o nível de preços atualizado, incluindo: Dividendos e anúncios divididos Relatórios de ganhos trimestrais Atividades de fusão e aquisição (MampA) Eventos legais, e. A ameaça de ações judiciais de classe. Outros Um modelo, por design, é uma simplificação de uma realidade complexa, então, o que quer que deixamos fora do modelo, é incluído automaticamente no termo de erro. O processo ARMA assume que o efeito coletivo de todos esses fatores age mais ou menos como o ruído gaussiano. Por que nos preocupamos com os choques passados Ao contrário de um modelo de regressão, a ocorrência de um estímulo (por exemplo, choque) pode afetar o nível atual e possivelmente os níveis futuros. Por exemplo, um evento corporativo (por exemplo, atividade MampA) afeta o preço das ações da empresa subjacente, mas a mudança pode levar algum tempo para ter seu impacto total, pois os participantes do mercado absorvem as informações disponíveis e reagem de acordo. Isso levanta a questão: não os valores passados da saída já têm os erros de informações passadas SIM, o histórico de choques já é contabilizado nos níveis de saída passados. Um modelo ARMA pode ser representado apenas como um modelo auto-regressivo puro (AR), mas o requisito de armazenamento de um sistema desse tipo em infinito. Esta é a única razão para incluir o componente MA: para economizar em armazenamento e simplificar a formulação. Novamente, o processo ARMA deve ser estacionário para a variância marginal (incondicional) existir. Nota: Na minha discussão acima, não estou fazendo uma distinção entre a simples ausência de uma raiz unitária na equação característica e a estacionaridade do processo. Eles estão relacionados, mas a ausência de uma unidade de raiz não é uma garantia de estacionaria. Ainda assim, a raiz da unidade deve estar dentro do círculo da unidade para ser precisa. Conclusão Vamos recapitular o que fizemos até agora. Primeiro examinamos um processo ARMA estacionário, juntamente com sua formulação, insumos, pressupostos e requisitos de armazenamento. Em seguida, mostramos que um processo ARMA incorpora seus valores de saída (auto-correlação) e choques que experimentou anteriormente na saída atual. Finalmente, mostramos que o processo ARMA estacionário produz uma série de tempo com uma média e variância estavel a longo prazo. Na nossa análise de dados, antes de propor um modelo ARMA, devemos verificar a suposição de estacionararia e os requisitos de memória finita. No caso de a série de dados exibir uma tendência determinista, precisamos remover (de-tendência) primeiro e, em seguida, usar os resíduos para ARMA. No caso de o conjunto de dados exibir uma tendência estocástica (por exemplo, caminhada aleatória) ou sazonalidade, precisamos entreter ARIMASARIMA. Finalmente, o correlograma (ou seja, o ACFPACF) pode ser usado para avaliar o requisito de memória do modelo, devemos esperar que ACF ou PACF se desintequem rapidamente após alguns atrasos. Caso contrário, isso pode ser um sinal de não-estacionaridade ou um padrão de longo prazo (por exemplo, ARFIMA) .8.3 Modelos autoregressivos Em um modelo de regressão múltipla, prevemos a variável de interesse usando uma combinação linear de preditores. Num modelo de autoregressão, nós preveemos a variável de interesse usando uma combinação linear de valores passados da variável. O termo regressão automática indica que é uma regressão da variável contra si mesma. Assim, um modelo autoregressivo de ordem p pode ser escrito como onde c é constante e et é ruído branco. Isso é como uma regressão múltipla, mas com valores atrasados de yt como preditores. Nós nos referimos a isso como um modelo AR (p). Os modelos autoregressivos são extremamente flexíveis ao manipular uma ampla gama de diferentes padrões de séries temporais. As duas séries da Figura 8.5 mostram séries de um modelo AR (1) e um modelo AR (2). Alterar os parâmetros phi1, pontos, phip resulta em diferentes padrões de séries temporais. A variância do termo de erro e apenas alterará a escala da série e não os padrões. Figura 8.5: Dois exemplos de dados de modelos autoregressivos com diferentes parâmetros. À esquerda: AR (1) com yt 18 -0,8y et. Direito: AR (2) com yt 8 1.3y -0.7y et. Em ambos os casos, normalmente é distribuído ruído branco com zero médio e variância um. Para um modelo AR (1): Quando phi10, yt é equivalente ao ruído branco. Quando phi11 e c0, yt é equivalente a uma caminhada aleatória. Quando phi11 e cne0, yt é equivalente a uma caminhada aleatória com deriva. Quando phi1lt0, yt tende a oscilar entre valores positivos e negativos. Normalmente, restringimos modelos autoregressivos a dados estacionários e, em seguida, são necessárias algumas restrições sobre os valores dos parâmetros. Para um modelo AR (1): -1 lt phi1 lt 1. Para um modelo AR (2): -1 lt phi2 lt 1, phi1phi2 lt 1, phi2-phi1 lt 1. Quando pge3 as restrições são muito mais complicadas. R cuida dessas restrições ao estimar um modelo. Simulação de média móvel móvel (primeira ordem) A demonstração está configurada de modo que a mesma série aleatória de pontos seja usada independentemente das constantes e variáveis. No entanto, quando o botão quotrandomizequot é pressionado, uma nova série aleatória será gerada e usada. Manter a série aleatória idêntica permite ao usuário ver exatamente os efeitos na série ARMA de mudanças nas duas constantes. A constante é limitada a (-1,1) porque a divergência da série ARMA resulta quando. A Demonstração é apenas para um processo de primeiro orden. Os termos AR adicionais permitiriam gerar séries mais complexas, enquanto os termos MA adicionais aumentariam o alisamento. Para uma descrição detalhada dos processos ARMA, veja, por exemplo, G. Box, G. M. Jenkins e G. Reinsel, Time Series Analysis: Forecasting and Control. 3ª ed. Englewood Cliffs, NJ: Prentice-Hall, 1994. LINKS RELACIONADOS
No comments:
Post a Comment