Monday 11 September 2017

Moving Media Model Acf


Generale modelli stagionali ARIMA: (0,1,1) x (0,1,1), ecc Schema di modellazione stagionale ARIMA: La parte di stagione di un modello ARIMA ha la stessa struttura come la parte non stagionale: si può avere un fattore di AR, un fattore MA, Andor un ordine di differenziazione. Nella parte stagionali del modello, tutti questi fattori operano attraverso multipli di lag s (il numero di periodi in una stagione). Un modello ARIMA stagionale è classificato come ARIMA (p, d, q) x (P, D, D) del modello, dove di autoregressivo stagionale termini Pnumber (SAR), DNumero di differenze stagionali, QNumber di media mobile stagionali (SMA) termini in identificare un modello stagionale, il primo passo è determinare se è necessaria una differenza stagionale, in aggiunta o forse invece di una differenza non stagionale. Si dovrebbe guardare trame serie temporali e ACF e PACF appezzamenti in tutte le possibili combinazioni di 0 o 1 differenza non stagionale e di 0 o 1 differenza stagionale. Attenzione: Non usare mai più di una differenza di stagione, e non più di due differenze totali (stagionali e non stagionali combinato). Se l'andamento stagionale è allo stesso tempo forte e stabile nel tempo (ad esempio alto in estate e basso in inverno, o viceversa), allora probabilmente dovrebbe utilizzare una differenza stagionale indipendentemente dal fatto che si utilizza una differenza non stagionale, dal momento che questo evitare che l'andamento stagionale da quotdying outquot nelle previsioni a lungo termine. Consente di aggiungere questo alla nostra lista di regole per identificare i modelli Regola 12: Se la serie ha un modello forte e coerente di stagione, quindi si dovrebbe utilizzare un ordine di differenziazione stagionale - ma mai usare più di un ordine di differenziazione stagionale o superiore a 2 ordini di differenziazione totale (seasonalnonseasonal). La firma di puro SAR o comportamento puro SMA è simile alla firma di puro comportamento MA AR o puro, tranne che il modello appare attraverso multipli di ritardo s nella ACF e PACF. Ad esempio, un puro SAR (1) processo ha picchi nella ACF a GAL s, 2s, 3s, ecc mentre il PACF interrompe dopo lag s. Al contrario, un puro SMA (1) processo ha picchi nel PACF al GAL s, 2s, 3s, ecc, mentre l'ACF interrompe dopo ritardo s. Una firma SAR di solito si verifica quando l'autocorrelazione al periodo stagionale è positiv e, mentre una firma SMA di solito si verifica quando l'autocorrelazione stagionale è negativo. quindi: Regola 13: Se l'autocorrelazione al periodo stagionale è positivo. considerare l'aggiunta di un termine di SAR al modello. Se l'autocorrelazione nel periodo stagionale è negativo. considerare l'aggiunta di un termine di SMA al modello. Cercate di evitare di mescolare termini SAR e SMA nello stesso modello, ed evitare di utilizzare più di uno di entrambi i tipi. Di solito un SAR (1) o SMA (1) termine è sufficiente. Raramente si incontra un vero e proprio (2) o SMA processo SAR (2), e ancor più raramente hanno abbastanza dati per stimare 2 o più stagionali coefficienti senza l'algoritmo di stima entrare in un loop. quot quotfeedback Anche se un modello ARIMA stagionale sembra avere solo pochi parametri, ricordate che backforecasting richiede la stima di una o due stagioni vale la pena di parametri impliciti per inizializzare esso. Pertanto, si dovrebbe avere almeno 4 o 5 stagioni di dati per adattarsi a un modello ARIMA stagionale. Probabilmente il modello ARIMA più comunemente usato stagionale è il (0,1,1) x (0,1,1) del modello - i. e. un (1) xSMA (1) Modello MA sia con una stagione e una differenza non stagionale. Questo è essenzialmente un modello di smoothingquot esponenziale quotseasonal. Quando modelli ARIMA stagionali sono montati dati registrati, essi sono in grado di tracciare un andamento stagionale moltiplicativo. Esempio: Serie AUTOSALE Ricordiamo che abbiamo previsto in precedenza la vendita al dettaglio le vendite di auto di serie, utilizzando una combinazione di deflazione, destagionalizzazione e livellamento esponenziale rivisitato. Ora lascia provare il montaggio della stessa serie con i modelli ARIMA stagionali, utilizzando lo stesso campione di dati da gennaio 1970 al maggio 1993 (281 osservazioni). Come prima lavoreremo con le vendite di auto sgonfi - i. e. useremo il AUTOSALECPI serie come la variabile di ingresso. Ecco la trama serie temporali e ACF e PACF trame della serie originale, che si ottengono nella procedura Previsione tracciando il quotresidualsquot di un modello ARIMA x (0,0,0) (0,0,0) con costante: il quotsuspension modello bridgequot nella ACF è tipico di una serie che è al tempo stesso non stazionaria e fortemente stagionali. Chiaramente abbiamo bisogno di almeno un ordine di differenziazione. Se prendiamo una differenza nonseasonal, le corrispondenti piazzole sono i seguenti: La serie differenziata (i residui di un modello-cabina con crescita casuale) sembra più o meno stazionaria, ma vi è ancora molto forte autocorrelazione nel periodo stagionale (lag 12). Perché l'andamento stagionale è forte e stabile, sappiamo (dalla regola 12) che si desidera utilizzare un ordine di differenziazione stagionale nel modello. Ecco ciò che il quadro si presenta come dopo una differenza stagionale (solo): La serie stagionale differenziata mostra un forte modello di autocorrelazione positiva, come ricordiamo dal nostro precedente tentativo di adattare un modello random walk stagionale. Questo potrebbe essere un signaturequot quotAR - o potrebbe segnalare la necessità di un'altra differenza. Se prendiamo sia una differenza stagionale e non stagionale, i seguenti risultati si ottengono: Questi sono, naturalmente, i residui del modello di tendenza casuale di stagione che abbiamo montato ai dati vendite di auto in precedenza. Ora vediamo i segni rivelatori di overdifferencing mite. le punte positive nel ACF e PACF sono diventati negativi. Qual è il corretto ordine di differenziazione Un altro pezzo di informazione che potrebbe essere utile è un calcolo delle statistiche di errore della serie ad ogni livello di differenziazione. Siamo in grado di calcolare questi inserendo i modelli ARIMA corrispondenti in cui la differenziazione solo viene utilizzato: il più piccolo degli errori, sia nel periodo di stima e periodo di validità, sono ottenuti per il modello A, che utilizza una differenza di ogni tipo. Questo, insieme con la comparsa delle piazzole di cui sopra, suggerisce fortemente che dobbiamo utilizzare sia una stagione e una differenza nonseasonal. Si noti che, fatta eccezione per la costante gratuitious termine, modello A è il modello stagionale tendenza casuale (SRT), mentre il modello B è solo il modello stagionale random walk (SRW). Come abbiamo osservato in precedenza quando si confrontano questi modelli, il modello SRT sembra adattarsi meglio rispetto al modello SRW. Nell'analisi che segue, cercheremo di migliorare questi modelli con l'aggiunta di termini stagionali ARIMA. Torna all'inizio della pagina. I ARIMA (0,1,1) x utilizzati più spesso (0,1,1) del modello: il modello SRT più MA (1) e SMA (1) termini Tornando alla ultima serie di trame sopra, si noti che con una differenza di ogni tipo c'è un picco negativo nel ACF al ritardo 1 e anche un picco negativo nel ACF al ritardo 12. mentre il PACF mostra un pattern quotdecayquot più graduale in prossimità di entrambi questi ritardi. Applicando le nostre regole per l'identificazione di modelli ARIMA (in particolare, articolo 7, e alla regola 13), possiamo ora concludere che il modello SRT sarebbe migliorato con l'aggiunta di un MA (1) termine ed anche un (1) termine SMA. Inoltre, dalla regola 5, si esclude il costante dal due ordini di differenziazione sono coinvolti. Se faremo tutto questo, si ottiene la (0,1,1) x (0,1,1) modello ARIMA. che è il modello ARIMA più comunemente usato stagionale. La sua equazione di previsione è: dove 1 è il 952 MA (1) il coefficiente e 920 1 (capitale theta-1) è la SMA (1) coefficiente. Si noti che questo è solo il modello casuale tendenza immaginato-up stagionale aggiungendo multipli degli errori a ritardi 1, 12 e 13. Si noti inoltre che il coefficiente di errore di inseguimento-13 è il prodotto della MA (1) e SMA (1) coefficienti. Questo modello è concettualmente simile al modello Winters qualora si applichi efficacemente livellamento esponenziale a livello, del trend e stagionalità tutto in una volta, anche se poggia su basi teoriche più solide, in particolare per calcolare intervalli di confidenza per previsioni a lungo termine. I suoi grafici dei residui in questo caso sono i seguenti: Anche se una piccola quantità di autocorrelazione rimane ritardo 12, l'aspetto complessivo delle piazzole è buona. I risultati dei modelli di montaggio mostrano che il MA stimato (1) e SMA (1) (coefficienti ottenuti dopo 7 iterazioni) sono davvero significativi: Le previsioni del modello sono simili a quelle del modello di tendenza casuale di stagione - i. e. prendono il modello stagionale e la tendenza locale alla fine della serie - ma sono leggermente più dolce aspetto poiché sia ​​l'andamento stagionale e la tendenza sono effettivamente in fase di media (in una sorta esponenziale-lisciatura di accompagnamento) nell'ultimo poche stagioni: che cosa è questo modello davvero facendo si può pensare ad esso nel modo seguente. In primo luogo si calcola la differenza tra ogni valore month8217s e un average8221 storica 8220exponentially ponderato per quel mese che viene calcolata mediante l'applicazione di livellamento esponenziale a valori che sono stati osservati nello stesso mese negli anni precedenti, in cui la quantità di smoothing è determinato dalla SMA (1 ) coefficiente. Poi si applica semplice livellamento esponenziale di queste differenze al fine di prevedere la deviazione dalla media storica che verrà osservato il mese prossimo. Il valore della SMA (1) coefficiente vicino 1.0 suggerisce che molte stagioni di dati vengono utilizzati per calcolare la media storica di un determinato mese dell'anno. Ricordiamo che un MA (1) coefficiente di un modello ARIMA (0,1,1) corrisponde a 1-meno-alfa nel modello di livellamento esponenziale corrispondente, e che l'età media dei dati in un modello di livellamento esponenziale previsione è 1alpha. La SMA (1) coefficiente ha un'interpretazione simile rispetto alle medie di tutta stagioni. Ecco il suo valore di 0,91 suggerisce che l'età media dei dati utilizzati per la stima del modello storico stagionale è un po 'più di 10 anni (quasi la metà della lunghezza del set di dati), il che significa che un andamento stagionale quasi costante è stato assunto. Il valore molto inferiore di 0,5 per il MA (1) coefficiente suggerisce che relativamente poco smoothing è stato fatto per stimare la deviazione corrente dalla media storica per lo stesso mese, così la prossima month8217s previsto deviazione dalla sua media storica sarà vicino alle deviazioni dalla media storica che sono stati osservati nel corso degli ultimi mesi. L'(1,0,0) x (0,1,0) modello ARIMA con costante: il modello SRW più AR (1) termine Il modello precedente era un modello stagionale a caso Trend (SRT) messo a punto con l'aggiunta di MA ( 1) e SMA (1) coefficienti. Un modello ARIMA alternativo per questa serie può essere ottenuto sostituendo un AR (1) termine per la differenza non stagionale - i. e. con l'aggiunta di un (1) termine AR al modello stagionale Random Walk (SRW). Ciò permetterà di preservare l'andamento stagionale nel modello riducendo la quantità totale di differenziazione, aumentando così la stabilità delle proiezioni tendenziali se desiderato. (Ricordiamo che con una differenza di stagione da solo, la serie ha mostrato un forte AR (1) firma). Se facciamo questo, si ottiene un modello ARIMA (1,0,0) x (0,1,0) con la costante, che produce i seguenti risultati: il AR (1) coefficiente è infatti molto significativo, e l'RMSE è solo 2,06, rispetto a 3,00 per il modello SRW (modello B nel rapporto confronto di cui sopra). L'equazione di previsione per questo modello è: Il termine supplementare sul destro lato è un multiplo della differenza stagionale osservata nell'ultimo mese, che ha l'effetto di correggere le previsioni per l'effetto di un anno insolitamente buono o cattivo. Qui 981 1 denota l'AR (1) coefficiente, il cui valore stimato è 0,73. Così, ad esempio, se le vendite il mese scorso erano X dollari in vista delle vendite un anno prima, quindi la quantità 0.73X sarebbe aggiunto alla previsione per questo mese. 956 indica la costante nell'equazione di previsione, il cui valore stimato è 0.20. La media stimata, il cui valore è 0,75, il valore medio della serie stagionalmente differenziata, che è la tendenza annua delle previsioni a lungo termine di questo modello. La costante è (per definizione) pari ai tempi medi di 1 meno la AR (1) coefficiente: 0.2 0.75 (1 8211 0,73). La trama previsione mostra che il modello fa davvero un lavoro migliore rispetto al modello SRW di tracciare cambiamenti ciclici (ad esempio insolitamente buono o cattivo anni): Tuttavia, il MSE per questo modello è ancora significativamente più grande di quello che abbiamo ottenuto per il ARIMA (0, 1,1) x (0,1,1) del modello. Se guardiamo le trame di residui, si vede margini di miglioramento. I residui mostrano ancora qualche segno di variazione ciclica: L'ACF e PACF suggeriscono la necessità per entrambi MA (1) e SMA (1) coefficienti: Una versione migliorata: ARIMA (1,0,1) x (0,1,1) con costante Se aggiungiamo il MA indicata (1) e (1) i termini per il modello precedente, si ottiene un modello SMA ARIMA (1,0,1) x (0,1,1) con la costante, la cui previsione equazione è questo è quasi la stessa della ARIMA (0,1,1) x (0,1,1) del modello tranne che sostituisce la differenza nonseasonal con un (1) termine AR (a differencequot quotpartial) ed incorpora un termine costante che rappresenta la tendenza a lungo termine. Pertanto, questo modello assume un andamento più stabile rispetto al (0,1,1) x (0,1,1) del modello ARIMA, e che è la differenza principale tra loro. I risultati del modello-montaggio sono le seguenti: Si noti che l'AR stimata (1) coefficiente (981 1 nell'equazione modello) è 0,96, che è molto vicino a 1,0, ma non così vicino da suggerire che assolutamente deve essere sostituito con la prima differenza: il suo errore standard è 0,02, quindi è di circa 2 errori standard da 1.0. Le altre statistiche del modello (MA stimato (1) e SMA (1) coefficienti e statistiche di errore nei periodi stima e di validazione) sono altrimenti quasi identici a quelli dei ARIMA (0,1,1) x (0,1 , 1) modello. (Il MA stimato (1) e SMA (1) coefficienti sono 0,45 e 0,91 in questo modello vs. 0,48 e 0,91 negli altri.) La media stimata di 0,68 è la tendenza a lungo termine predetto (incremento medio annuo). Questo è essenzialmente lo stesso valore ottenuto in (1,0,0) x (0,1,0) del modello - con costante. L'errore standard della media stimata è 0,26, quindi la differenza tra 0,75 e 0,68 non è significativo. Se la costante non è stato incluso in questo modello, sarebbe un modello smorzata-tendenza: la tendenza nelle sue previsioni a lunghissimo termine sarebbe gradualmente appiattirsi. Le previsioni puntuali di questo modello sembrano molto simili a quelle del modello (0,1,1) x (0,1,1), perché la tendenza media è simile alla tendenza locale alla fine della serie. Tuttavia, gli intervalli di confidenza per questo modello allargare alquanto meno rapidamente a causa della sua presupposto che la tendenza è stabile. Si noti che i limiti di confidenza per le previsioni di due anni avanti ora rimanere all'interno delle linee orizzontali della griglia a 24 e 44, mentre quelli della (0,1,1) x (0,1,1) modella non ha fatto: Stagionale ARIMA contro livellamento esponenziale e destagionalizzazione: Ora consente di confrontare le prestazioni dei due migliori modelli ARIMA contro modelli semplici e lineari esponenziale accompagnati da aggiustamento moltiplicativo di stagione, e il modello di Winters, come mostrato nelle diapositive sulla previsione di destagionalizzazione: le statistiche di errore per le previsioni di un periodo di libera per tutti i modelli sono molto vicino in questo caso. E 'difficile scegliere un 8220winner8221 sulla base solo di questi numeri. Torna all'inizio della pagina. Quali sono i compromessi tra i diversi modelli di stagione i tre modelli che utilizzano affare moltiplicativo destagionalizzazione con la stagionalità in modo esplicito - i. e. indici stagionali sono suddivisi come una parte esplicita del modello. I modelli ARIMA che fare con la stagionalità in un modo più implicito - non possiamo vedere facilmente in uscita ARIMA come la media di dicembre, per esempio, è diversa dalla media di luglio. A seconda che si ritiene importante isolare l'andamento stagionale, questo potrebbe essere un fattore nella scelta tra modelli. I modelli ARIMA hanno il vantaggio che, una volta che sono stati inizializzati, hanno meno partsquot quotmoving rispetto ai modelli di livellamento e regolazione esponenziale e come tali possono essere meno probabile OVERFIT dati. modelli ARIMA hanno anche una più solida teoria di fondo rispetto al calcolo degli intervalli di confidenza per le previsioni a più lungo orizzonte di quanto non facciano gli altri modelli. Ci sono differenze più drammatici tra i modelli rispetto al comportamento dei loro previsioni e gli intervalli di confidenza per le previsioni più di 1 periodo nel futuro. Questo è dove le ipotesi che sono fatti in relazione ai cambiamenti di tendenza e andamento stagionale sono molto importanti. Tra i due modelli ARIMA, uno (modello A) stima un andamento variabile nel tempo, mentre l'altro (modello B) incorpora una tendenza media a lungo termine. (Potremmo, se lo si desidera, appiattire la tendenza a lungo termine in modello B sopprimendo il termine costante.) Tra i modelli esponenziale-smoothing-plus-regolazione, uno (modello C) assume un andamento piatto, mentre l'altro ( modello D) assume un andamento variabile nel tempo. Il modello di Winters (E) assume anche un trend variabile nel tempo. I modelli che assumono un andamento costante sono relativamente più sicuri nelle loro previsioni a lungo termine rispetto a modelli che non, e questo di solito si rifletteranno nella misura in cui gli intervalli di confidenza per le previsioni si allargano a orizzonti di previsione più lunghi. I modelli che non assumono le tendenze variabili nel tempo hanno generalmente più stretti intervalli di confidenza per le previsioni a più lungo orizzonte, ma più stretto non è migliore a meno che questa ipotesi è corretta. I due modelli di livellamento esponenziale combinati con regolazione stagionale presuppone che il modello stagionale è rimasta costante negli anni 23 nel campione di dati, mentre gli altri tre modelli non. Nella misura in cui rappresenta il modello stagionale per la maggior parte della variazione mese per mese i dati, sempre che sia giusto importante per prevedere ciò che accadrà diversi mesi nel futuro. Se si ritiene che il modello stagionale essere cambiato lentamente nel tempo, un altro approccio sarebbe quello di utilizzare solo una storia di dati più breve per il montaggio dei modelli che stimano fissi indici stagionali. Per la cronaca, ecco le previsioni e 95 limiti di confidenza per maggio 1995 (24 mesi di anticipo) che sono prodotte da cinque modelli: Le previsioni puntuali sono in realtà sorprendentemente vicini l'uno all'altro, relativa alle larghezze di tutti gli intervalli di confidenza. Il punto di previsione SES è il più basso, perché è l'unico modello che non assume una tendenza verso l'alto alla fine della serie. L'(1,0,1) x (0,1,1) c modello ARIMA ha i limiti di confidenza più stretti, perché presuppone meno tempo-variazione dei parametri rispetto agli altri modelli. Inoltre, la sua previsione punto è leggermente più grande rispetto a quelle degli altri modelli, perché è estrapolando una tendenza a lungo termine piuttosto che una tendenza a breve termine (o tendenza zero). Il modello di Winters è il meno stabile dei modelli e la relativa previsione ha quindi i limiti di confidenza più ampi, come era evidente nelle trame Previsioni dettagliate per i modelli. E le previsioni e limiti di confidenza del modello ARIMA x (0,1,1) (0,1,1) e quelli del modello di regolazione LESseasonal sono praticamente identici Per accedere o meno di accedere Qualcosa che non abbiamo ancora fatto, ma potrebbe avere, è di includere una trasformazione log come parte del modello. modelli ARIMA stagionali sono intrinsecamente modelli additivi, quindi se vogliamo catturare un andamento stagionale moltiplicativo. dobbiamo farlo accedendo ai dati prima di montare il modello ARIMA. (In Statgraphics, ci sarebbe solo necessario specificare quotNatural Logquot come opzione di modellazione - un grosso problema.) In questo caso, la trasformazione di deflazione sembra aver fatto un lavoro soddisfacente di stabilizzare le ampiezze dei cicli stagionali, quindi non ci fa sembra essere un motivo valido per aggiungere una trasformazione logaritmica per quanto riguarda le tendenze a lungo termine sono interessati. Se i residui hanno mostrato un marcato aumento della varianza nel tempo, potremmo decidere diversamente. C'è ancora una questione di se gli errori di questi modelli hanno una varianza costante attraverso mesi dell'anno. Se don8217t, quindi intervalli di confidenza per le previsioni potrebbero tendono ad essere troppo largo o troppo stretto a seconda della stagione. Le trame-vs-time residuo non mostrano un evidente problema in questo senso, ma di essere approfondita, sarebbe bene guardare la varianza dell'errore per mese. Se c'è davvero un problema, una trasformazione logaritmica potrebbe risolvere il problema. Torna a inizio page. Identifying il numero dei termini AR o master in un ARIMA modello ACF e PACF piazzole: Dopo una serie di tempo è stato stationarized dalla differenziazione, il prossimo passo nella montando un modello ARIMA è quello di determinare se i termini AR o master sono necessaria per correggere qualsiasi autocorrelazione che rimane nella serie differenziata. Naturalmente, con software come Statgraphics, si può solo provare alcune diverse combinazioni di termini e vedere cosa funziona meglio. Ma c'è un modo più sistematico per fare questo. Guardando la funzione di autocorrelazione (ACF) e autocorrelazione parziale (PACF) trame della serie differenziata, è possibile individuare provvisoriamente il numero di AR termini Andor MA che sono necessari. Sei già familiarità con la trama ACF: si tratta semplicemente di un grafico a barre dei coefficienti di correlazione tra una serie di tempo e ritardi di se stesso. La trama PACF è un grafico dei coefficienti di correlazione parziale tra la serie e ritardi di se stesso. In generale, la correlazione quotpartialquot tra due variabili è la quantità di correlazione tra loro che non si spiega con le correlazioni reciproche con un insieme specificato di altre variabili. Ad esempio, se stiamo regredendo una variabile Y su altre variabili X1, X2 e X3, la correlazione parziale tra Y e X3 è la quantità di correlazione tra Y e X3 non si spiega con le correlazioni comuni con X1 e X2. Questa correlazione parziale può essere calcolato come la radice quadrata della riduzione della varianza che è ottenuta aggiungendo X3 alla regressione di Y su X1 e X2. Una correlazione automatica parziale è la quantità di correlazione tra una variabile e un ritardo di sé che non è spiegato da correlazioni a tutti - lags ordine inferiore. L'autocorrelazione di una serie temporale Y al ritardo 1 è il coefficiente di correlazione tra Y e Y t t - 1. che è presumibilmente anche la correlazione tra Y t -1 e Y t -2. Ma se Y t è correlata con Y t -1. e Y t -1 è altrettanto correlato con Y t -2. allora dovremmo anche aspettarci di trovare correlazione tra t Y e Y t-2. Infatti, la quantità di correlazione dovremmo aspettarci in ritardo 2 è proprio il quadrato della correlazione lag-1. Così, la correlazione in ritardo 1 quotpropagatesquot di lag 2 e presumibilmente per ordine superiore in ritardo. L'autocorrelazione parziale lag 2 è quindi la differenza tra la correlazione effettiva in ritardo 2 e la correlazione prevista dovuta alla propagazione di correlazione al ritardo 1. Qui è la funzione di autocorrelazione (ACF) della serie UNITA, prima di eseguire qualsiasi differenziazione: i autocorrelazioni sono significativi per un gran numero di ritardi - ma forse i autocorrelazioni a ritardi 2 e sopra sono solo a causa della propagazione della autocorrelazione al ritardo 1. Ciò è confermato dalla trama PACF: si noti che la trama PACF ha una significativa spike solo in ritardo 1, il che significa che tutte le autocorrelazioni di ordine superiore sono efficacemente spiegate dal GAL-1 autocorrelazione. I autocorrelazioni parziali, a tutti i ritardi possono essere calcolati inserendo una successione di modelli autoregressivi con un numero crescente di ritardi. In particolare, l'autocorrelazione parziale lag k è uguale al coefficiente AR stimato (k) in un modello autoregressivo con k termini - i. e. un modello di regressione multipla in cui Y è regredita su GAL (Y, 1), GAL (Y, 2), ecc fino ad essere in ritardo (Y, k). Così, per mera ispezione del PACF è possibile determinare quanti termini AR è necessario utilizzare per spiegare il modello di autocorrelazione di una serie di tempo: se l'autocorrelazione parziale è significativa in ritardo k e non significativa in qualsiasi ordine superiore in ritardo - i. e. se il PACF quotcuts offquot in ritardo k --quindi questo suggerisce che si dovrebbe provare il montaggio di un modello autoregressivo di ordine k Il PACF della serie UNITA 'fornisce un esempio estremo del fenomeno cut-off: ha un grande picco in ritardo 1 e altri picchi significativi, indicando che, in assenza di differenziazione un AR (1) modello deve essere utilizzato. Tuttavia, l'AR (1) termine in questo modello si rivelerà essere equivalente ad una prima differenza, perché l'AR stimato (1) coefficiente (che è l'altezza del picco PACF al lag 1) sarà quasi esattamente uguale a 1 . Ora, l'equazione di previsione per un AR (1) modello per una serie Y senza ordini di differenziazione è: Se l'AR (1) coefficiente 981 1 in questa equazione è uguale a 1, è equivalente a prevedere che la prima differenza di Y è costante - cioè è equivalente alla equazione del modello random walk con la crescita: La PACF della serie UNITA 'ci dice che, se noi non differenza, allora dovremmo montare un AR (1) modello che si rivelerà essere equivalente a prendere una prima differenza. In altre parole, ci sta dicendo che le unità ha davvero bisogno di un ordine di differenziazione da stationarized. firme AR e MA: Se il PACF visualizza un taglio netto, mentre l'ACF decade più lentamente (cioè ha picchi significativi a ritardi superiori), diciamo che la serie stationarized mostra una firma quotAR significato quot che il modello di autocorrelazione può essere spiegato con maggiore facilità con l'aggiunta di termini AR che con l'aggiunta di termini MA. Probabilmente troverete che una firma AR è comunemente associato con autocorrelazione positiva lag 1 - i. e. tende a verificarsi in serie che sono leggermente sotto differenziata. La ragione di questo è che un termine AR può agire come un differencequot quotpartial nell'equazione di previsione. Ad esempio, in un (1) Modello AR, atti termine AR come una prima differenza se il coefficiente autoregressivo è uguale a 1, non fa nulla se il coefficiente autoregressivo è zero, e agisce come una differenza parziale se il coefficiente è tra 0 e 1. Quindi, se la serie è leggermente underdifferenced - ossia se il modello non stazionario di autocorrelazione positiva non è completamente stato eliminato, sarà quotask forquot una differenza parziale, mediante la visualizzazione di una firma AR. Quindi, abbiamo la seguente regola empirica per determinare quando aggiungere termini AR: Regola 6: Se la PACF della serie differenziata mostra un netto taglio Andor il lag-1 autocorrelazione è --i. e positivo. se la serie appare leggermente quotunderdifferencedquot - quindi prendere in considerazione l'aggiunta di un termine AR al modello. Il ritardo in cui il PACF taglia è il numero indicato di termini AR. In linea di principio, qualsiasi schema di autocorrelazione può essere rimosso da una serie stationarized con l'aggiunta di termini autoregressivi abbastanza (GAL della serie stationarized) per l'equazione di previsione, e il PACF spiega come sono probabilmente saranno necessari molti di questi termini. Tuttavia, questo non è sempre il modo più semplice per spiegare un dato modello di autocorrelazione: a volte è più efficace di aggiungere termini MA (GAL degli errori di previsione), invece. La funzione di autocorrelazione (ACF) svolge lo stesso ruolo per i termini MA che la PACF gioca per i termini AR - cioè la ACF spiega come molti termini MA sono suscettibili di essere necessario per rimuovere l'autocorrelazione rimanente della serie differenziata. Se l'autocorrelazione è significativa in ritardo k ma non a qualsiasi ritardi superiori - i. e. se l'ACF quotcuts offquot in ritardo k-- questo indica che esattamente termini k MA devono essere utilizzati nell'equazione di previsione. In quest'ultimo caso, si dice che la serie stationarized mostra una firma quotMA, quot significa che il modello autocorrelazione può essere spiegato più facilmente aggiungendo termini MA che aggiungendo termini AR. Una firma MA è comunemente associato con autocorrelazione negativa in ritardo 1 - i. e. tende a verificarsi in serie che sono leggermente sopra differenziata. La ragione di questo è che un termine MA può quotpartially cancelquot un ordine di differenze nell'equazione di previsione. Per vedere questo, ricordare che un modello ARIMA (0,1,1) senza costante è equivalente ad un modello di livellamento esponenziale semplice. L'equazione di previsione per questo modello è dove il MA (1) Coefficiente di 952 1 corrisponde alla quantità 1-945 nel modello SES. Se 952 1 è uguale a 1, questo corrisponde a un modello di SES con 945 0, che è solo un modello costante perché la previsione è mai aggiornato. Ciò significa che quando 952 1 è uguale a 1, è in realtà annullando l'operazione di differenziazione che consente normalmente la SES prevedono ri-ancoraggio stesso sull'ultima osservazione. D'altra parte, se il coefficiente di media mobile è uguale a 0, questo modello riduce a un modello casuale - i. e. lascia l'operazione di differenziazione da solo. Quindi, se 952 1 è qualcosa di più grande di 0, è come se noi siamo in parte annulla un ordine di differenziazione. Se la serie è già un po 'più di differenziata - i. e. se autocorrelazione negativa è stata introdotta - allora sarà quotask forquot una differenza di essere in parte annullato la visualizzazione di una firma MA. (Un sacco di braccio sventolio sta succedendo qui Una spiegazione più rigorosa di tale effetto si trova nella struttura matematica di ARIMA Models volantino.) Quindi la seguente regola aggiuntiva empirica: Regola 7: Se l'ACF della serie differenziata visualizza un sharp cutoff andor l'autocorrelazione lag-1 è --ie negativo se la serie appare leggermente quotoverdifferencedquot - quindi prendere in considerazione l'aggiunta di un termine MA al modello. Il ritardo con cui l'ACF taglia è il numero indicato di termini MA. Un modello per la serie UNITÀ - ARIMA (2,1,0): in precedenza abbiamo stabilito che la serie UNITA 'necessario (almeno) un ordine di differenziazione non stagionale da stationarized. Dopo aver preso una differenza non stagionale - i. e. montaggio di un modello ARIMA (0,1,0) con costante - le trame ACF e PACF simile a questa: Si noti che (a) la correlazione in ritardo 1 è significativo e positivo, e (b) il PACF mostra un quotcutoffquot più affilata di l'ACF. In particolare, il PACF ha solo due picchi significativi, mentre l'ACF ha quattro. Così, secondo sopra Regola 7, la serie differenziata visualizza un AR (2) firma. Se quindi impostare l'ordine del termine AR per 2 - i. e. montare un ARIMA del modello (2,1,0) - otteniamo i seguenti grafici ACF e PACF per i residui: L'autocorrelazione ai ritardi cruciali - vale a dire in ritardo rispetto 1 e 2 - è stato eliminato, e non vi è alcuna regola certa in ordine superiore in ritardo. La trama serie storiche dei residui mostra una tendenza leggermente preoccupante per allontanarsi dalla media: Tuttavia, la relazione di sintesi analisi mostra che il modello esegue comunque abbastanza bene nel periodo di convalida, sia i coefficienti di AR sono significativamente diverso da zero, e lo standard deviazione dei residui è stato ridotto da 1,54371 al 1,4215 (circa 10) con l'aggiunta dei termini AR. Inoltre, non vi è alcun segno di un rootquot quotunit perché la somma dei coefficienti AR (0.2522540.195572) non è vicino a 1. (radici dell'unità sono discussi in dettaglio più avanti.) Nel complesso, questo sembra essere un buon modello . I (non trasformati) le previsioni per il modello mostrano un andamento lineare verso l'alto proiettata verso il futuro: L'andamento delle previsioni a lungo termine è dovuto al fatto che il modello include una differenza non stagionale e di un termine costante: questo modello è fondamentalmente un random walk con la crescita messo a punto con l'aggiunta di due termini autoregressivi - vale a dire due GAL della serie differenziata. The slope of the long-term forecasts (i. e. the average increase from one period to another) is equal to the mean term in the model summary (0.467566). The forecasting equation is: where 956 is the constant term in the model summary (0.258178), 981 1 is the AR(1) coefficient (0.25224) and 981 2 is the AR(2) coefficient (0.195572). Mean versus constant: In general, the quotmeanquot term in the output of an ARIMA model refers to the mean of the differenced series (i. e. the average trend if the order of differencing is equal to 1), whereas the quotconstantquot is the constant term that appears on the right-hand-side of the forecasting equation . The mean and constant terms are related by the equation: CONSTANT MEAN(1 minus the sum of the AR coefficients). In this case, we have 0.258178 0.467566(1 - 0.25224 - 0.195572) Alternative model for the UNITS series--ARIMA(0,2,1): Recall that when we began to analyze the UNITS series, we were not entirely sure of the correct order of differencing to use. One order of nonseasonal differencing yielded the lowest standard deviation (and a pattern of mild positive autocorrelation), while two orders of nonseasonal differencing yielded a more stationary-looking time series plot (but with rather strong negative autocorrelation). Here are both the ACF and PACF of the series with two nonseasonal differences: The single negative spike at lag 1 in the ACF is an MA(1) signature, according to Rule 8 above. Thus, if we were to use 2 nonseasonal differences, we would also want to include an MA(1) term, yielding an ARIMA(0,2,1) model. According to Rule 5, we would also want to suppress the constant term. Here, then, are the results of fitting an ARIMA(0,2,1) model without constant: Notice that the estimated white noise standard deviation (RMSE) is only very slightly higher for this model than the previous one (1.46301 here versus 1.45215 previously). The forecasting equation for this model is: where theta-1 is the MA(1) coefficient. Recall that this is similar to a Linear Exponential Smoothing model, with the MA(1) coefficient corresponding to the quantity 2(1-alpha) in the LES model. The MA(1) coefficient of 0.76 in this model suggests that an LES model with alpha in the vicinity of 0.72 would fit about equally well. Actually, when an LES model is fitted to the same data, the optimal value of alpha turns out to be around 0.61, which is not too far off. Here is a model comparison report that shows the results of fitting the ARIMA(2,1,0) model with constant, the ARIMA(0,2,1) model without constant, and the LES model: The three models perform nearly identically in the estimation period, and the ARIMA(2,1,0) model with constant appears slightly better than the other two in the validation period. On the basis of these statistical results alone, it would be hard to choose among the three models. However, if we plot the long-term forecasts made by the ARIMA(0,2,1) model without constant (which are essentially the same as those of the LES model), we see a significant difference from those of the earlier model: The forecasts have somewhat less of an upward trend than those of the earlier model--because the local trend near the end of the series is slightly less than the average trend over the whole series--but the confidence intervals widen much more rapidly. The model with two orders of differencing assumes that the trend in the series is time-varying, hence it considers the distant future to be much more uncertain than does the model with only one order of differencing. Which model should we choose That depends on the assumptions we are comfortable making with respect to the constancy of the trend in the data. The model with only one order of differencing assumes a constant average trend--it is essentially a fine-tuned random walk model with growth--and it therefore makes relatively conservative trend projections. It is also fairly optimistic about the accuracy with which it can forecast more than one period ahead. The model with two orders of differencing assumes a time-varying local trend--it is essentially a linear exponential smoothing model--and its trend projections are somewhat more more fickle. As a general rule in this kind of situation, I would recommend choosing the model with the lower order of differencing, other things being roughly equal. In practice, random-walk or simple-exponential-smoothing models often seem to work better than linear exponential smoothing models. Mixed models: In most cases, the best model turns out a model that uses either only AR terms or only MA terms, although in some cases a quotmixedquot model with both AR and MA terms may provide the best fit to the data. However, care must be exercised when fitting mixed models. It is possible for an AR term and an MA term to cancel each others effects . even though both may appear significant in the model (as judged by the t-statistics of their coefficients). Thus, for example, suppose that the quotcorrectquot model for a time series is an ARIMA(0,1,1) model, but instead you fit an ARIMA(1,1,2) model--i. e. you include one additional AR term and one additional MA term. Then the additional terms may end up appearing significant in the model, but internally they may be merely working against each other. The resulting parameter estimates may be ambiguous, and the parameter estimation process may take very many (e. g. more than 10) iterations to converge. Hence: Rule 8: It is possible for an AR term and an MA term to cancel each others effects, so if a mixed AR-MA model seems to fit the data, also try a model with one fewer AR term and one fewer MA term--particularly if the parameter estimates in the original model require more than 10 iterations to converge. For this reason, ARIMA models cannot be identified by quotbackward stepwisequot approach that includes both AR and MA terms. In other words, you cannot begin by including several terms of each kind and then throwing out the ones whose estimated coefficients are not significant. Instead, you normally follow a quotforward stepwisequot approach, adding terms of one kind or the other as indicated by the appearance of the ACF and PACF plots. Unit roots: If a series is grossly under - or overdifferenced--i. e. if a whole order of differencing needs to be added or cancelled, this is often signalled by a quotunit rootquot in the estimated AR or MA coefficients of the model. An AR(1) model is said to have a unit root if the estimated AR(1) coefficient is almost exactly equal to 1. (By quotexactly equal quot I really mean not significantly different from . in terms of the coefficients own standard error . ) When this happens, it means that the AR(1) term is precisely mimicking a first difference, in which case you should remove the AR(1) term and add an order of differencing instead. (This is exactly what would happen if you fitted an AR(1) model to the undifferenced UNITS series, as noted earlier.) In a higher-order AR model, a unit root exists in the AR part of the model if the sum of the AR coefficients is exactly equal to 1. In this case you should reduce the order of the AR term by 1 and add an order of differencing. A time series with a unit root in the AR coefficients is nonstationary --i. e. it needs a higher order of differencing. Rule 9: If there is a unit root in the AR part of the model--i. e. if the sum of the AR coefficients is almost exactly 1--you should reduce the number of AR terms by one and increase the order of differencing by one. Similarly, an MA(1) model is said to have a unit root if the estimated MA(1) coefficient is exactly equal to 1. When this happens, it means that the MA(1) term is exactly cancelling a first difference, in which case, you should remove the MA(1) term and also reduce the order of differencing by one. In a higher-order MA model, a unit root exists if the sum of the MA coefficients is exactly equal to 1. Rule 10: If there is a unit root in the MA part of the model--i. e. if the sum of the MA coefficients is almost exactly 1--you should reduce the number of MA terms by one and reduce the order of differencing by one. For example, if you fit a linear exponential smoothing model (an ARIMA(0,2,2) model) when a simple exponential smoothing model (an ARIMA(0,1,1) model) would have been sufficient, you may find that the sum of the two MA coefficients is very nearly equal to 1. By reducing the MA order and the order of differencing by one each, you obtain the more appropriate SES model. A forecasting model with a unit root in the estimated MA coefficients is said to be noninvertible . meaning that the residuals of the model cannot be considered as estimates of the quottruequot random noise that generated the time series. Another symptom of a unit root is that the forecasts of the model may quotblow upquot or otherwise behave bizarrely. If the time series plot of the longer-term forecasts of the model looks strange, you should check the estimated coefficients of your model for the presence of a unit root. Rule 11: If the long-term forecasts appear erratic or unstable, there may be a unit root in the AR or MA coefficients. None of these problems arose with the two models fitted here, because we were careful to start with plausible orders of differencing and appropriate numbers of AR and MA coefficients by studying the ACF and PACF models. More detailed discussions of unit roots and cancellation effects between AR and MA terms can be found in the Mathematical Structure of ARIMA Models handout.2.1 Moving Average Models (MA models) Time series models known as ARIMA models may include autoregressive terms andor moving average terms. In settimana 1, abbiamo imparato un termine autoregressivo in un modello di serie temporale per la variabile x t è un valore ritardato di x t. Per esempio, un ritardo 1 termine autoregressivo è x t-1 (moltiplicato per un coefficiente). Questa lezione definisce lo spostamento termini medi. Un termine media mobile in un modello di serie storica è un errore di passato (moltiplicata per un coefficiente). Sia (wt Overset N (0, sigma2w)), il che significa che la w t sono identicamente, indipendentemente distribuite, ciascuna con una distribuzione normale con media 0 e la stessa varianza. Il modello a media mobile 1 ° ordine, indicato con MA (1) è (xt mu peso theta1w) L'ordine di 2 ° modello a media mobile, indicato con MA (2) è (mu XT peso theta1w theta2w) La q ° ordine modello a media mobile , indicato con MA (q) è (MU XT WT theta1w theta2w punti thetaqw) Nota. Molti libri di testo e programmi software definiscono il modello con segni negativi prima dei termini. Ciò non modificare le proprietà teoriche generali del modello, anche se non capovolgere i segni algebrici di valori dei coefficienti stimati ei termini (unsquared) nelle formule per ACFS e varianze. È necessario controllare il software per verificare se vi siano segni negativi o positivi sono stati utilizzati al fine di scrivere correttamente il modello stimato. R utilizza segnali positivi nel suo modello di base, come facciamo qui. Proprietà teoriche di una serie storica con un MA (1) Modello nota che l'unico valore diverso da zero nella ACF teorico è di lag 1. Tutti gli altri autocorrelazioni sono 0. Quindi un ACF campione con un autocorrelazione significativa solo in ritardo 1 è un indicatore di un possibile MA (1) modello. Per gli studenti interessati, prove di queste proprietà sono in appendice a questo volantino. Esempio 1 Supponiamo che un MA (1) modello è x t 10 w t 0,7 w t-1. dove (WT overset N (0,1)). Così il coefficiente 1 0.7. L'ACF teorica è data da una trama di questa ACF segue. La trama appena mostrato è l'ACF teorico per un MA (1) con 1 0.7. In pratica, un campione abituato di solito forniscono un modello così chiara. Utilizzando R, abbiamo simulato n 100 valori di esempio utilizzando il modello x t 10 w t 0,7 w t-1 dove w t IID N (0,1). Per questa simulazione, un appezzamento serie storica dei dati di esempio segue. Non possiamo dire molto da questa trama. L'ACF campione per i dati simulati segue. Vediamo un picco in ritardo 1 seguito da valori generalmente non significativi per ritardi passato 1. Si noti che il campione ACF non corrisponde al modello teorico della MA sottostante (1), vale a dire che tutte le autocorrelazioni per i ritardi del passato 1 saranno 0 . un campione diverso avrebbe un po 'diverso ACF esempio riportato di seguito, ma probabilmente hanno le stesse caratteristiche generali. Theroretical proprietà di una serie storica con un modello MA (2) Per la (2) il modello MA, proprietà teoriche sono i seguenti: Si noti che gli unici valori diversi da zero nel ACF teorica sono per ritardi 1 e 2. Autocorrelazioni per ritardi superiori sono 0 . Così, un ACF campione con autocorrelazioni significativi a ritardi 1 e 2, ma autocorrelazioni non significative per ritardi più elevato indica una possibile mA (2) modello. iid N (0,1). I coefficienti sono 1 0,5 e 2 0.3. Poiché si tratta di un MA (2), l'ACF teorica avrà valori diversi da zero solo in caso di ritardi 1 e 2. I valori delle due autocorrelazioni diversi da zero sono un grafico della ACF teorica segue. è come quasi sempre accade, i dati di esempio solito si comportano abbastanza così perfettamente come teoria. Abbiamo simulato n 150 valori di esempio per il modello x t 10 w t 0,5 w t-1 .3 w t-2. dove w t iid N (0,1). La trama serie storica dei dati segue. Come con la trama della serie tempo per le mA (1) i dati di esempio, non puoi dire molto da esso. L'ACF campione per i dati simulati segue. Il modello è tipico per le situazioni in cui un modello MA (2) può essere utile. Ci sono due picchi statisticamente significative a ritardi 1 e 2 seguiti da valori non significativi per altri ritardi. Si noti che a causa di errore di campionamento, l'ACF campione non corrisponde al modello teorico esattamente. ACF per General MA (q) Models Una proprietà di modelli MA (q), in generale, è che ci sono autocorrelazioni diversi da zero per i primi ritardi Q e autocorrelazioni 0 per tutti i GAL gt q. Non unicità di collegamento tra i valori di 1 e (rho1) in MA (1) Modello. Nella (1) Modello MA, per qualsiasi valore di 1. il reciproco 1 1 dà lo stesso valore per esempio, utilizzare 0,5 per 1. e quindi utilizzare 1 (0,5) 2 per 1. Youll ottenere (rho1) 0,4 in entrambi i casi. Per soddisfare una limitazione teorica chiamato invertibilità. abbiamo limitare MA (1) modelli di avere valori con valore assoluto inferiore 1. Nell'esempio appena dato, 1 0.5 sarà un valore di parametro ammissibile, che non sarà 1 10.5 2. Invertibilità dei modelli MA Un modello MA si dice che sia invertibile se è algebricamente equivalente a un modello AR ordine infinito convergenti. Facendo convergere, si intende che i coefficienti AR diminuiscono a 0 mentre ci muoviamo indietro nel tempo. Invertibilità è una limitazione programmata nel software di serie storiche utilizzate per stimare i coefficienti dei modelli con i termini MA. La sua non è una cosa che controlliamo per l'analisi dei dati. Ulteriori informazioni sul restrizione invertibilit'a per MA (1) modelli è riportato in appendice. Avanzate teoria Note. Per un modello MA (q) con un determinato ACF, vi è un solo modello invertibile. La condizione necessaria per invertibilità è che i coefficienti hanno valori tali che l'equazione 1- 1 y-. - Q q y 0 ha soluzioni per y che non rientrano nel cerchio unitario. R Codice per gli esempi in Esempio 1, abbiamo tracciato l'ACF teorica del modello x t 10 w t. 7W t-1. e poi simulato n 150 valori di questo modello e tracciato le serie temporali del campione e l'ACF campione per i dati simulati. I comandi R utilizzati per tracciare la ACF teoriche sono state: acfma1ARMAacf (Mac (0,7), lag. max10) 10 ritardi di ACF per MA (1) con theta1 0,7 lags0: 10 crea una variabile denominata ritardi che va da 0 a 10. trama (ritardi, acfma1, xlimc (1,10), ylabr, typeh, principale ACF per MA (1) con theta1 0,7) abline (H0) aggiunge un asse orizzontale per la trama il primo comando determina l'ACF e lo memorizza in un oggetto chiamato acfma1 (la nostra scelta del nome). Il comando plot (il 3 ° comando) trame in ritardo rispetto ai valori ACF per ritardi da 1 a 10. Il parametro ylab Contrassegni l'asse Y e il parametro principale mette un titolo sul terreno. Per visualizzare i valori numerici della ACF è sufficiente utilizzare il comando acfma1. La simulazione e le trame sono state fatte con i seguenti comandi. xcarima. sim (N150, elenco (Mac (0,7))) Simula n 150 valori da MA (1) xxc10 aggiunge 10 per rendere medi default 10. simulazione a significare 0. plot (x, TypeB, mainSimulated MA (1) i dati) ACF (x, xlimc (1,10), mainACF per dati campione simulati) nell'Esempio 2, abbiamo tracciato l'ACF teorica del modello xt 10 wt .5 w t-1 .3 w t-2. e poi simulato n 150 valori di questo modello e tracciato le serie temporali del campione e l'ACF campione per i dati simulati. I comandi R utilizzati sono stati acfma2ARMAacf (Mac (0.5,0.3), lag. max10) acfma2 lags0: 10 plot (ritardi, acfma2, xlimc (1,10), ylabr, typeh, principale ACF per MA (2) con theta1 0.5, theta20.3) abline (H0) xcarima. sim (N150, l'elenco (Mac (0,5, 0,3))) xxc10 plot (x, TypeB, principale simulato MA (2) Serie) ACF (x, xlimc (1,10), mainACF per simulato MA (2) dati) Appendice: prova di proprietà di MA (1) per gli studenti interessati, qui ci sono prove per le proprietà teoriche del (1) modello MA. Varianza: (testo (xt) testo (mu peso theta1 w) 0 di testo (in peso) di testo (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Quando h 1, l'espressione precedente 1 w 2. Per ogni h 2, l'espressione precedente 0 . il motivo è che, per definizione di indipendenza della wt. E (w k w j) 0 per ogni k j. Inoltre, perché la w t hanno media 0, E (w j w j) E (w j 2) w 2. Per una serie temporale, applicare questo risultato per ottenere l'ACF cui sopra. Un modello MA invertibile è uno che può essere scritta come modello AR ordine infinito che converge in modo che i coefficienti AR convergono a 0, mentre ci muoviamo infinitamente indietro nel tempo. Bene dimostrare invertibilità per la (1) Modello MA. Abbiamo poi sostituto relazione (2) per w t-1 nell'equazione (1) (3) (ZT WT theta1 (z - theta1w) peso theta1z - theta2w) Al tempo t-2. l'equazione (2) diventa Abbiamo poi rapporto sostituto (4) per w t-2 nell'equazione (3) (ZT peso theta1 z - theta21w WT theta1z - theta21 (z - theta1w) WT theta1z - theta12z theta31w) Se dovessimo continuare a ( infinitamente), otterremmo il modello AR ordine infinito (ZT peso theta1 z - theta21z theta31z - theta41z punti) Nota però, che se 1 1, i coefficienti moltiplicando i ritardi di z aumenterà (infinitamente) in termini di dimensioni, come ci muoviamo nel tempo. Per evitare questo, abbiamo bisogno di 1 LT1. Questa è la condizione per un MA (1) Modello invertibile. Infinite Modello di ordine MA In settimana 3, e vedere che un AR (1) modello può essere convertito in un modello di ordine MA infinite: (xt - mu peso phi1w phi21w punti phik1 w punti riassumono phij1w) Questa somma dei termini di rumore bianco del passato è conosciuto come la rappresentazione causale di un AR (1). In altre parole, x t è un tipo speciale di MA con un numero infinito di termini che vanno indietro nel tempo. Questo è chiamato un ordine infinito MA o MA (). Un ordine MA finito è un AR ordine infinito ed ogni AR ordine finito è un ordine MA infinita. Ricordiamo a settimana 1, abbiamo notato che un requisito per un AR fisso (1) è che 1 LT1. Consente di calcolare il Var (x t) utilizzando la rappresentazione causale. Questo ultimo passo utilizza un fatto di base sulla serie geometrica che richiede (phi1lt1) altrimenti i diverge serie. Navigazione

No comments:

Post a Comment