Vad är relation och skillnad mellan tidsserier och regression För modeller och antaganden. är det korrekt att regressionsmodellerna antar oberoende mellan utgångsvariablerna för olika värden av ingångsvariabeln, medan tidsseriemodellen inte gör vad är några andra skillnader Det finns ett antal tillvägagångssätt för tidsserieanalys, men de två mest kända är de regressionsmetoden och Box-Jenkins (1976) eller ARIMA (AutoRegressive Integrated Moving Average) - metoden. Detta dokument introducerar regressionsmetoden. Jag anser att regressionsmetoden är mycket överlägsen ARIMA av tre huvudorsaker. Jag förstår inte riktigt vad regressionsmetoden för tidsserier finns på webbplatsen och hur den skiljer sig från Box-Jenkins eller ARIMA-metoden. Jag uppskattar om någon kan ge några insikter på dessa frågor. Tack och hälsningar Jag tycker verkligen att det här är en bra fråga och förtjänar ett svar. Länken som tillhandahålls är skriven av en psykolog som hävdar att en del home brew-metod är ett bättre sätt att göra tidsserieanalys än Box-Jenkins. Jag hoppas att mitt försök till ett svar kommer att uppmuntra andra, som är mer kunniga om tidsserier, att bidra. Från sin introduktion ser det ut som om Darlington mästar tillvägagångssättet att bara passa en AR-modell med minst kvadrater. Det vill säga, om du vill passa modellen zt alfa1 z cdots alfa z varepsilont till tidsserien zt, kan du bara regressera serien zt på serien med lag 1, lag 2 och så vidare upp till lag k, med hjälp av en vanlig multipel regression. Detta är säkert tillåtet i R, det är även ett alternativ i ar-funktionen. Jag testade det och tenderar att ge liknande svar på standardmetoden för montering av en AR-modell i R. Han förespråkar också att regressera zt på saker som t eller makt för att hitta trender. Återigen är det helt bra. Massor av tidsserier böcker diskutera detta, till exempel Shumway-Stoffer och Cowpertwait-Metcalfe. Typiskt kan en tidsserieanalys fortsätta längs följande rader: du hittar en trend, tar bort den och passar sedan en modell till resterna. Men det verkar som att han också förespråkar övermontering och sedan använder minskningen i medelkvadratfelet mellan den monterade serien och data som bevis för att hans metod är bättre. Till exempel: Jag känner att korrelogram är föråldrade. Deras primära syfte var att tillåta arbetstagare att gissa vilka modeller som passar bäst data, men hastigheten hos moderna datorer (åtminstone i regression om inte i tidsseriemodell) gör det möjligt för en arbetare att helt enkelt passa flera modeller och se exakt hur var och en passar som uppmätt medelst kvadratfel. Frågan om kapitalisering vid chans är inte relevant för detta val, eftersom de två metoderna är lika mottagliga för detta problem. Det här är inte en bra idé eftersom testet av en modell ska vara så bra det kan förutse, inte hur bra det passar befintliga data. I de tre exemplen använder han justerat rutt-kvadratfel som sitt kriterium för passformens kvalitet. Självklart kommer övermontering av en modell att göra en undersökning av felet mindre, så hans påstående att hans modeller är bättre eftersom de har mindre RMSE är fel. I ett nötskal, då han använder fel kriterium för att bedöma hur bra en modell är, når han felaktiga slutsatser om regression vs. ARIMA. Id satsar på att, om han hade testat modellernas prediktiva förmåga istället, hade ARIMA kommit ut på toppen. Kanske kan någon prova om de har tillgång till de böcker han nämner här. Tillägg: För mer om regressionsidén kanske du vill kolla in äldre tidsserier som skrivits innan ARIMA blev den mest populära. Till exempel, Kendall, Time-Series. 1973, kapitel 11 har ett helt kapitel om denna metod och jämförelser med ARIMA. Såvitt jag kan berätta har författaren aldrig beskrivit sin hembrödsmetod i en peer-reviewed publikation och referenser till och från statistiklitteraturen verkar vara minimala och hans huvudsakliga publikationer om metodologiska ämnen går tillbaka till 70-talet. Strängt taget visar inget av detta annat än utan tillräcklig tid eller kompetens för att utvärdera fordringarna själv, jag skulle vara extremt motvillig att använda någon av dem. ndash Gala Jul 18 13 kl 11: 31Förskjutningen från Moving Average (Time Series) - funktionen beräknar skillnaden mellan ett värde och dess tidsserie glidande medelvärde. Parametrar ------------------ Data De data som ska analyseras. Detta är typiskt ett fält i en dataserie eller ett beräknat värde. Period Antalet siffer av data som ska inkluderas i medeltalet, inklusive det aktuella värdet. Till exempel innehåller en period av 3 nuvärdet och de två tidigare värdena. Funktionsvärde ------------------------ Tidsseriens rörliga medelvärde beräknas genom att man monterar en linjär regressionslinje över värdena för den angivna perioden och sedan bestämmer det aktuella värdet för den linjen. En linjär regressionslinje är en rak linje som ligger så nära alla givna värden som möjligt. Tidsserien som rör genomsnittet i början av en dataserie definieras inte förrän det finns tillräckligt många värden för att fylla den angivna perioden. Observera att ett tidsserie-rörligt medelvärde skiljer sig mycket från andra typer av glidande medelvärden genom att det nuvarande värdet följer den senaste trenden av data, inte ett faktiskt medelvärde av data. På grund av detta kan värdet av denna funktion vara större eller mindre än alla värden som används om trenden i data generellt ökar eller minskar. Skillnaden från det glidande medlet är det rörliga medelvärdet subtraherat från det aktuella värdet. Användning ----------- Flyttande medelvärden är användbara för utjämning av bullriga rådata, såsom dagliga priser. Prisuppgifterna kan variera kraftigt från dag till dag, och döljer om priset går upp eller ner över tiden. Genom att titta på prisets glidande medel kan en mer generell bild av de underliggande trenderna ses. Eftersom glidande medelvärden kan användas för att se trender, kan de också användas för att se om data slår trenden. Detta gör skillnaden från det glidande medelvärdet som är användbart för att markera var data bryts bort från trend. mike, först installera R (om du inte redan har det), kör R och installera TeachingDemos-paketet (exakt hur beror ditt system). ladda paketet med bibliotek (TeachingDemos) och skriv sedan in Loess. demo för att få fram hjälpsidan för att se hur du kör det. Du kan bläddra till botten där exemplet är och kopiera och klistra in den här koden till R39s kommandorad för att se exemplen , spring sedan med dina egna data för att utforska ytterligare. ndash Greg Snow Mar 23 12 på 17:15 Här är ett enkelt men detaljerat svar. En linjär modell passar ett förhållande genom alla datapunkter. Denna modell kan vara första ordning (annan betydelse av linjär) eller polynom för att beräkna kurvatur eller med splines för att ta hänsyn till olika regioner med en annan styrmodell. En LOESS-passform är en lokal rörelsevägd regression baserad på de ursprungliga datapunkterna. Vad som betyder A LOESS passar inmatar de ursprungliga X - och Y-värdena, plus en uppsättning X-värden för att beräkna nya Y-värden (vanligtvis används samma X-värden för båda men ofta färre X-värden används för monterade XY-par på grund av den ökade beräkningen som krävs). För varje X-värde används en del av ingångsdata för att beräkna en passform. Delen av data, i allmänhet 25 till 100 men typiskt 33 eller 50, är lokal, vilket betyder att den är den delen av originaldata som är närmast varje specifikt utgång X-värde. Det är en rörlig passform, eftersom varje output X-värde kräver en annan delmängd av de ursprungliga dataen, med olika vikter (se nästa stycke). Denna delmängd av ingångsdatapunkter används för att utföra en viktad regression, med punkter som är närmast utgångs X-värdet med större vikt. Denna regression är vanligtvis första ordning andra ordningen eller högre är möjlig, men kräver större beräkningskraft. Y-värdet för denna vägda regression beräknad vid utgången X används som modellens Y-värde för detta X-värde. Regressionen recomputeras vid varje utgångs X-värde för att producera en fullständig uppsättning utgång Y-värden. besvarade 21 feb 15 kl 21:08
No comments:
Post a Comment