Meteorológiai esélylatolgatások
Ma beszélgettünk Derickkel, hogy elvben jobb-e a 180 h-nál belül a fél fokos felbontású GFS, mint az 1 fokos. Több tényezõ is az igen mellett szól. Páldául, finomabb felbontással van benne a domborzat, a növénytakaró, albedó, stb...
Ugyanakkor van egy hátrány a finom felbontásban. Ha hiba csúszik be, akkor elszállhat a modell futása - így történhet meg, hogy a fél fokos már 180 h-nál belül is akár számottevõen, jelentõsen eltérhet.
Ugyebár a modellek kiindulása egy kiindulási mezõ, ami nagyjából az analízis mezõ és az elõzõ futás azon idõre vonatkozó elõrejelzése. Az analízis mezõ szépen rácspontokból áll. Azonban az állomásadatok, felszállási adatok, stb... nem a rácspontokon állnak rendelkezésre, és ráadásul van, hogy egy régióban több másik régióban kevesebb van. Így például egy modellbeli rácsponthoz mondjuk Németország közepén több állomás is tartozhat mint pl. Skandinávia hegyvidéki részein. A modellben azonban a rácspontokra kalkulálják, interpolálják az állomásadatokból az értékeket. Egy nagyobb felbontású modell esetén az a nyerés, hogy egy rácspontra vonatkozó adat kiszámításához akár több állomás adat is lehet. Viszont ha finomabb egy felbontás, sûrûbb a rácshálózatban a gridek, rácspontok egymáshoz való távolsága, elõfordulhat, hogy egy-egy rácsponthoz nem lesz elég közel állomás. Így oda valahogy megint csak interpolálni kell adatot. A gond akkor merülhet fel leginkább, ha pl. egy mérés sorból kimarad egy állomás adata - mert éppen nem mértek, technikai gond volt, vagy más, vagy éppen torz a mérés valamilyen oknál fogva. Ha ennek kiesése során távolabbi adatokból kell interpolálni egy rácspontra és az teszem fel "hibás" a valósághoz képest, máris keletkezik egy hiba a kiindulási mezõbe. Lehet, hogy ez a hiba mondjuk mindössze 0,2-0,5-1 fok - ami ugye nem tûnik fel egy analízis mezõn és hát mivel hiányzik az adat így nem tudjuk hogy "hibás", nem korrekt. Na ez a hiba aztán az elõrejelzésben tovább terjed. Ha viszont ritkább a rácshálózat, ezen állomás adatának kiesése nem okoz "torzulást" ugyanis van több közeli állomás adat még és az így nyert interpoláció még mindig közelebb van a valósághoz.
Szóval a jobb felbontás hátránya hogy több olyan rácspont lehet amire a kezdtek kezdetén "távolabbi adatokból kell" interpolálni kell a kiindulási értéket és emiatt lehet nem a megfelelõ valóságot kapjuk idõnként. Ez a kezdeti torzulás pedig tova gyûrûzhet és máris más futást kapunk teljesen. Ilyenkor azonban feltételezésem szerint már az elején - talán az elsõ 48-72 órában már látszódik, hogy az operatív futás más utakon jár.
Itt pl. látszik, hogy az operatív el-el táncikál a többitõl már a legelején:
Link
Itt már a többihez simul a legelején is:
Link
Ugyanakkor van egy hátrány a finom felbontásban. Ha hiba csúszik be, akkor elszállhat a modell futása - így történhet meg, hogy a fél fokos már 180 h-nál belül is akár számottevõen, jelentõsen eltérhet.
Ugyebár a modellek kiindulása egy kiindulási mezõ, ami nagyjából az analízis mezõ és az elõzõ futás azon idõre vonatkozó elõrejelzése. Az analízis mezõ szépen rácspontokból áll. Azonban az állomásadatok, felszállási adatok, stb... nem a rácspontokon állnak rendelkezésre, és ráadásul van, hogy egy régióban több másik régióban kevesebb van. Így például egy modellbeli rácsponthoz mondjuk Németország közepén több állomás is tartozhat mint pl. Skandinávia hegyvidéki részein. A modellben azonban a rácspontokra kalkulálják, interpolálják az állomásadatokból az értékeket. Egy nagyobb felbontású modell esetén az a nyerés, hogy egy rácspontra vonatkozó adat kiszámításához akár több állomás adat is lehet. Viszont ha finomabb egy felbontás, sûrûbb a rácshálózatban a gridek, rácspontok egymáshoz való távolsága, elõfordulhat, hogy egy-egy rácsponthoz nem lesz elég közel állomás. Így oda valahogy megint csak interpolálni kell adatot. A gond akkor merülhet fel leginkább, ha pl. egy mérés sorból kimarad egy állomás adata - mert éppen nem mértek, technikai gond volt, vagy más, vagy éppen torz a mérés valamilyen oknál fogva. Ha ennek kiesése során távolabbi adatokból kell interpolálni egy rácspontra és az teszem fel "hibás" a valósághoz képest, máris keletkezik egy hiba a kiindulási mezõbe. Lehet, hogy ez a hiba mondjuk mindössze 0,2-0,5-1 fok - ami ugye nem tûnik fel egy analízis mezõn és hát mivel hiányzik az adat így nem tudjuk hogy "hibás", nem korrekt. Na ez a hiba aztán az elõrejelzésben tovább terjed. Ha viszont ritkább a rácshálózat, ezen állomás adatának kiesése nem okoz "torzulást" ugyanis van több közeli állomás adat még és az így nyert interpoláció még mindig közelebb van a valósághoz.
Szóval a jobb felbontás hátránya hogy több olyan rácspont lehet amire a kezdtek kezdetén "távolabbi adatokból kell" interpolálni kell a kiindulási értéket és emiatt lehet nem a megfelelõ valóságot kapjuk idõnként. Ez a kezdeti torzulás pedig tova gyûrûzhet és máris más futást kapunk teljesen. Ilyenkor azonban feltételezésem szerint már az elején - talán az elsõ 48-72 órában már látszódik, hogy az operatív futás más utakon jár.
Itt pl. látszik, hogy az operatív el-el táncikál a többitõl már a legelején:
Link
Itt már a többihez simul a legelején is:
Link