Meteorológiai esélylatolgatások
Hogy általánosságban is hozzászóljak a témához:
Azt tudni kell, hogy a meteorológiai modellek mind-mind valamilyenféle egyszerûsítésekkel (és parametrizációkkal) élnek. Hogy milyennel konkrétan, az attól függ, mire akarják használni. De rengeteg ilyet alkalmaznak.
(Csak egy példa: a WRF pl. eléggé univerzális modell, de mivel rengeteg sugárzási törvény részletesen benne van, kevés elhanyagolással, így a felszín-légkör kölcsönhatások leírására nagyon jól alkalmazható. Ezen keresztül pedig (fõleg az "amatõrök" körében) az egyik legnépszerûbb, és leglátványosabb kutatási területen is kiválóan megállja a helyét, mégpedig a konvektív rendszerek tanulmányozásában.
Sok korlátos tartományú, nagy felbontású modell szintén erre alkalmazható, hiszen a zivatarok ezek megfelelõen sûrû rácsán már megjelennek /spec. az ELTE-s WRF-ek még mindig parametrizációt alkalmaznak, de mi már futtattunk olyan rácson, ahol a nagyobb MKR-ek parametrizáció nélkül is ott voltak/.
Az ALADIN régebben viszont némileg jobban mûködött pl. téli hidegpárna vagy lábas hideg esetén, mint a WRF.)
Nagyon sok ilyen egyszerûsítést egyszerûen azért KELL alkalmazni, mert egyrészt ez nem rontja jelentõsen a modell hatékonyságát, másrészt viszont nélküle túl nagy lenne a számításigény.
A szinoptikus skálájú modellek döntõ többségében ilyen egyszerûsítések pl. hogy csak 2D-snek veszi a légkört, és néhány hasonló matematikai-fizikai megfontolás.
Az egyszerûsítések legnagyobb része azonban az óceán-légkör és a felszín-légkör csatolások kérdéskörébe tartozik.
Rájöttek ugyanis, hogy ezek a csatolások még szinoptikus skálán is igencsak hatással vannak a légkörre. Amikor ezeket belevitték a modellbe, a legtöbbet csak parametrizálni tudták, s kiderült, hogy a modellek mégsem lettek tõle pontosabbak. Ugyanarra jutottak, mint a klimatológusok: meg kell ismerni a kölcsönhatások pontos fizikáját, s majd Azt beleépíteni a modellbe (feltéve persze, ha ez a számításigényt nem növeli túlságosan).
Az a gyanúm nekem tehát, hogy ezen csatolások felderítése nem csak a meteorológiában, hanem a klimatológiában is jelentõs elõrelépést hozhat. (Ismét megemlítem, amit egyszer régebben svadasz írt összefoglaló asszem egy Rijekai? klíma konferenciáról az éghv. fórumban, ahol a valódi klimatológusok is erre az álláspontra jutottak - talán ez is közrejátszik abban, hogy én is így vélekedem.)
A másik probléma, amirõl lejjebbi hsz-ben is írtam, az a mérések elégtelensége, melynek javítása becslések szerint szintén nagy mértékben javítana a modellek pontosságán. Míg ez azonban a problémát csak annyiból segíti, hogy 10-15 nap helyett esetleg 15-20 nap lesz általában elõrejelezhetõ, addig az elõzõ területen egy-egy sikeres eredmény szinte "kiszámíthatatlan következményekkel járna", akár jóval jelentõsebben növelve az elõrejelzések pontosságát.
Azt tudni kell, hogy a meteorológiai modellek mind-mind valamilyenféle egyszerûsítésekkel (és parametrizációkkal) élnek. Hogy milyennel konkrétan, az attól függ, mire akarják használni. De rengeteg ilyet alkalmaznak.
(Csak egy példa: a WRF pl. eléggé univerzális modell, de mivel rengeteg sugárzási törvény részletesen benne van, kevés elhanyagolással, így a felszín-légkör kölcsönhatások leírására nagyon jól alkalmazható. Ezen keresztül pedig (fõleg az "amatõrök" körében) az egyik legnépszerûbb, és leglátványosabb kutatási területen is kiválóan megállja a helyét, mégpedig a konvektív rendszerek tanulmányozásában.
Sok korlátos tartományú, nagy felbontású modell szintén erre alkalmazható, hiszen a zivatarok ezek megfelelõen sûrû rácsán már megjelennek /spec. az ELTE-s WRF-ek még mindig parametrizációt alkalmaznak, de mi már futtattunk olyan rácson, ahol a nagyobb MKR-ek parametrizáció nélkül is ott voltak/.
Az ALADIN régebben viszont némileg jobban mûködött pl. téli hidegpárna vagy lábas hideg esetén, mint a WRF.)
Nagyon sok ilyen egyszerûsítést egyszerûen azért KELL alkalmazni, mert egyrészt ez nem rontja jelentõsen a modell hatékonyságát, másrészt viszont nélküle túl nagy lenne a számításigény.
A szinoptikus skálájú modellek döntõ többségében ilyen egyszerûsítések pl. hogy csak 2D-snek veszi a légkört, és néhány hasonló matematikai-fizikai megfontolás.
Az egyszerûsítések legnagyobb része azonban az óceán-légkör és a felszín-légkör csatolások kérdéskörébe tartozik.
Rájöttek ugyanis, hogy ezek a csatolások még szinoptikus skálán is igencsak hatással vannak a légkörre. Amikor ezeket belevitték a modellbe, a legtöbbet csak parametrizálni tudták, s kiderült, hogy a modellek mégsem lettek tõle pontosabbak. Ugyanarra jutottak, mint a klimatológusok: meg kell ismerni a kölcsönhatások pontos fizikáját, s majd Azt beleépíteni a modellbe (feltéve persze, ha ez a számításigényt nem növeli túlságosan).
Az a gyanúm nekem tehát, hogy ezen csatolások felderítése nem csak a meteorológiában, hanem a klimatológiában is jelentõs elõrelépést hozhat. (Ismét megemlítem, amit egyszer régebben svadasz írt összefoglaló asszem egy Rijekai? klíma konferenciáról az éghv. fórumban, ahol a valódi klimatológusok is erre az álláspontra jutottak - talán ez is közrejátszik abban, hogy én is így vélekedem.)
A másik probléma, amirõl lejjebbi hsz-ben is írtam, az a mérések elégtelensége, melynek javítása becslések szerint szintén nagy mértékben javítana a modellek pontosságán. Míg ez azonban a problémát csak annyiból segíti, hogy 10-15 nap helyett esetleg 15-20 nap lesz általában elõrejelezhetõ, addig az elõzõ területen egy-egy sikeres eredmény szinte "kiszámíthatatlan következményekkel járna", akár jóval jelentõsebben növelve az elõrejelzések pontosságát.