Beh, ho alcune risposte parziali a questo. Nessuno lo sa esattamente, ovviamente. Altrimenti la soluzione sarebbe molto probabilmente implementata immediatamente. E se gli informatici cedessero, si farebbe pressione su di loro. Ma così com'è le cose non sono chiare e quindi la situazione rimane confusa. Inoltre, non date dettagli su quali previsioni di modelli informatici state considerando nel vostro confronto. Quindi, darò alcune informazioni qui sotto che spero siano corrette.
Prima di tutto, bisogna vedere che ci sono essenzialmente due tipi di modelli: i modelli globali che lavorano per l'intero pianeta e i modelli locali che usano le condizioni limite di un modello globale per le loro forzature. Il modello globale usato dai Centri Nazionali per le Previsioni Ambientali e dal Centro Europeo per le Previsioni Meteorologiche a Medio Raggio sono rispettivamente il Sistema di Previsione Globale (GFS) e il Sistema Integrato di Previsione (IFS). Questi modelli globali hanno bisogno di schemi numerici per le loro corse, assimilazione dei dati (4DVAR) delle misure (satelliti, stazioni meteo, sonde radio, ecc.) che aiutano a migliorare le corse, supercomputer per le loro corse, parametrizzazione (modellazione atmosferica) per i loro processi fisici (non tutto è noto in fisica), accoppiamento del modello tra diversi domini (per esempio onde e atmosfera). Vedi la documentazione IFS CY38r1 per una descrizione completa di IFS e i National Centers for Environmental Prediction per una descrizione di GFS.
I modelli locali sono limitati a una specifica area geografica (diciamo il Mar Mediterraneo, il Mar Adriatico, ecc.) dove ci si aspetta che si possa ottenere una risoluzione più alta del modello globale. Il problema dei modelli locali è che di solito sono meno sofisticati dei modelli globali e che dipendono dalle condizioni al contorno di un modello globale per la loro esecuzione. Esempi di modelli locali sono il Weather Research and Forecasting Model (WRF) sviluppato da molte agenzie statunitensi, COSMO sviluppato essenzialmente dal servizio meteorologico tedesco e ALADIN / AROME di Meteo France. Una lista più completa dei modelli si trova su wikipedia: Atmospheric model.
Poi, devo dire che la serie più importante di dati utilizzati dai modelli provengono dai satelliti e sono disponibili a tutti (The Advanced Scatterometer (ASCAT) Data Products, QuikSCAT/SeaWinds Data products, Jason-1, ecc). Le misure delle stazioni non sono sempre condivise, ma il punto importante è che non c'è un vantaggio specifico che gli americani hanno per prevedere il tempo negli USA. I metodi numerici e fisici sono pubblicati in molte riviste e disponibili a tutti. Non c'è davvero nessun segreto su questo.
Prima di confrontare, bisogna anche dire che non ho visto un confronto globale tra i prodotti di previsione NCEP e ECMWF. ECMWF ha azzeccato l'uragano Sandy ma forse ha sbagliato molte altre cose. Non lo so. E se ECMWF è migliore, di quanto? Per quali variabili? Per quali regioni geografiche? Per quali periodi? Tutti questi dettagli sono importanti per ottenere le cose giuste.
Quindi, ciò che elencherò come possibili ragioni qui sotto sono una serie di ipotesi. Potrei benissimo sbagliarmi. Nessuno lo sa con esattezza.
1) Un fattore è la qualità dei supercomputer usati, dell'implementazione numerica (una migliore programmazione Fortran può ottenere molte differenze nella velocità). L'attuale risoluzione di ECMWF è di 16 km e stanno aggiornando quest'anno a un computer più veloce. NCEP sembra essere a 27 km (vedi National Climatic Data Center) ma la risoluzione dovrebbe essere più fine in futuro.
2) ECMWF sembra più aperto; il suo sito web è più chiaro e il loro modello è abbastanza ragionevolmente documentato. È centralizzato, sì, ma sembra esserci un piano ragionevole. La parte americana sembra essere impantanata nella guerra tra molti gruppi diversi (vedi Fixing the National Weather Service's Computer Gap).
3) IFS ha l'accoppiamento alle onde (con il modello WAM) che dà una migliore parametrizzazione dello stress superficiale. Non sono sicuro per GFS, la loro documentazione è meno chiara.
4) IFS sta usando 4D-Var per l'assimilazione dei dati, ma sembra ancora in sviluppo per GFS. La discussione riguarda l'Ensemble Kalman Filter, che, per me, è computazionalmente più costoso, ma più economico nella programmazione di 4D-Var.
5) La rugosità dell'orografia a scala subgrid è usata in ECMWF, ma non sembra così in GFS per quello che ho visto.
Alla fine questo tipo di lavoro è un problema ben posto (Quanto era esatta la previsione per me?) che richiede molte cose molto difficili da realizzare insieme da scienziati di varia estrazione (ingegnere informatico, programmatore, fisici, teoria dei sistemi dinamici, ecc.) Forse ECMWF lo ha fatto meglio di GFS negli ultimi tempi, ma la situazione può cambiare molto velocemente.
Un'altra differenza: Le previsioni GFS sono disponibili gratuitamente. Per ECMWF devi pagare 250000$ all'anno se vuoi le previsioni. D'altra parte, se si vuole fare uno studio scientifico, è possibile ottenere gratuitamente le previsioni del passato sugli eventi passati (e quindi senza valore commerciale): ERA-Interim per gli ultimi 40 anni almeno.