Tutti e 3 probabilmente usano un cluster di supercomputer che eseguono una variazione di Linux. Specializzati in cloud / network rendering.
La fregatura è che molti di loro (almeno la Dreamworks) usano render farm commerciali, piuttosto che possedere e mantenere l'hardware da soli: è effettivamente più economico per loro in questo modo, dal momento che eseguono il rendering solo per pochi mesi per ogni film; cioè neanche lontanamente in modo costante. E quando fanno il rendering, hanno bisogno di quantità semplicemente folli di potenza di calcolo grezza.
Per essere più specifici sull'hardware delle render farm, le scene dei lungometraggi al giorno d'oggi richiedono volumi di RAM estremamente grandi, abbastanza da non poter essere eseguiti su una GPU. Così, molti di loro fanno solo il previz e l'illuminazione sulle GPU delle loro workstation, con geometria altamente semplificata e texture ridimensionate, poi renderizzano le riprese finali sulla CPU.
Per quanto riguarda il sistema operativo, penso sia probabile che una render farm possa usare una versione ridotta e modificata di Linux, ottimizzata per minimizzare l'overhead e ottimizzare le prestazioni di rete senza sacrificare completamente la sicurezza.
I lungometraggi hanno un budget abbastanza grande da poter spendere un sacco di soldi in software proprietario, e comunque ottimizzano e delegano certi lavori ad altre aziende quando è più efficiente.