Non molto nella scala comune. Per l'utente medio, sono intercambiabili.
Non dimenticare che i monitor più economici non hanno altoparlanti! E non hanno moduli DVB, quindi la TV è solo un'opzione, se hai un set-top-box (la maggior parte dei fornitori di servizi tv ne danno uno, quindi di solito non è un problema)
Gli svantaggi di una TV:
-Dimensioni. Di solito sono più grandi e un po' più luminosi, quindi la gente di solito li guarda da lontano. Nel caso di una più recente TV 4K, che si può guardare da una distanza più vicina (per vedere il 4K), maneggiare la luminosità con cura! Al giorno d'oggi i monitor stanno diventando sempre più grandi di anno in anno, quindi questo non è più un grosso problema.
-HDR. I pannelli a 10 bit (HDR10) e 12 bit (Dolby Vision) danno un numero di colori pazzescamente maggiore, che sono davvero vividi. Dai miei test, non ci sono molte differenze tra HDR10 e un pannello standard a 10 bit. Forse la luminosità è migliore sullo standard HDR10, ma nel caso dei colori, non ho potuto vedere alcuna differenza (giocando a 10bit HDR contect ovviamente fianco a fianco). Quindi sì, HDR han un vantaggio nel campo della TV.
Svantaggi di un monitor:
-Accuratezza dei colori. Specialmente con un pannello IPS migliore. Le TV sono di solito usate in 4:2:0 chroma subsampling, che è buono per i soliti compiti, e usa meno brandwith rispetto al 4:4:4 picture perfect chroma subsampling, con cui la maggior parte dei monitor sono usati. Non è che i televisori non siano in grado di effettuare il sottocampionamento croma 4:4:4, ma sono per lo più calibrati per contenuti 4:2:0 (utilizzati anche dai dischi bluray 4K HDR). E la lettura di testi (navigazione di pagine web, creazione di documenti) è un po' più facile per l'occhio con un monitor. È un po' difficile spiegare come uno schermo HDR possa essere meno accurato dei colori di un monitor, e di nuovo, non si tratta di quanti colori conoscono, ma di quanto accuratamente vengono visualizzati.
-Rifresh rate. Sì, i televisori possono essere pubblicizzati con alte frequenze di aggiornamento (120 o 240hz di solito), ma questa è una bugia. Una bugia molto sofisticata, ma una bugia. Questo non è il vero refresh rate. Proprio come il rapporto di contrasto dinamico NON è il rapporto di contrasto, o 8bit+AFRC non è il vero 10bit. Queste sono cose belle da avere, specialmente AFRC... è davvero come 10bit per i miei occhi... Ma non è la cosa reale. Quindi, nel caso tu voglia 144hz o 240hz, avrai bisogno di un monitor.
-Adaptive sync. Quindi, nel caso in cui vogliate utilizzare la vostra folle frequenza di aggiornamento... o anche non lottare con il v-sync su 60hz. L'unico modo è la sincronizzazione adattiva. Questo ha bisogno di un po' di spiegazioni, dato che la gente di solito sbaglia.
Quindi... il numero di fotogrammi che il vostro computer invia alla vostra TV deve essere lo stesso della vostra frequenza di aggiornamento. Sul tuo desktop, il tuo sistema operativo si occupa di questo.
In modalità a schermo intero (specialmente nei giochi) questo potrebbe non essere il caso. Per esempio, puoi solo padroneggiare 45 fps di solito nel gioco sul tuo monitor a 60hz. Risultato: lacerazioni dello schermo. Per gli fps al di sopra della frequenza di aggiornamento... è facile, basta limitarsi alla frequenza di aggiornamento (60 di solito). (vsync lo fa automaticamente) Ma sotto questo....
Soluzione:
1 - Vivere con esso. Nel caso tu sia un giocatore professionista, probabilmente vuoi più FPS che puoi ottenere per il tuo tempo di reazione per essere il migliore.
2 - V-sync. Una soluzione software che sincronizza i tuoi FPS con la frequenza di aggiornamento. Di solito aspetta che ogni singola immagine sia renderizzata, e mentre questo invia solo l'ultimo fotogramma completo. Questo significa che se il tuo FPS scende anche solo un po' sotto i 60fps, il tuo FPS EFFETTIVO (che vedi sullo schermo) sarà esattamente la metà di quello (30fps, e 15 fps di conseguenza). Almeno senza il tripple buffering. Con il tripple buffering questi numeri saranno 60, 40 e 20 fps. Che di solito è meglio.
Ma ancora non va bene per un giocatore professionista.
3- Adatptive sync. Con questo metodo supportato dall'hardware il vostro monitor cambierà la sua frequenza di aggiornamento al volo in base al tasso di FPS che ottiene. Funziona insieme al v-sync, quindi il v-sync limiterà il limite, nel caso in cui gli fps siano maggiori della frequenza di aggiornamento. Il monitor funzionerà perfettamente nel limite di adaptice sync (40-120hz per esempio), e sotto questo è di nuovo vsync.
Oggi ci sono 2 tecnologie per questo ora.
-Freesync. È quello più supportato. (perché è... beh gratuito 😀 ) È stato sviluppato da AMD, ed è libero di essere usato da chiunque. Nessuna royalty.
-G-Sync. La soluzione di nVidia. Soluzione proprietaria. I monitor G-Sync sono più costosi, e penso che funzioni solo con una connessione DisplayPort. (AMD ha una specie di soluzione anche per HDMI)
Quindi, come si può supporre, l'Adaptive Sync è un Must-Have per un giocatore.
Quindi... Ho usato TV come monitor in passato, soprattutto per scopi di test. Per l'utente medio funzionerà benissimo. Quindi, nel caso in cui non abbiate bisogno di qualcosa di più della navigazione generale, guardando film, starete bene con una TV.
Ma anche nel 2017 (beh, ho usato solo TV uscite nel 2016 😀 ), l'immagine di un buon monitor è migliore, allo stesso prezzo di una TV.
Nel caso in cui lavoriate con le immagini in modo professionale (foto o video editing in generale), dovreste prendere un monitor. L'accuratezza del colore è semplicemente migliore.
Nel caso tu sia un giocatore, avrai bisogno di un monitor con Adaptive Sync. (Dato che nVidia si rifiuta di implementare FreeSync, anche se potrebbero... liberamente... dovrai accoppiare il tuo monitor con la scheda video.)
Per i film, una TV è semplicemente perfetta. Usando il sottocampionamento 4:4:4 (che il tuo computer fa di default, non preoccuparti) anche la lettura è abbastanza comoda su una TV.
In futuro anche queste differenze potrebbero scomparire.