Perché il monitor di un computer ha una regolazione manuale della fase e della frequenza di clock nelle impostazioni del monitor?

Nei brutti vecchi tempi le schede video inviavano segnali analogici a un CRT analogico. Il CRT non aveva pixel di per sé, quindi non aveva bisogno di un segnale di clock, semplicemente visualizzava continuamente qualsiasi segnale analogico di rotazione arrivasse.

Quando arrivarono i display a schermo piatto, ci fu un problema. Lo schermo ha pixel discreti, quindi i segnali analogici dovevano essere campionati e digitalizzati. Il problema è che non c'era nessun segnale di clock! Se il display campionava il segnale a una velocità vicina ma non esatta, campionava il segnale per una parte del tempo nel mezzo di ogni livello di tensione ricevuto, ma alla fine, mentre si spostava sul segnale, campionava nella transizione tra i valori, quindi si ottenevano dati sbagliati e colori strani o sfocati. Ecco perché c'erano regolazioni fini per la frequenza e la fase. Il modo migliore per regolarle era quello di digitare una lunga linea di |||||||||| caratteri. Se la frequenza e la fase erano appena un po' diverse, si vedeva un modello di moiré in cui alcune barre erano ok, ma le successive diventavano sfocate, poi ricominciavano a migliorare. Si agitava il controllo della frequenza finché le parti buone diventavano sempre più lunghe fino a coprire l'intero schermo, poi si regolava la fase in modo che tutte le barre fossero nitide, non sfocate.

Questa è per lo più storia antica in quanto la maggior parte delle schede video ora hanno uscite digitali, ora con un orologio, così il monitor non deve indovinare.