Come funziona il codice del computer?

Come funziona la codifica

Come funziona davvero la codifica? La risposta breve è che scrivere codice dice al computer cosa fare, ma non è così semplice.

Ecco la risposta più lunga. Un computer può capire solo due tipi distinti di dati: on e off. Infatti, un computer è davvero solo un insieme di interruttori on/off (transistor). Tutto ciò che un computer può fare non è altro che una combinazione unica di alcuni transistor accesi e alcuni transistor spenti.

Il codice binario è la rappresentazione di queste combinazioni come 1 e 0, dove ogni cifra rappresenta un transistor. Il codice binario è raggruppato in byte, gruppi di 8 cifre che rappresentano 8 transistor. Per esempio, 11101001. I computer moderni contengono milioni o addirittura miliardi di transistor, il che significa un numero inimmaginabile di combinazioni.

Ma qui sorge un problema. Essere in grado di scrivere un programma per computer digitando miliardi di 1 e 0 richiederebbe una potenza cerebrale sovrumana, e anche in questo caso ci vorrebbero probabilmente una o due vite per scriverlo.

This is where programming languages come in…

Programming Languages

Here’s a simple example of some code:

  1. print 'Hello, world!' 

That line of code is written in the Python programming language. In parole povere, un linguaggio di programmazione (o codifica) è un insieme di regole di sintassi che definiscono come il codice dovrebbe essere scritto e formattato.

Migliaia di diversi linguaggi di programmazione ci permettono di creare software per computer, applicazioni e siti web. Invece di scrivere codice binario, ci permettono di scrivere codice che è (relativamente) facile da scrivere, leggere e capire. Ogni linguaggio viene fornito con un programma speciale che si occupa di tradurre ciò che scriviamo in codice binario.