Come funziona la codifica
Come funziona davvero la codifica? La risposta breve è che scrivere codice dice al computer cosa fare, ma non è così semplice.
Ecco la risposta più lunga. Un computer può capire solo due tipi distinti di dati: on e off. Infatti, un computer è davvero solo un insieme di interruttori on/off (transistor). Tutto ciò che un computer può fare non è altro che una combinazione unica di alcuni transistor accesi e alcuni transistor spenti.
Il codice binario è la rappresentazione di queste combinazioni come 1 e 0, dove ogni cifra rappresenta un transistor. Il codice binario è raggruppato in byte, gruppi di 8 cifre che rappresentano 8 transistor. Per esempio, 11101001. I computer moderni contengono milioni o addirittura miliardi di transistor, il che significa un numero inimmaginabile di combinazioni.
Ma qui sorge un problema. Essere in grado di scrivere un programma per computer digitando miliardi di 1 e 0 richiederebbe una potenza cerebrale sovrumana, e anche in questo caso ci vorrebbero probabilmente una o due vite per scriverlo.
This is where programming languages come in…
Programming Languages
Here’s a simple example of some code:
- print 'Hello, world!'
That line of code is written in the Python programming language. In parole povere, un linguaggio di programmazione (o codifica) è un insieme di regole di sintassi che definiscono come il codice dovrebbe essere scritto e formattato.
Migliaia di diversi linguaggi di programmazione ci permettono di creare software per computer, applicazioni e siti web. Invece di scrivere codice binario, ci permettono di scrivere codice che è (relativamente) facile da scrivere, leggere e capire. Ogni linguaggio viene fornito con un programma speciale che si occupa di tradurre ciò che scriviamo in codice binario.