Il processo di conversione dei dati da un modulo a un altro è noto come codifica. Viene utilizzato per trasformare i dati in modo che possano essere supportati e utilizzati da sistemi diversi. La codifica funziona in modo simile alla conversione della temperatura da gradi centigradi a Fahrenheit, poiché viene semplicemente convertita in un'altra forma, ma il valore originale rimane sempre lo stesso. La codifica viene utilizzata principalmente in due campi:
Nota: la codifica è diversa dalla crittografia poiché il suo scopo principale non è nascondere i dati ma convertirli in un formato in modo che possano essere utilizzati correttamente.
In questo argomento discuteremo i diversi tipi di tecniche di codifica utilizzate nell'informatica.
Tipo di tecnica di codifica
Codifica dei caratteri
La codifica dei caratteri codifica i caratteri in byte . Informa i computer su come interpretare lo zero e gli uno in caratteri, numeri e simboli reali. Il computer comprende solo dati binari; quindi è necessario convertire questi caratteri in codici numerici. Per raggiungere questo obiettivo, ogni carattere viene convertito in codice binario e, per questo, i documenti di testo vengono salvati con tipi di codifica. Può essere fatto accoppiando i numeri con i caratteri. Se non applichiamo la codifica dei caratteri, il nostro sito Web non visualizzerà i caratteri e il testo nel formato corretto. Pertanto diminuirà la leggibilità e la macchina non sarà in grado di elaborare correttamente i dati. Inoltre, la codifica dei caratteri garantisce che ogni carattere abbia una rappresentazione corretta in formato computer o binario.
Esistono diversi tipi di tecniche di codifica dei caratteri, riportate di seguito:
Codifica HTML
La codifica HTML viene utilizzata per visualizzare una pagina HTML in un formato corretto. Con la codifica, un browser web viene a sapere quale set di caratteri utilizzare.
In HTML, ci sono vari caratteri utilizzati nel markup HTML come . Per codificare questi caratteri come contenuto, dobbiamo utilizzare una codifica.
Codifica URL
Viene utilizzata la codifica URL (Uniform Resource Locator). convertire i caratteri in un formato tale da poterli trasmettere su Internet . È noto anche come codifica percentuale. La codifica URL viene eseguita per inviare l'URL a Internet utilizzando il set di caratteri ASCII. I caratteri non ASCII vengono sostituiti con un %, seguito dalle cifre esadecimali.
Codifica UNICODE
Unicode è uno standard di codifica per un set di caratteri universale. Consente di codificare, rappresentare e gestire il testo rappresentato nella maggior parte delle lingue o dei sistemi di scrittura disponibili in tutto il mondo. Fornisce un punto di codice o un numero per ogni carattere in ogni lingua supportata. Può rappresentare approssimativamente tutti i caratteri possibili in tutte le lingue. Una particolare sequenza di bit è detta unità di codifica.
Uno standard UNICODE può utilizzare 8, 16 o 32 bit per rappresentare i caratteri.
Lo standard Unicode definisce Unicode Transformation Format (UTF) per codificare i punti di codice.
Lo standard di codifica UNICODE ha i seguenti schemi UTF:
UTF8 è definito dallo standard UNICODE, che è la codifica dei caratteri a larghezza variabile utilizzata nelle comunicazioni elettroniche. UTF-8 è in grado di codificare tutti i 1.112.064 punti di codice di caratteri validi in Unicode utilizzando da una a quattro unità di codice da un byte (8 bit).
La codifica UTF16 rappresenta i punti di codice di un carattere utilizzando uno dei due numeri interi a 16 bit.
La codifica UTF32 rappresenta ciascun punto di codice come numeri interi a 32 bit.
Codifica Base64
La codifica Base64 viene utilizzata per codificare i dati binari in caratteri ASCII equivalenti. La codifica Base64 viene utilizzata nel sistema di posta poiché i sistemi di posta come SMTP non possono funzionare con dati binari perché accettano solo dati testuali ASCII. Viene utilizzato anche nella semplice autenticazione HTTP per codificare le credenziali. Inoltre, viene utilizzato anche per trasferire i dati binari nei cookie e altri parametri per rendere i dati illeggibili ed evitare manomissioni. Se un'immagine o un altro file viene trasferito senza la codifica Base64, verrà danneggiato poiché il sistema di posta non è in grado di gestire i dati binari.
Base64 rappresenta i dati in blocchi di 3 byte, dove ogni byte contiene 8 bit; quindi rappresenta 24 bit. Questi 24 bit sono divisi in quattro gruppi di 6 bit. Ciascuno di questi gruppi o blocchi viene convertito in un valore Base64 equivalente.
Codifica ASCII
Codice Standard Americano per Interscambio di Informazioni (ASCII) è un tipo di codifica dei caratteri. È stato il primo standard di codifica dei caratteri rilasciato nel 1963.
Il codice ASCII viene utilizzato per rappresentare i caratteri inglesi come numeri, dove a ciascuna lettera viene assegnato un numero da 0 a 127. La maggior parte degli schemi di codifica dei caratteri moderni sono basati su ASCII, sebbene supportino molti caratteri aggiuntivi. Si tratta di una codifica a byte singolo che utilizza solo i 7 bit inferiori. In un file ASCII ogni carattere alfabetico, numerico o speciale è rappresentato con un numero binario a 7 bit. Ogni carattere della tastiera ha un valore ASCII equivalente.
Codifica di immagini e audio e video
La codifica di immagini, audio e video viene eseguita per risparmiare spazio di archiviazione. Un file multimediale come immagine, audio e video viene codificato per salvarli in un formato più efficiente e compresso.
Questi file codificati contengono lo stesso contenuto con una qualità solitamente simile, ma in dimensioni compresse, in modo che possano essere salvati in meno spazio, trasferiti facilmente tramite posta o scaricati sul sistema.
Possiamo capirlo come un . Il file audio WAV viene convertito in file .MP3 per ridurre le dimensioni di 1/10thalla sua dimensione originale.