Bit = 2 elevat a 1 = 2 valors
Byte = 8 Bits = 2 elevat a 8 = 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 256 valors

10 n Decimal --> 0 1 2 3 4 5 6 7 8 9
2 n Binari --> 0 1
12 n Duodecimal --> 0 1 2 3 4 5 6 7 8 9 10 11
16 n Hexadecimal --> 0 1 2 3 4 5 6 7 8 9 A B C D E F
BINARI:
La codificació de caràcters és el mètode que permet convertir un caràcter en un símbol d'un altre sistema de representació, com un nombre o una seqüència de polsos elèctrics en un sistema electrònic.
ASCII: Esta lligat al octet (i per tant als sencers que van del 0 al 127, el problema que presenta és que no pot codificar més que 128 símbols diferents (128 és el nombre total de diferents configuracions que es poden aconseguir amb 7 dígits binaris o digitals (0.000.000 , 0.000.001 ,..., 1.111.111 ), usant el vuitè dígit de cada octet (bit) per detectar algun error de transmissió). Una quota de 128 és suficient per incloure majúscules i minúscules de l'abecedari anglès, a més de xifres, puntuació, i alguns "caràcters de control", però el ASCII no inclou ni els caràcters accentuats ni el començament d'interrogació que s'usa en català, ni tants altres símbols (matemàtics, lletres gregues ,...) que són necessaris en molts contextos.
UTF: És una norma de transmissió utilitzada juntament amb la norma de codificació Unicode. Utilitzades en conjunt, funcionen de la següent manera:
Unicode assigna els enters del 0 al 127 (un total de 128) a exactament els mateixos caràcters que ASCII
UTF-8 empaqueta qualsevol sencer del 0 al 127 en un octet "a l'antiga" però amb el vuitè dígit sempre en zero, ja que actualment el bit de paritat no s'utilitza més per a detecció d'errors.
A més, com la taula de Unicode és tan gran, la majoria dels seus símbols estan assignats a enters majors que 127. En tots aquests casos, UTF-8 envia el començament de la representació binària del codi en qüestió en un primer octet amb dígit de paritat = 1
El receptor d'aquest missatge, interpreta aquest dígit en 1 com a senyal que el que està sent transmès és un codi que no cap en 7 dígits binaris, i per tant determina que el símbol no ho va a conèixer mentre no llegiu el següent octet , i potser el que segueix. En el pitjor dels casos, potser es faci necessari llegir seis octets consecutius per determinar un codi alt.
0 0 0 0 0 0 0 0 = 0
0 0 0 0 0 0 0 1 = 1
0 0 0 0 0 0 1 0 = 2
0 0 0 0 0 0 1 1 = 3
0 0 0 0 0 1 0 0 = 4
0 0 0 0 0 1 0 1 = 5
0 0 0 0 0 1 1 0 = 6
0 0 0 0 0 1 1 1 = 7
0 0 0 0 1 0 0 0 = 8
0 0 0 0 1 0 0 1 = 9
0 0 0 0 1 0 1 0 = 10
0 0 0 0 1 0 1 1 = 11
0 0 0 0 1 1 0 0 = 12
0 0 0 0 1 1 0 1 = 13
0 0 0 0 1 1 1 0 = 14
0 0 0 0 1 1 1 1 = 15
0 0 0 1 0 0 0 0 = 16
0 0 0 1 0 0 0 1 = 17
0 0 0 1 0 0 1 0 = 18
0 0 0 1 0 0 1 1 = 19
0 0 0 1 0 1 0 0 = 20
0 0 0 1 0 1 0 1 = 21
0 0 0 1 0 1 1 0 = 22
0 0 0 1 0 1 1 1 = 23
0 0 0 1 1 0 0 0 = 24
0 0 0 1 1 0 0 1 = 25
0 0 0 1 1 0 1 0 = 26
0 0 0 1 1 0 1 1 = 27
0 0 0 1 1 1 0 0 = 28
0 0 0 1 1 1 0 1 = 29
0 0 0 1 1 1 1 0 = 30
0 0 0 1 1 1 1 1 = 31
b --> bit
B --> byte
1Kb --> 1024
No hay comentarios:
Publicar un comentario