Organización de Datos.
Bit es el acrónimo Binary digit (‘dígito binario’). Un bit es un dígito
del sistema de numeración binario. Las unidades de almacenamiento tienen por
símbolo bit .Mientras que en el sistema de numeración decimal se usan diez
dígitos, en el binario se usan solo dos dígitos, el 0 y el 1. Un bit o dígito
binario puede representar uno de esos dos valores: 0 o 1.El bit es la unidad
mínima de información empleada en informática, en cualquier dispositivo
digital, o en la teoría de la información.
Con él, podemos representar dos valores cuales quiera, como verdadero o
falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino,
rojo o azul, etc. Basta con asignar uno de esos valores al estado de
"apagado" (0), y el otro al estado de "encendido" (1).Con
un bit podemos representar solamente dos valores, que suelen representarse como
0, 1.
Para representar o codificar más información en un dispositivo digital,
necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro
combinaciones posibles:
· 0 0 - Los dos están
"apagados"
· 0 1 - El primero está
"apagado" y el segundo "encendido"
· 1 0 - El primero está
"encendido" y el segundo "apagado"
· 1 1 - Los dos están
"encendidos"
Un byte es la unidad fundamental de datos en los ordenadores
personales, un byte son ocho bits contiguos. El byte es también la unidad de
medida básica para memoria, almacenando el equivalente a un carácter. La
arquitectura de ordenadores se basa sobre todo en números binarios, así que los
bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere
llamar los grupos de ocho bits octetos).
Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte,
abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto
que derivan de una base decimal de 10 números). El término byte fue acuñado por
Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030
Stretch.
Originalmente fue definido en instrucciones de 4 bits, permitiendo
desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este
hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte).
Los equipos típicos de E/S de este periodo utilizaban unidades de seis
bits, pero tras la necesidad de agregar letras minúsculas, así como una mayor
cantidad de símbolos y signos de puntuación, se tuvieron que idear otros
modelos con mayor cantidad de bits. Un tamaño fijo de byte de 8 bits se adoptó
posteriormente y se promulgó como un estándar por el IBM.
Una word es un grupo de 16 bits, el bit 0 es el bit de más bajo orden y
el bit 15 es el de más alto orden. Una palabra se puede dividir en 2 bytes
llamados igualmente de bajo y alto orden. También una palabra puede
considerarse como un grupo de 4 nibbles.
En ciencias de la computación, Dword (en inglés double word, doble
palabra) es una unidad de datos que es dos veces el tamaño de una palabra. En
las plataformas x86, que tienen una longitud de palabra de 16 bits, una unidad
dword tiene una longitud de 32 bits.
Qword (en 'ingles' quadruple word, cuádruple palabra) es una unidad de
datos que es cuatro veces el tamaño de una palabra. En las plataformas x86,
esta unidad de datos es 64 bits.
Finalmente, Intel utiliza el término DQWord (en inglés double quadruple
word, doble cuadrupe palabra) para denotar datos de 128 bits, encontrado el la
implementación del SSE y sus antecesores.