domingo, 1 de marzo de 2015

Organizacion de Datos.

Organización de Datos.
Bit es el acrónimo Binary digit (‘dígito binario’). Un bit es un dígito del sistema de numeración binario. Las unidades de almacenamiento tienen por símbolo bit .Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan solo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores: 0 o 1.El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información.
Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1.
Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:


·         0 0 - Los dos están "apagados"
·         0 1 - El primero está "apagado" y el segundo "encendido"
·         1 0 - El primero está "encendido" y el segundo "apagado"
·         1 1 - Los dos están "encendidos"


Un byte es la unidad fundamental de datos en los ordenadores personales, un byte son ocho bits contiguos. El byte es también la unidad de medida básica para memoria, almacenando el equivalente a un carácter. La arquitectura de ordenadores se basa sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos).


Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte, abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto que derivan de una base decimal de 10 números). El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch.

Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte).

Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits, pero tras la necesidad de agregar letras minúsculas, así como una mayor cantidad de símbolos y signos de puntuación, se tuvieron que idear otros modelos con mayor cantidad de bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM.

Una word es un grupo de 16 bits, el bit 0 es el bit de más bajo orden y el bit 15 es el de más alto orden. Una palabra se puede dividir en 2 bytes llamados igualmente de bajo y alto orden. También una palabra puede considerarse como un grupo de 4 nibbles.
En ciencias de la computación, Dword (en inglés double word, doble palabra) es una unidad de datos que es dos veces el tamaño de una palabra. En las plataformas x86, que tienen una longitud de palabra de 16 bits, una unidad dword tiene una longitud de 32 bits.
Qword (en 'ingles' quadruple word, cuádruple palabra) es una unidad de datos que es cuatro veces el tamaño de una palabra. En las plataformas x86, esta unidad de datos es 64 bits.

Finalmente, Intel utiliza el término DQWord (en inglés double quadruple word, doble cuadrupe palabra) para denotar datos de 128 bits, encontrado el la implementación del SSE y sus antecesores.

No hay comentarios:

Publicar un comentario