lunes, 23 de marzo de 2015

Unidad aritmetico logica

conocida por su sigla ALU, es una parte del pc, donde en su interior encontramos circuitos digitales que realizan operaciones lógicas y aritméticas como son : aritméticas ( suma, resta, multiplicación, división entre otras) y lógicas ( si, y, o, no ), operaciones de desplazamiento, ALU es una sigla en ingles por tanto significaría algo como esto ( arithmetic logic unit ), las operaciones se realizan con dos operando y estos se realizan cargando los operando en el acumulador AC.










imagen tomada de:
http://es.wikipedia.org/wiki/Unidad_aritm%C3%A9tico_l%C3%B3gica


A, B: son datos de entrada
F: es la unidad de entrada de control
R: salida
D: estado de la salida

la ALU siendo específicos la encontramos dentro del procesador ya que los circuitos de los procesadores son muy complejos, rápidos y potentes por eso podemos realizar ejercicios muy complejos y en parte en gracias a la ALU. por tanto si un procesador pose 4 núcleos en su interior, estos a su vez una ALU cada uno. la ALU se compone básicamente de circuitos operacionales, registros de entrada y registros(A, B) de acumulador (AC) y un también registros de estados, la mayoría de las acciones de la computadora son realizadas por la ALU este toma datos del registro del procesador estos son procesados y el resultado de dichas operaciones se almacena en los registros de la salida ALU ( R), la ALU no funciona por si sola esta recibe ordenes de una unidad de control quien le dice a la ALU que operaciones debe realizar.

lunes, 2 de marzo de 2015

Decimal codificado en binario

En sistemas de computaciónBinary-Coded Decimal (BCD) o Decimal codificado en binario es un estándar para representar números decimales en el sistema binario, en donde cada dígito decimal es codificado con una secuencia de 4 bits. Con esta codificación especial de los dígitos decimales en el sistema binario, se pueden realizar operaciones aritméticas como suma, resta, multiplicación y división de números en representación decimal, sin perder en los cálculos la precisión ni tener las inexactitudes en que normalmente se incurre con las conversiones de decimal a binario puro y de binario puro a decimal. La conversión de los números decimales a BCD y viceversa es muy sencilla, pero los cálculos en BCD se llevan más tiempo y son algo más complicados que con números binarios puros.
En BCD cada cifra que representa un dígito decimal (0, 1,...8 y 9) se representa con su equivalente binario en cuatro bits (nibble o cuarteto) (esto es así porque es el número de bits necesario para representar el nueve, el número más alto que se puede representar en BCD). En la siguiente tabla se muestran los códigos BCD más empleados:
http://ticcbtis86.blogspot.com/2010/12/codigo-binario.html

Codigo ASCII

Fue creado en 1963 por el Comité Estadounidense de Estándares o "ASA", este organismo cambio su nombre en 1969 por "Instituto Estadounidense de Estándares Nacionales" o "ANSI" como se lo conoce desde entonces.

Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127. 
Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma ingles.

En 1981, la empresa IBM desarrolló una extensión de 8 bits del código ASCII, llamada "pagina de código 437", en esta versión se reemplazaron algunos caracteres de control obsoletos, por caracteres gráficos. Además se incorporaron 128 caracteres nuevos, con símbolos, signos, gráficos adicionales y letras latinas, necesarias para la escrituras de textos en otros idiomas, como por ejemplo el español. Así fue como se sumaron los caracteres que van del ASCII 128 al 255.
IBM incluyó soporte a esta página de código en el hardware de su modelo 5150, conocido como "IBM-PC", considerada la primera computadora personal. El sistema operativo de este modelo, el "MS-DOS" también utilizaba el código ASCII extendido.

Casi todos los sistemas informáticos de la actualidad utilizan el código ASCII para representar caracteres, símbolos, signos y textos.


http://www.elcodigoascii.com.ar/ 

domingo, 1 de marzo de 2015

Organizacion de Datos.

Organización de Datos.
Bit es el acrónimo Binary digit (‘dígito binario’). Un bit es un dígito del sistema de numeración binario. Las unidades de almacenamiento tienen por símbolo bit .Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan solo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores: 0 o 1.El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información.
Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1.
Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:


·         0 0 - Los dos están "apagados"
·         0 1 - El primero está "apagado" y el segundo "encendido"
·         1 0 - El primero está "encendido" y el segundo "apagado"
·         1 1 - Los dos están "encendidos"


Un byte es la unidad fundamental de datos en los ordenadores personales, un byte son ocho bits contiguos. El byte es también la unidad de medida básica para memoria, almacenando el equivalente a un carácter. La arquitectura de ordenadores se basa sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos).


Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte, abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto que derivan de una base decimal de 10 números). El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch.

Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte).

Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits, pero tras la necesidad de agregar letras minúsculas, así como una mayor cantidad de símbolos y signos de puntuación, se tuvieron que idear otros modelos con mayor cantidad de bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM.

Una word es un grupo de 16 bits, el bit 0 es el bit de más bajo orden y el bit 15 es el de más alto orden. Una palabra se puede dividir en 2 bytes llamados igualmente de bajo y alto orden. También una palabra puede considerarse como un grupo de 4 nibbles.
En ciencias de la computación, Dword (en inglés double word, doble palabra) es una unidad de datos que es dos veces el tamaño de una palabra. En las plataformas x86, que tienen una longitud de palabra de 16 bits, una unidad dword tiene una longitud de 32 bits.
Qword (en 'ingles' quadruple word, cuádruple palabra) es una unidad de datos que es cuatro veces el tamaño de una palabra. En las plataformas x86, esta unidad de datos es 64 bits.

Finalmente, Intel utiliza el término DQWord (en inglés double quadruple word, doble cuadrupe palabra) para denotar datos de 128 bits, encontrado el la implementación del SSE y sus antecesores.

Mi Linea de tiempo del desarrollo histórico del computador.

http://www.dipity.com/adolfo1994/desarrollo-historico-del-computador/

Bases utilizadas

2 <- Binario
4 <- Nibble
8 <- octal
16 <- hexagesimal

cambios de base, decimal a binario
157 <- (2)

el residuo como tal de las divisiones ( 10011101 ) es lo que seria el número 157 en binario.


Cambios de base

ponderación del sistema de numeración decimal.



26741(8) <- (10)
= 1*(8)°+2*(8)1+7*(8)2+6*(8)3+2*(8)4
= 1*(1)+4*(8)+7*(64)+6*(512)+2*(4096)
= 1+32+448+3072+8193
= 11745

2A2F(H) <- (10)
= F*(16)°+2*(16)1+A*(16)2+2*(16)3
= F*(1)+2*(16)+A*(1)256+2*(4096)
= 15+36+2560+8192
= 10799

131203(4) <- (10)
= 3*(4)°+0*(4)1+2*(4)2+1*(4)3+3*(4)4+1*(4)5
= 3*(1)+0*(4)+2*(16)+1*(64)+3*(256)+1*(1024)
= 3+0+32+64+768+1024
= 1891

4125(6) <- (10)
= 5*(6)°+2*(6)1+1*(6)2+4*(6)3
= 5*(1)+2*(6)+1*(36)+4*(216)
= 5+12+36+864
= 917

121012(3) <- (10)
= 2*(3)°+1*(1)1+0*(3)2+1*(3)3+2*(3)4+1*(3)5
= 2*(1)+1*(1)+0*(9)+1*(27)+2*(81)+1*(243)
=2+1+0+27+162+243 
=435

Código Morse

Código Morse

El código Morse es un código o sistema de comunicación que permite la comunicación telegráfica a través de la transmisión de impulsos eléctricos de longitudes diversas o por medios visuales, como luz, sonoros o mecánicos. Este código consta de una serie de puntos, rayas y espacios, que al ser combinados entre si pueden formar palabras, números y otros símbolos.Este sistema de comunicación fue creado en el año 1830 por Samuel F.B. Morse, un inventor, pintor y físico proveniente de los Estados Unidos, quien pretendía encontrar un medio de comunicación telegráfica. La creación de éste código tiene su origen en la creación del señor Morse de un telégrafo, invento que le trajo bastante dificultades, ya que, en un principio, el registro de este fabuloso invento le fue negado tanto en Europa como en los Estados Unidos. Finalmente, logró conseguir el financiamiento del gobierno americano, el que le permitió construir una línea telegráfica entre Baltimore y Washington. Un año después se realizaron las primeras transmisiones, resultando éstas bastante exitosas, lo que dio pie a la formación de una enorme compañía que cubriría a todos los Estados Unidos de líneas telegráficas. Samuel F.B. Morse vivió desde 1791 hasta 1872. Para este último año, el de su muerte, el continente americano ya contaba con más de 300.000 kilómetros de líneas telegráficas que comunicaban casi todos los rincones del país.
imagen tomada de, http://es.wikipedia.org/wiki/C%C3%B3digo_morse


El punto es considerado, en el código Morse, como una unidad, que en tiempo equivale, aproximadamente a 1/25 seg. La línea, en tiempo, equivale a tres puntos. Cada letra se separa por un silencio de tres puntos de duración, mientras que cada palabra se separa por cinco puntos.