lunes, 30 de marzo de 2015
Diagrama de flujo
lunes, 23 de marzo de 2015
Unidad aritmetico logica
conocida por su sigla ALU, es una parte del pc, donde en su interior encontramos circuitos digitales que realizan operaciones lógicas y aritméticas como son : aritméticas ( suma, resta, multiplicación, división entre otras) y lógicas ( si, y, o, no ), operaciones de desplazamiento, ALU es una sigla en ingles por tanto significaría algo como esto ( arithmetic logic unit ), las operaciones se realizan con dos operando y estos se realizan cargando los operando en el acumulador AC.

imagen tomada de:
http://es.wikipedia.org/wiki/Unidad_aritm%C3%A9tico_l%C3%B3gica
A, B: son datos de entrada
F: es la unidad de entrada de control
R: salida
D: estado de la salida
la ALU siendo específicos la encontramos dentro del procesador ya que los circuitos de los procesadores son muy complejos, rápidos y potentes por eso podemos realizar ejercicios muy complejos y en parte en gracias a la ALU. por tanto si un procesador pose 4 núcleos en su interior, estos a su vez una ALU cada uno. la ALU se compone básicamente de circuitos operacionales, registros de entrada y registros(A, B) de acumulador (AC) y un también registros de estados, la mayoría de las acciones de la computadora son realizadas por la ALU este toma datos del registro del procesador estos son procesados y el resultado de dichas operaciones se almacena en los registros de la salida ALU ( R), la ALU no funciona por si sola esta recibe ordenes de una unidad de control quien le dice a la ALU que operaciones debe realizar.

imagen tomada de:
http://es.wikipedia.org/wiki/Unidad_aritm%C3%A9tico_l%C3%B3gica
A, B: son datos de entrada
F: es la unidad de entrada de control
R: salida
D: estado de la salida
la ALU siendo específicos la encontramos dentro del procesador ya que los circuitos de los procesadores son muy complejos, rápidos y potentes por eso podemos realizar ejercicios muy complejos y en parte en gracias a la ALU. por tanto si un procesador pose 4 núcleos en su interior, estos a su vez una ALU cada uno. la ALU se compone básicamente de circuitos operacionales, registros de entrada y registros(A, B) de acumulador (AC) y un también registros de estados, la mayoría de las acciones de la computadora son realizadas por la ALU este toma datos del registro del procesador estos son procesados y el resultado de dichas operaciones se almacena en los registros de la salida ALU ( R), la ALU no funciona por si sola esta recibe ordenes de una unidad de control quien le dice a la ALU que operaciones debe realizar.
lunes, 2 de marzo de 2015
Decimal codificado en binario
En sistemas de computación, Binary-Coded Decimal (BCD) o Decimal codificado en binario es un estándar para representar números decimales en el sistema binario, en donde cada dígito decimal es codificado con una secuencia de 4 bits. Con esta codificación especial de los dígitos decimales en el sistema binario, se pueden realizar operaciones aritméticas como suma, resta, multiplicación y división de números en representación decimal, sin perder en los cálculos la precisión ni tener las inexactitudes en que normalmente se incurre con las conversiones de decimal a binario puro y de binario puro a decimal. La conversión de los números decimales a BCD y viceversa es muy sencilla, pero los cálculos en BCD se llevan más tiempo y son algo más complicados que con números binarios puros.
En BCD cada cifra que representa un dígito decimal (0, 1,...8 y 9) se representa con su equivalente binario en cuatro bits (nibble o cuarteto) (esto es así porque es el número de bits necesario para representar el nueve, el número más alto que se puede representar en BCD). En la siguiente tabla se muestran los códigos BCD más empleados:
http://ticcbtis86.blogspot.com/2010/12/codigo-binario.htmlCodigo ASCII
Fue creado en 1963 por el Comité Estadounidense de Estándares o "ASA", este organismo cambio su nombre en 1969 por "Instituto Estadounidense de Estándares Nacionales" o "ANSI" como se lo conoce desde entonces.
Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127.
Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma ingles.
En 1981, la empresa IBM desarrolló una extensión de 8 bits del código ASCII, llamada "pagina de código 437", en esta versión se reemplazaron algunos caracteres de control obsoletos, por caracteres gráficos. Además se incorporaron 128 caracteres nuevos, con símbolos, signos, gráficos adicionales y letras latinas, necesarias para la escrituras de textos en otros idiomas, como por ejemplo el español. Así fue como se sumaron los caracteres que van del ASCII 128 al 255.
IBM incluyó soporte a esta página de código en el hardware de su modelo 5150, conocido como "IBM-PC", considerada la primera computadora personal. El sistema operativo de este modelo, el "MS-DOS" también utilizaba el código ASCII extendido.
Casi todos los sistemas informáticos de la actualidad utilizan el código ASCII para representar caracteres, símbolos, signos y textos.
http://www.elcodigoascii.com.ar/
Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127.
Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma ingles.
En 1981, la empresa IBM desarrolló una extensión de 8 bits del código ASCII, llamada "pagina de código 437", en esta versión se reemplazaron algunos caracteres de control obsoletos, por caracteres gráficos. Además se incorporaron 128 caracteres nuevos, con símbolos, signos, gráficos adicionales y letras latinas, necesarias para la escrituras de textos en otros idiomas, como por ejemplo el español. Así fue como se sumaron los caracteres que van del ASCII 128 al 255.
IBM incluyó soporte a esta página de código en el hardware de su modelo 5150, conocido como "IBM-PC", considerada la primera computadora personal. El sistema operativo de este modelo, el "MS-DOS" también utilizaba el código ASCII extendido.
Casi todos los sistemas informáticos de la actualidad utilizan el código ASCII para representar caracteres, símbolos, signos y textos.
http://www.elcodigoascii.com.ar/
domingo, 1 de marzo de 2015
Organizacion de Datos.
Organización de Datos.
Bit es el acrónimo Binary digit (‘dígito binario’). Un bit es un dígito
del sistema de numeración binario. Las unidades de almacenamiento tienen por
símbolo bit .Mientras que en el sistema de numeración decimal se usan diez
dígitos, en el binario se usan solo dos dígitos, el 0 y el 1. Un bit o dígito
binario puede representar uno de esos dos valores: 0 o 1.El bit es la unidad
mínima de información empleada en informática, en cualquier dispositivo
digital, o en la teoría de la información.
Con él, podemos representar dos valores cuales quiera, como verdadero o
falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino,
rojo o azul, etc. Basta con asignar uno de esos valores al estado de
"apagado" (0), y el otro al estado de "encendido" (1).Con
un bit podemos representar solamente dos valores, que suelen representarse como
0, 1.
Para representar o codificar más información en un dispositivo digital,
necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro
combinaciones posibles:
· 0 0 - Los dos están
"apagados"
· 0 1 - El primero está
"apagado" y el segundo "encendido"
· 1 0 - El primero está
"encendido" y el segundo "apagado"
· 1 1 - Los dos están
"encendidos"
Un byte es la unidad fundamental de datos en los ordenadores
personales, un byte son ocho bits contiguos. El byte es también la unidad de
medida básica para memoria, almacenando el equivalente a un carácter. La
arquitectura de ordenadores se basa sobre todo en números binarios, así que los
bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere
llamar los grupos de ocho bits octetos).
Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte,
abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto
que derivan de una base decimal de 10 números). El término byte fue acuñado por
Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030
Stretch.
Originalmente fue definido en instrucciones de 4 bits, permitiendo
desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este
hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte).
Los equipos típicos de E/S de este periodo utilizaban unidades de seis
bits, pero tras la necesidad de agregar letras minúsculas, así como una mayor
cantidad de símbolos y signos de puntuación, se tuvieron que idear otros
modelos con mayor cantidad de bits. Un tamaño fijo de byte de 8 bits se adoptó
posteriormente y se promulgó como un estándar por el IBM.
Una word es un grupo de 16 bits, el bit 0 es el bit de más bajo orden y
el bit 15 es el de más alto orden. Una palabra se puede dividir en 2 bytes
llamados igualmente de bajo y alto orden. También una palabra puede
considerarse como un grupo de 4 nibbles.
En ciencias de la computación, Dword (en inglés double word, doble
palabra) es una unidad de datos que es dos veces el tamaño de una palabra. En
las plataformas x86, que tienen una longitud de palabra de 16 bits, una unidad
dword tiene una longitud de 32 bits.
Qword (en 'ingles' quadruple word, cuádruple palabra) es una unidad de
datos que es cuatro veces el tamaño de una palabra. En las plataformas x86,
esta unidad de datos es 64 bits.
Finalmente, Intel utiliza el término DQWord (en inglés double quadruple
word, doble cuadrupe palabra) para denotar datos de 128 bits, encontrado el la
implementación del SSE y sus antecesores.
Bases utilizadas
Cambios de base
ponderación del sistema de numeración decimal.
= 1*(8)°+2*(8)1+7*(8)2+6*(8)3+2*(8)4
= 1*(1)+4*(8)+7*(64)+6*(512)+2*(4096)
= 1+32+448+3072+8193
= 11745
2A2F(H) <- (10)
= F*(16)°+2*(16)1+A*(16)2+2*(16)3
= F*(1)+2*(16)+A*(1)256+2*(4096)
= 15+36+2560+8192
= 10799
131203(4) <- (10)
= 3*(4)°+0*(4)1+2*(4)2+1*(4)3+3*(4)4+1*(4)5
= 3*(1)+0*(4)+2*(16)+1*(64)+3*(256)+1*(1024)
= 3+0+32+64+768+1024
= 1891
4125(6) <- (10)
= 5*(6)°+2*(6)1+1*(6)2+4*(6)3
= 5*(1)+2*(6)+1*(36)+4*(216)
= 5+12+36+864
= 917
121012(3) <- (10)
= 2*(3)°+1*(1)1+0*(3)2+1*(3)3+2*(3)4+1*(3)5
= 2*(1)+1*(1)+0*(9)+1*(27)+2*(81)+1*(243)
=2+1+0+27+162+243
=435
Código Morse
Código Morse
El código Morse es un código o
sistema de comunicación que permite la comunicación telegráfica a través de la
transmisión de impulsos eléctricos de longitudes diversas o por medios
visuales, como luz, sonoros o mecánicos. Este código consta de una serie de
puntos, rayas y espacios, que al ser combinados entre si pueden formar
palabras, números y otros símbolos.Este sistema de comunicación fue creado en
el año 1830 por Samuel F.B. Morse, un inventor, pintor y físico proveniente de
los Estados Unidos, quien pretendía encontrar un medio de comunicación
telegráfica. La creación de éste código tiene su origen en la creación del
señor Morse de un telégrafo, invento que le trajo bastante dificultades, ya
que, en un principio, el registro de este fabuloso invento le fue negado tanto
en Europa como en los Estados Unidos. Finalmente, logró conseguir el
financiamiento del gobierno americano, el que le permitió construir una línea
telegráfica entre Baltimore y Washington. Un año después se realizaron las
primeras transmisiones, resultando éstas bastante exitosas, lo que dio pie a la
formación de una enorme compañía que cubriría a todos los Estados Unidos de
líneas telegráficas. Samuel F.B. Morse vivió desde 1791 hasta 1872. Para este
último año, el de su muerte, el continente americano ya contaba con más de
300.000 kilómetros de líneas telegráficas que comunicaban casi todos los
rincones del país.
imagen tomada de,
http://es.wikipedia.org/wiki/C%C3%B3digo_morse
El punto es considerado, en el
código Morse, como una unidad, que en tiempo equivale, aproximadamente a 1/25
seg. La línea, en tiempo, equivale a tres puntos. Cada letra se separa por un
silencio de tres puntos de duración, mientras que cada palabra se separa por
cinco puntos.
Suscribirse a:
Entradas (Atom)