Call Of Duty Black Ops 2 - Prestige MasterBlue Fire Pointer

martes, 17 de noviembre de 2015


Esquema Tema 2: Hardware

Bit

 Bit es el acrónimo de Binary digit. Un bit es un dígito del sistema de numeración binario. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1. El bit es la unidad mínima de información empleada en informática, con él, podemos representar dos valores cuales quiera. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Combinaciones de bits: Para representar o codificar información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles: 0 0 (Los dos están "apagados"), 0 1 (El primero está "encendido" y el segundo "apagado"), 1 0 (El primero está "apagado" y el segundo "encendido") y 1 1 (Los dos están "encendidos").
 A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Con un número n de bits pueden representarse hasta 2 n valores diferentes.



Sistema binario

 El sistema binario es un sistema de numeración en el que los números se representan utilizando las cifras cero y uno. Es el que se utiliza en las computadoras, pues trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario.
Historia del sistema binario: Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de nuestra era. Una serie de 8 trigramas y 64 hexagramas y números binarios de 6 bit, eran conocidos en la antigua china en el texto clásico del I Ching.
 En 1605 Francis Bacon habló de un sistema por el cual las letras podrían reducirse a secuencias de dígitos binarios, las cuales podrían ser codificadas como variaciones en la fuente de cualquier texto.
 En 1854, George Boole publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema desempeñaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.
realizar cálculos con números complejos. Fue la primera máquina computadora utilizada de manera remota a través de la línea de teléfono.
Representación: Un número binario puede ser representado por cualquier secuencia de bits que suelen representar cualquier mecanismo capaz de estar en dos estados mutuamente excluyentes.
Conversión entre binario y decimal: Se divide el número del sistema decimal entre 2, cuyo resultado entero se vuelve a dividir entre 2, y así sucesivamente. Ordenados los restos, del último al primero, éste será el número binario que buscamos. Por ejemplo:

 Otra forma de conversión consiste en un método parecido a la factorización en números primos. Este método consiste también en divisiones sucesivas. Dependiendo de si el número es par o impar, colocaremos un cero o un uno en la columna de la derecha. Si es impar, le restaremos uno y seguiremos dividiendo entre dos, hasta llegar a 1. Después tomamos el último resultado de la columna izquierda y todos los de la columna de la derecha y ordenamos los dígitos de abajo a arriba.


Binario a decimal: Iniciar por el lado derecho del número en binario, cada cifra multiplicándola por 2 elevado a la potencia consecutiva. Después de realizar cada una de las multiplicaciones, sume todas y el número resultante será el equivalente al sistema decimal.
 Cuando existe una parte fraccionaria binaria: Iniciar por el lado izquierdo. Cada número multiplíquelo por 2 elevado a la potencia consecutiva a la inversa (comenzando por la potencia -1, 2-1). Después de realizar cada una de las multiplicaciones, sume todas y el número resultante será el equivalente al sistema decimal.
Operaciones con números binarios:
 - Suma: Las posibles combinaciones al sumar dos bits son 0 + 0 = 0, 0 + 1 = 1, 1 + 0 = 1 y 1 + 1 = 10.
 - Resta: El algoritmo de la resta en sistema binario es el mismo que en el sistema decimal. Pero conviene repasar la operación de restar en decimal para comprender la operación binaria, que es más sencilla.  Las restas básicas son evidentes: 0 - 0 = 0, 1 - 0 = 1, 1 - 1 = 0 y  0 - 1 = 1 (se transforma en 10 - 1 = 1) (en sistema decimal equivale a 2 - 1 = 1). La resta 0 - 1 se resuelve, igual que en el sistema decimal, tomando una unidad prestada de la posición siguiente.
 - Producto: El algoritmo del producto en binario es igual que en números decimales aunque se lleva a cabo con más sencillez, ya que el 0 multiplicado por cualquier número da 0, y el 1 es el elemento neutro del producto.
 - División: La división en binario es similar a la decimal; la única diferencia es que a la hora de hacer las restas, dentro de la división, éstas deben ser realizadas en binario.
Conversión entre binario y octal: Para realizar la conversión de binario a octal hay que agrupar la cantidad binaria en grupos de 3 en 3 iniciando por el lado derecho. Si al terminar de agrupar no completa 3 dígitos, entonces agregamos ceros a la izquierda. Posteriormente tienes que ver el valor que corresponde de acuerdo a la tabla (colocada debajo de la explicación) y agrupar la cantidad correspondiente en octal de izquierda a derecha.


Byte

 Byte es una palabra inglesa que la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits). Para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente.
Escala: En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.
Significado: Secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
Historia: El término byte fue acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte. Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE.
 Los primeros microprocesadores, como el Intel 8008 podían realizar un número pequeño de operaciones en 4 bits, como la instrucción DAA (ajuste decimal) y el flag "half carry" que eran utilizados para implementar rutinas de aritmética decimal. Estas cantidades de cuatro bits se llamaron "nibbles" en honor al equivalente de 8 bits "bytes".
Palabras alternativas: Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en Redes Informáticas y Telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML.
Abreviaturas/Símbolos: El IEEE 1541 y el MIXF especifican "B" como el símbolo para el byte, mientras que el IEC 60027 permanece en silencio en este tema. Además, B significa bel, una unidad logarítmica utilizada en el mismo campo.
 Los países francófonos utilizan una o minúscula para "octeto". Es posible referirse a estas unidades indistintamente como ko, Mo, o kB, MB. Esto no se permite en el SI por el riesgo de confusión con el cero, aunque esa es la forma empleada en la versión francesa del estándar ISO/IEC 80000-13:2008.

ASCII

 El código ASCII (Código Estadounidense Estándar para el Intercambio de Información), es un
código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares como una evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
 ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración.
Vista general: Las computadoras solamente entienden números. El código ASCII es una representación numérica de un carácter.
 ASCII es un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres. En el momento en el que se introdujo el código ASCII muchos ordenadores trabajaban con grupos de ocho bits como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo. Las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos. El código ASCII define una relación entre caracteres específicos y secuencias de bits; además de reservar unos cuantos códigos de control para el procesador de textos, y no define ningún mecanismo para describir la estructura o la apariencia del texto en un documento.

No hay comentarios:

Publicar un comentario