Lenguaje de la PC
Sistema
Binario: Historia
El antiguo matemático Indio Pingala
presentó la primera descripción que se conoce de un sistema de numeración
binario en el siglo tercero antes de Cristo, lo cual coincidió con su descubrimiento del concepto del número cero.
El sistema binario moderno fue
documentado en su totalidad por Leibniz en el siglo XVII en su artículo "Explication de
l'Arithmétique Binaire". Leibniz usó el 0 y el 1, al igual que el sistema de numeración binario actual.
En 1854, el matemático británico
George Boole, publ icó un artículo que marcó un antes y un después, detallando un sistema de lógica
que terminaría denominándose Álgebra de
Boole. Dicho sistema jugaría un
papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de
circuitos electrónicos.
En 1937, Claude Shannon realizó su
tesis doctoral en el MIT, en la cual implementaba el
Álgebra de Boole y aritmética
binaria utilizando re lés y conmutadores por primera vez en la historia. Titulada Un Análisis Simbólico de
Circuitos Conmutadores y Relés, la tesis de
Shannon básicamente fundó el diseño
práctico de circuitos d igitales.
En noviembre de 1937, George
Stibitz, trabajando por aquel entonces en los Laboratorios
Bell, construyó un ordenador basado
en relés - al cual apodó "Modelo K" (porque lo construyó en una cocina, en inglés
"kitchen")- que utilizaba la suma binaria para realizar los cálculos. Los Laboratorios Bell autorizaron
un completo programa de investigación a finales
de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el
diseño de una
Calculadora de Números Complejos,
la cual era capaz de realizar cálculos con números complejos. En una demostración en la
conferencia de la Sociedad Americana de
Matemáticas, el 11 de septiembre de
1940, Stibitz logró enviar comandos de manera remota a la Calculadora de Números Complejos a
través de la línea telefónica mediante un teletipo.
Fue la primera máq uina computadora
utilizada de manera remota a través de la línea de teléfono. Algunos participantes de la
conferencia que presenciaron la demostración fueron
John Von Neumann, John Mauchly y
Norbert Wiener, el cual escribió acerca de dicho suceso en sus diferentes tipos de memorias en
la cual alcanzo diferentes logros.
Archivo
Binario
Un Archivo binario es un archivo
informático que contiene información de cualquier tipo, codificada en forma binaria para el propósito
de almacenamiento y procesamiento en ordenadores.
Por ejemplo los archivos informáticos que almacenan texto formateado o fotografías.
Bit, lo más pequeño del lenguaje
Bit es el acrónimo de Binary digit.
(dígito binario). Un bit es un dígito del sistema de numeración binario. La Real Academia Española
(RAE) ha aceptado la palabra bit con el plural
bits.
Mientras que en nuestro sistema de
numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit
o dígito binario puede representar uno de esos
dos valores, 0 ó 1.
Origen del termino Bit
Claude E. Shannon primero usó la
palabra bit en un trabajo académico de 1948. Él atribuyó su origen a John W. Tukey, que había escrito
una nota en los laboratorios Bell el 9 de enero
de 1947 en la cual contrajo las palabras "binary digit"
(dígito binario) a simplemente "bit",
formando una palabra combinada.
Octeto
o Byte
Voz inglesa, se pronuncia báit, que
si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits,
para fines correctos, un byte debe ser considerado
como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea
definido. Se usa comúnmente como unidad básica
de almacenamiento de información en combinación con los prefijos de cantidad.
Los prefijos kilo, mega, giga, etc.
se consideran múltiplos de 1024 en lugar de múltiplos de
1000. Esto es así porque 1024 es la
potencia de 2 (210) más cercana a 1000. Se utiliza una potencia de dos porque la computadora
trabaja en un sistema binario.
Sin embargo, para el SI, los
prefijos mantienen su significado usual de potencias de mil.
Así:
Codificación
del sistema Binario:
American Standard Code for
Information Interchange El código ASCII (acrónimo inglés de American Standard
Code for Information Interchange
— Código Estadounidense Estándar
para el Intercambio de Información), pronunciado generalmente [áski], es un
código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas
occidentales. Fue creado en 1963 por el Comité
Estadounidense de Estándares (ASA,
conocido desde 1 969 como el Instituto
Esta dounidense de Estándares
Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces
en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se
redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
Tabla
de Caracteres ASCII
Como hemos visto anteriormente la
tabla sirve para funciones internas de codificación, pero también el usuario puede utilizar esta tabla
para poder introducir un código ASCII (Letra,
Símbolo o Número) en un procesador
de texto o DOS, por ejemplo la letra Ñ, suele tener problemas si se configura
mal el teclado, utilizando el código ASCII, presionando la tecla ALT +
el código del carácter nos da
automáticamente el código en pantalla.
No hay comentarios:
Publicar un comentario