Translate

Lenguaje de la PC


Lenguaje de la PC





Sistema Binario: Historia

El antiguo matemático Indio Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de Cristo, lo cual coincidió con su  descubrimiento del concepto del número cero.
El sistema binario moderno fue documentado en su totalidad por Leibniz en el siglo XVII en  su artículo "Explication de l'Arithmétique Binaire". Leibniz usó el 0 y el 1, al igual que el  sistema de numeración binario actual.
En 1854, el matemático británico George Boole, publ icó un artículo que marcó un antes y  un después, detallando un sistema de lógica que terminaría denominándose Álgebra de
Boole. Dicho sistema jugaría un papel fundamental en el desarrollo del sistema binario  actual, particularmente en el desarrollo de circuitos electrónicos.
En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el
Álgebra de Boole y aritmética binaria utilizando re lés y conmutadores por primera vez en la  historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de
Shannon básicamente fundó el diseño práctico de circuitos d igitales.
En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios
Bell, construyó un ordenador basado en relés - al cual apodó "Modelo K" (porque lo  construyó en una cocina, en inglés "kitchen")- que utilizaba la suma binaria para realizar los  cálculos. Los Laboratorios Bell autorizaron un completo programa de investigación a finales  de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de una
Calculadora de Números Complejos, la cual era capaz de realizar cálculos      con números  complejos. En una demostración en la conferencia de la Sociedad Americana de
Matemáticas, el 11 de septiembre de 1940, Stibitz logró enviar comandos de manera remota  a la Calculadora de Números Complejos a través de la línea telefónica mediante un teletipo.
Fue la primera máq uina computadora utilizada de manera remota a través de la línea de  teléfono. Algunos participantes de la conferencia que presenciaron la demostración fueron
John Von Neumann, John Mauchly y Norbert Wiener, el cual escribió acerca de dicho  suceso en sus diferentes tipos de memorias en la cual alcanzo diferentes logros.

Archivo Binario


Un Archivo binario es un archivo informático que contiene información de cualquier tipo,  codificada en forma binaria para el propósito de almacenamiento y procesamiento en  ordenadores. Por ejemplo los archivos informáticos que almacenan texto formateado o  fotografías.
Bit, lo más pequeño del lenguaje
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de  numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el  plural bits.
Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario  se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos  dos valores, 0 ó 1.
Origen del termino Bit
Claude E. Shannon primero usó la palabra bit en un trabajo académico de 1948. Él atribuyó  su origen a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero  de 1947 en la cual contrajo las palabras "binary digit" (dígito binario) a simplemente "bit",  formando una palabra combinada.



Octeto o Byte


Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como  equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser  considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de  información o código de caracteres en que sea definido. Se usa comúnmente como unidad  básica de almacenamiento de información en combinación con los prefijos de cantidad.
Los prefijos kilo, mega, giga, etc. se consideran múltiplos de 1024 en lugar de múltiplos de
1000. Esto es así porque 1024 es la potencia de 2 (210) más cercana a 1000. Se utiliza  una potencia de dos porque la computadora trabaja en un sistema binario.
Sin embargo, para el SI, los prefijos mantienen su significado usual de potencias de mil.
Así:




Codificación del sistema Binario:

American Standard Code for Information Interchange El código ASCII (acrónimo inglés de American Standard Code for Information Interchange
— Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa  en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité
Estadounidense de Estándares (ASA, conocido desde 1 969 como el Instituto
Esta dounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de  los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el  código conocido como US-ASCII.


Tabla de Caracteres ASCII

Como hemos visto anteriormente la tabla sirve para funciones internas de codificación, pero  también el usuario puede utilizar esta tabla para poder introducir un código ASCII (Letra,
Símbolo o Número) en un procesador de texto o DOS, por ejemplo la letra Ñ, suele tener problemas si se configura mal el teclado, utilizando el código ASCII, presionando la tecla ALT +
el código del carácter nos da automáticamente el código en pantalla.




No hay comentarios:

Publicar un comentario