2.1.- Bits Y Sus Fundamentos

La palabra información es difícil de definir pues tiene varios significados, una forma de definirla podría ser "comunicación que tiene valor porque informa", pero no proporciona una medida unívoca y cuantitativa de la información de una situación dada, bajo esa definición la información es algo personal, cada uno puede tener una percepción personal de la información que recibe.

La teoría de la comunicación, propuesta por Claude Shannon (1916-2001), define la información como cualquier cosa que puede ser comunicada, independientemente de su valor. Lo que estás leyendo en este momento, las letras y números, son símbolos que representan información.

Los ordenadores que se emplean habitualmente son digitales, se basan en la electrónica digital, lo cual implica que la información la manejan en base a dígitos (de forma discreta), no a magnitudes que varían continuamente (que serían los ordenadores analógicos, como por ejemplo uno construido en base a tuberías, bombas y agua, que es un ordenador hidráulico). Así que estas máquinas sólo pueden tratar la información discreta y la unidad de información es el bit, abreviatura de dígito binario, que solo puede tener uno de los dos valores indicados, cero (0) y uno (1).

Ordenador analógico

Se puede pensar que un ordenador o computadora está formado por muchos conmutadores microscópicos de dos posiciones, on y off o apagado y encendido, así que usan el sistema binario. Los ordenadores habitualmente manejan bloques de bits, así que un grupo de 8 bits es un octeto o byte que puede representar 256 (2^8) mensajes diferentes. En informática una palabra son 16 bits.