Claude Shannon: el padre de la teoría de la información

Por Evelio Martínez

MUNDO DIGITAL
 
“La información es la resolución a la incertidumbre”
Claude Shannon
Introducción
Las tecnologías de la información y las comunicaciones como las conocemos hoy en día no hubieran sido posibles sin la teoría matemática que desarrolló Claude Shannon. Sus investigaciones tuvieron impacto en diversas áreas del conocimiento, pero fue en la industria de las telecomunicaciones donde sus teorías tuvieron más impacto y relevancia.
 
Antecedentes
Claude Elwood Shannon nació en Petoskey, Michigan, EUA en 1916. Los primeros dieciséis años de vida de Shannon, los pasó en Gaylord, Michigan, donde estudió la educación básica y posteriormente se graduó de la preparatoria en la Gaylord High School en 1932. 
 
Durante su época de estudiante siempre mostró interés por las matemáticas y las ciencias. En su casa le gustaba construir aviones y botes a escala controlados a control remoto. También construyó un sistema telegráfico para comunicarse con un amigo que vivía a menos de un kilómetro de distancia. Durante su niñez, Thomas Edison fue uno de sus héroes. 
 
En 1932 ingresa a la Universidad de Michigan donde se graduó en 1936 con dos títulos, uno en Ingeniería electrónica y otro en matemáticas. Finalmente, en 1940, recibe el grado de Doctor en matemáticas en el Instituto Tecnológico de Massachusetts (MIT).
 
La teoría de la información
Shannon comenzó sus investigaciones sobre los fundamentos de la teoría de la información en los Laboratorios Bell, donde ingresó a laborar en 1942. Esta teoría se refiere principalmente a definir una medida cuantitativa de información y utilizar ésta para resolver los problemas relativos. El cual incluye el conocido “Teorema de la máxima capacidad de un canal” y el como transferir información de un punto fuente a un destino, independiente del medio de comunicación, ya sea teléfono, telégrafo, televisión, radio, etc.. 
 
Para resolver este problema, Shannon definió un marco de trabajo y las matemáticas para la teoría de la información en un documento titulado “A Mathematical Theory of Communication”. En este documento se propone la idea de convertir los datos (e.g. imágenes, sonidos o texto) a dígitos binarios, esto es, bits de información en código binario (0, 1). La información es entonces transmitida sobre el medio de comunicación. Los errores o el ruido podrán ser introducidos durante la transmisión, y el objetivo es reducirlos o corregirlos. La información binaria recibida es entonces convertida de nuevo al medio de comunicación. Su primer teorema (teorema de codificación de la fuente) establece que la velocidad de información está basada en su entropía. El cuál este último concepto fue otra de sus contribuciones a las telecomunicaciones.
 
Por esta notable contribución, a Shannon se le considera el padre de las comunicaciones digitales o la teoría de la información. Esta teoría revolucionó las comunicaciones en esa época, ya que la máxima velocidad de información a través de un canal estaba relacionada con otros factores y no sobre el concepto de información.
 
Otras contribuciones
Una de sus primeras contribuciones a la Ciencia y Tecnología fue la aplicabilidad del álgebra booleana para simplificar el diseño de los circuitos (eléctricos y electrónicos) de ese entonces y los conmutadores telefónicos. Shannon mostró que el álgebra Booleana, desarrollada por George Boole en 1854, proveía el modelo matemático para los circuitos de conmutación eléctrica y las computadoras.
 
Shannon también contribuyó en el campo de la criptografía, utilizada para cifrar información en miles de aplicaciones en la actualidad como tarjetas de crédito, acceso a sistemas, transferencias electrónicas, etc. En el documento “Communication Theory of Secrecy Systems (1949)” establece una base teórica para la Criptografía y para el criptoanálisis y define las estructuras  matemáticas básicas de los sistemas de seguridad.
 
Shannon también hizo contribuciones a la genética, también inventó un motor para jugar ajedrez por computadora.
 
Alan Turing, en una visita a Estados Unidos (EUA) durante la segunda guerra mundial,  se reunió con Shannon y trabajaron juntos durante dos meses. Ambos científicos estaban interesados en la posibilidad de construir una máquina que pudiera imitar el cerebro humano. Aunque sólo quedó en una idea, ambos conjuntaron sus conocimientos para construir un mecanismo seguro de comunicación  para el presidente de los EUA Franklin D. Roosevelt se pudiera comunicar, a través del Atlántico, con el primer ministro británico Winston Churchill.
 
Durante su carrera recibió muchos honores y premios, escribió cientos de documentos científicos en muchas áreas del conocimiento. 
 
Claude Shannon murió el 27 de febrero de 2001, a la edad de 84 años, en Medford Massachussets, después de una larga pelea con la enfermedad de Alzheimer. Le sobreviven 2 hijos y su esposa Elizabeth Moore, con quien contrajo nupcias en 1949.
 
-------------------------
El autor es docente-investigador de la carrera de Lic. en Ciencias Computacionales de la Facultad de Ciencias de la UABC.
-------------------------
 
 

 

Hits: 3657