Viernes, 19 Jul,2019
General / JUL 10 2016 / hace 3 años

Shannon y su aporte matemático de las tecnologías

Que las matemáticas han sido importantes para el impulso de las telecomunicaciones, los circuitos de conmutación, los computadores, la criptografía, la inteligencia artificial, la genética, etc., nos lo enseñó Claude Elwood Shannon (1916-2001) quien junto con Alan Turing y John von Neumann formularon las bases del computador y la informática.

Shannon y su aporte matemático de las tecnologías

Él desarrolló la teoría matemática que impactó en áreas tan diversas del conocimiento como las enunciadas, pero fue en la industria de las telecomunicaciones en la cual dejó más huella. Como este año se está celebrando la centuria de su natalicio, es bueno resaltar su importancia como científico. 

En su infancia, Shannon dedicaba horas y horas intentando conocer el funcionamiento de los aparatos mecánicos que estaban a su alrededor y desde temprana edad sentía inclinación por las matemáticas y la ciencias naturales. Con 16 años ingresó a la universidad de Michigan, graduándose como ingeniero electrónico y matemático en 1936. 

Además, durante su bachillerato construía aviones y barcos a escala, controlados a control remoto. También implementó un sistema telegráfico para comunicarse con un amigo que vivía a cerca de un kilómetro de su residencia. 

 

Se doctoró en matemáticas en el MIT
Después de terminar sus estudios de pregrado, aceptó un puesto de asistente en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT), y continúo sus estudios de doctorado en matemáticas.

Hizo parte del equipo de Vannevar Bush, quien construyó el analizador diferencial más completo de la época. Computador analógico que funcionaba a base de discos y engranajes y resolvía ecuaciones. En ese grupo escribió su tesis de Maestría denominada: “Análisis simbólico de relés y circuitos de conmutación”, y que presentó en agosto de 1937.

Trabajo donde mostró cómo el álgebra booleana, desarrollada por George Boole en 1854, proporcionaba el modelo matemático para los circuitos de conmutación eléctrica y los computadores, tesis que junto con su experiencia en la construcción de centralitas telefónicas le permitió ver en los relés, sistemas eléctricos que podrían hacer cálculos.

Esa idea transformó el diseño de circuitos de un arte a una ciencia y propuso un método riguroso tanto para el análisis como para el diseño de circuitos digitales, demostrando además cómo podían simplificarse.

 

Aplicó el álgebra booleana a la genética
Luego -en 1937- se vinculó con los laboratorios Bell, y allí se rodeó de grandes matemáticos y físicos como John Bardeen, Walter Brattain y William B. Shockley inventores del transistor y galardonados con el Nobel de Física 1956. En ese ambiente académico aplicó el álgebra booleana a la genética, tal como había hecho con los circuitos.

Fruto de esa investigación fue su tesis doctoral: “Un algebra para la genética teórica”. En 1940 recibió el título de Doctor en matemáticas del MIT, y el premio Alfred Nobel de la Sociedad Americana de Ingeniería civil por su tesis de Maestría.

Durante la II Guerra Mundial las comunicaciones jugaron un papel fundamental, y al final de del conflicto -1945-,  Shannon demostró que todas las fuentes de información eran medibles, sentando  las bases que impulsaron el uso del teléfono y luego el internet. La idea la plasmó en 1948 con el libro: “Una teoría matemática de la comunicación”.

En su escrito manifestaba que la información podía definirse y medirse como noción científica, algo revolucionario. Por eso es considerado el pionero de la era de la información, término que para él tiene un sentido completamente diferente del usual, -noticias de radio, TV, periódicos, etc.-, siendo mejor una unidad cuantificable que no tiene en cuenta el contenido del mensaje.

Su modelo se representa por un esquema de cinco elementos: fuente,  transmisor, canal, receptor y destino, incluyendo el ruido, que aporta una perturbación. Y propuso el siguiente esquema de comunicación: La “fuente de información” entrega un “mensaje”, que es codificado por un “transmisor” en una “señal transmitida”. La señal recibida es la suma de la señal transmitida y un inevitable “ruido”. Luego se decodifica el mensaje y llega al destino.

 

Los datos se convierten en bits
Su teoría indicaba que haciendo una buena elección de transmisor y receptor era posible enviar mensajes con una exactitud y confianza arbitrariamente elevadas, siempre y cuando el ritmo de transmisión de información no excede un límite fundamental, denominado “capacidad de canal”.

Él también propone la idea de convertir los datos (imágenes, sonidos o texto) a dígitos binarios, es decir, bits de información en código binario (0, 1). 

En 1946 publica el documento “Teoría de la comunicación de los sistemas secretos”, estableciendo la teórica para la criptografía y el criptoanálisis y definiendo las estructuras matemáticas de los sistemas de seguridad, lo que más tarde permitió cifrar la información en tarjetas de crédito, transferencias electrónicas, etc. 

Shannon fue un pensador incansable, en 1950 publicó el artículo “Programando una computadora para jugar al ajedrez”, enseñando que una computadora bien programada tendría la capacidad para jugar, lo que se ha convertido en realidad cuando grandes maestros del ajedrez y las máquinas se enfrentan.

La inteligencia artificial surgió en 1955, con el artículo “Propuesta para el proyecto de investigación Dartmounth Summer en inteligencia artificial”, en el que Shannon era coautor.  En 1966 también inventó el primer computador portátil en el MIT que predecía una ruleta. También, al final esa década y en la de 1970 se interesó en gestión de cartera y en teoría de inversión. 

 

El siglo XXI recibió su impronta

Como si fuera poco su aporte, el ingenio de este científico sigue manifestándose en este siglo en varios campos: La teoría de la complejidad algorítmica, teoría de códigos, el desarrollo de la biología molecular, la información cuántica.

El 24 febrero de 2001 falleció y en su tumba lo acompaña la formula C = W log{(P+N)/N}, que indica la capacidad de un canal de banda W perturbado con ruido térmico blanco de potencia N cuando la potencia promedio  de transmisión está limitada a P. 

Como corolario, se puede decir que además de su inmenso legado, Shannon enseñó por qué es importante una excelente formación en matemáticas para el ingenio de los ingenieros, así como para las demás áreas del conocimiento.


Por Diego Arias Serna
[email protected]
[email protected]


COMENTA ESTE ARTÍCULO

En cronicadelquindio.com está permitido opinar, criticar, discutir, controvertir, disentir, etc. Lo que no está permitido es insultar o escribir palabras ofensivas o soeces, si lo hace, su comentario será rechazado por el sistema o será eliminado por el administrador.

logo-copy-cronica
© todos los derechos reservados
Powered by: rhiss.net