o pai do bit |
Claude Elwood Shannon nasceu nos USA em 1916. Formou-se em Matem�tica e Engenharia El�trica na Universidade de Michigan, e fez seu mestrado e doutorado no MIT. Trabalhou a maior parte de sua vida nos Laborat�rios Bell e, ap�s uma rapid�ssima vida de professor, aposentou-se com cerca de 50 anos. Ainda � vivo e ativo intelectualmente ( poder�amos dizer que, principalmente, financeiramente uma vez que tem dedicado-se a desenvolver programas de an�lise do sistema financeiro de Wall Street e com os quais acabou formando um imenso capital ). Apesar de sua vida extremamente reclusa e estar afastado dos meios acad�micos � um dos mais famosos matem�ticos vivos. Este pequeno trabalho objetiva lhe dar uma id�ia da raz�o dessa fama.
Motivado por necessidades de c�lculos militares em bal�stica, o Prof. Bush do MIT
construiu em 1930 um potent�ssimo computador anal�gico eletro-mec�nico: o
analisador diferencial de Bush. Na �poca era o computador mais potente em exist�ncia
no mundo. Contudo, como todo computador anal�ogico, era uma m�quina capaz de
resolver um �nico tipo de problema, no caso: equa��es diferenciais.
Apesar disso, tinha duas inova��es que mais tarde foram decisivas para a inven��o
dos computadores eletr�nicos digitais : usava componentes eletr�nicos e
tinha certa capacidade de programa��o ( era capaz de resolver qualquer equa��o
diferencial dada desde que suas componentes fossem reconfiguradas em fun��o dessa ).
Nessa �poca, Shannon trabalhava como assistente de Bush e esse sugeriu-lhe que
tentasse fazer um estudo matem�tico procurando descobrir o princ�pio que possibilitava
o funcionamento da m�quina constru�da um tanto quanto empiricamente.
Shannon dedicando-se ao problema, descobriu que os circu�tos baseados em relays
tinham seus estados de ON ou OFF ( ie, de ligado e desligado ) regidos pelas
leis da Algebra de Boole . Mais do que isso, fazendo as associa��es:
foi capaz de mostrar como construir circu�tos baseados em relays e capazes de realizar cada uma das quatro opera��es aritm�ticas.
Hoje, em plena Era da Inform�tica, poucas pessoas s�o capazes de se dar conta de quanto enraizado estava o sistema de numera��o decimal na mente dos engenheiros da �poca. Shannon, al�m de provar a possibilidade de se construir um computador totalmente eletr�nico, foi o primeiro a atinar que os respectivos circu�tos ficavam muito mais simples ( e mais baratos ) com o abandono do sistema decimal em favor do sistema bin�rio.
Ap�s a Segunda Guerra come�aram a se multiplicar as tecnologias de transfer�ncia
de informa��o. Contudo, n�o havia uma teoria que fosse capaz de quantificar a
quantidade de informa��o que precisava ser transportada. Por exemplo, os engenheiros
de ent�o achavam que seria apenas uma quest�o de progresso tecnol�gico se
conseguir transmitir mensagens telegr�ficas com maior velocidade do que se
podia fazer na �poca. Shannon ( em 1948 ) criou uma teoria, hoje fundamental
no trabalho cotidiano em Engenharia
de Comunica��es e chamada Teoria da Informa��o, que mostrou que cada canal
de comunica��es ( seja ele um fio telegr�fico, fio telef�nico, cabo axial ou etc )
tem uma velocidade limite caracter�stica.
Por exemplo, cada linha telef�nica permite transmitir dados at� uma certa
velocidade de transmiss�o. Se precisarmos usar uma velocidade maior teremos de
usar um canal de maior velocidade limite, por exemplo um cabo de fibras �pticas.
Se insistirmos usar a linha telef�nica em velocidades maiores do que seu limite
teremos uma transmiss�o cada vez mais polu�da por erros. Hoje, esse fen�meno �
at� facilmente constat�vel por qualquer um que use seu microcomputador e modem
para fins de comunica��o.
A Teoria de Informa��o que Shannon construiu, contudo, transcende em muito as
aplica��es em comunica��es. Shannon mostrou que aos elementos b�sicos do trabalho
cient�fico, massa e energia, precisamos acrescentar um terceiro: a
informa��o.
Mais do que isso, usando a Teoria das Probabilidades, Shannon
mostrou como medir a quantidade de informa��o. Sempre dando prefer�ncia
ao sistema de numera��o bin�rio, introduziu a unidade de medida de informa��o:
o bit : binary
digit.
Dizemos que recebemos um bit de informa��o quando ficamos sabendo qual, dentre
duas alternativas equiprov�veis, a que efetivamente ocorreu.
Por exemplo:
recebemos um bit de informa��o quando soubermos qual o resultado do lance de
uma moeda, n�o viciada.
No instante que os cientistas passaram a ter condi��es de medir n�o apenas massa e energia mas tamb�m a informa��o passaram a investigar uma gama enorme de novos fen�menos nas ci�ncias biol�gicas, sociais, etc. Os engenheiros puderam desenvolver uma grande quantidade de novas tecnologias de comunica��es.
Embora sua teoria seja bastante t�cnica, vejamos um exemplo da utilidade que
tem tal unidade de informa��o. Voltemos ao problema que motivou os estudos de
Shannon: o problema da capacidade de comunica��o de um canal transmissor.
A solu��o do problema � resumida numa f�rmula, hoje b�sica da Teoria da Informa��o,
a chamada f�rmula de Shannon:
ela d� a velocidade m�xima Cmax ( em bits por segundo ) com que sinais de pot�ncia S watts podem passar por um canal de comunica��o, o qual deixa passar sem distor��o apenas os sinais de frequ�ncia at� B hertz, e o qual produz ru�dos de pot�ncia no m�ximo N watts ( e esses ru�dos s�o do tipo usual, chamado ru�do branco ).
Vejamos um exemplo num�rico importante: o caso das linhas telef�nicas anal�gicas, essas que comumente encontramos aqui no Brasil. Elas s�o constru�das para passar voz humana, frequ�ncia de at� 3 400 hertz. Consequentemente:
D� para V. come�ar a entender as limita��es do modem ligado em seu computador ?