„Clau­de Shan­non był tym, któ­ry jako pierw­szy uchy­lił drzwi do cyfro­we­go świata.”
dr inż. Jerzy Mieścicki

Clau­de Elwo­od Shan­non uro­dził się w Gay­lord w sta­nie Michi­gan w 1916 r. jako syn przed­się­bior­cy i nauczy­ciel­ki. Bez wąt­pie­nia był cudow­nym dziec­kiem – został jed­nym z naj­wy­bit­niej­szych uczo­nych XX w., tej mia­ry, co Albert Einstein.
W wie­ku 20 lat Clau­de uzy­skał dwa dyplo­my ukoń­cze­nia stu­diów na uni­wer­sy­te­cie Michi­gan: z inży­nie­rii elek­trycz­nej oraz mate­ma­ty­ki (licen­cjat).

źró­dło: UM Ben­tley Histo­ri­cal Library

Już rok póź­niej (1937 r.) Clau­de Shan­non ukoń­czył stu­dia magi­ster­skie w Mas­sa­chu­setts Insti­tu­te of Tech­no­lo­gy (MIT). W pra­cy dyplo­mo­wej wyka­zał, że ope­ra­cje logicz­ne moż­na wyko­ny­wać za pomo­cą prze­łącz­ni­ków, któ­re otwie­ra­ją lub zamy­ka­ją obwód elek­trycz­ny (bram­ki logicz­ne). Było to prak­tycz­ne zasto­so­wa­nie alge­bry logi­ki opi­sa­nej sto lat wcze­śniej przez Geo­r­ge­’a Boole­’a. W tej samej pra­cy Shan­non poka­zał, jak gru­pu­jąc odpo­wied­nie bram­ki logicz­ne moż­na budo­wać ukła­dy wyko­nu­ją­ce ope­ra­cje aryt­me­tycz­ne (np. sumatory).

W MIT w roku 1940 Clau­de Shan­non obro­nił dok­to­rat. W swej pra­cy zaj­mo­wał się alge­bra­icz­ny­mi mode­la­mi w genetyce.

W 1943 r. przez kil­ka mie­się­cy współ­pra­co­wał z Ala­nem Turin­giem. Opra­co­wa­li wspól­nie sys­tem cyfro­we­go kodo­wa­nia mowy (celem było szy­fro­wa­nie roz­mów tele­fo­nicz­nych na naj­wyż­szym szcze­blu poli­ty­ki; pro­jekt nie został jed­nak wdrożony).

Jesz­cze pod koniec lat 30. Clau­de Shan­non zain­te­re­so­wał się zagad­nie­niem prze­sy­ła­nia infor­ma­cji na odle­głość (komu­ni­ka­cją). Ist­nia­ło wów­czas już wie­le tech­nik opra­co­wa­nych przez inży­nie­rów. Geniusz Shan­no­na pozwo­ił mu na to, by roz­pa­try­wać zagad­nie­nie komu­ni­ka­cji w kate­go­riach abs­trak­cyj­nych, w ode­rwa­niu od fizycz­ne­go medium (środ­ka komunikacji).
Naj­pierw w 1947 r. samo­dziel­nie, a w 1948 r. wspól­nie z War­re­nem Weave­rem, swo­im men­to­rem, Shan­non opi­sał w arty­ku­łach nauko­wych mate­ma­tycz­ną teo­rię infor­ma­cji i komu­ni­ka­cji, któ­ra sta­no­wi­ła, jak się oka­za­ło, pod­wa­li­ny do roz­wo­ju ery cyfrowej.

Ogól­na idea była wystar­cza­ją­co pro­sta, by Shan­non mógł ją przed­sta­wić za pomo­cą dwu­oso­bo­wej gry „Pię­ciu pytań”: Pierw­szy z gra­czy wybie­ra w myśli jed­ną z liter alfa­be­tu. Dru­gi z gra­czy pró­bu­je ją odgad­nąć, zada­jąc pyta­nia w rodza­ju „Czy ta lite­ra poprze­dza w alfa­be­cie lite­rę L?”. Shan­non użył tej gry, aby zwró­cić uwa­gę na to, ze wystar­czy nie wię­cej niż pięć pytań, aby „odgad­nąć” dowol­ną lite­rę alfa­be­tu z języ­ka angiel­skie­go. Jeśli odpo­wie­dzi („tak” lub „nie”) pro­wa­dzą­cych do zna­le­zie­nia wła­ści­wej lite­ry na kolej­ne pyta­nia zapi­sać jako ciąg cyfr (odpo­wied­nio 1 lub 0), a następ­nie zako­do­wać go jako ciąg impul­sów prą­du elek­trycz­ne­go (obwód „zamknię­ty” lub „otwar­ty”). Pod­sta­wo­wy poję­ciem w tej teo­rii kodów binar­nych było wymia­ro­wa­nie infor­ma­cji, a pod­sta­wo­wą jed­nost­ką mia­ry infor­ma­cji wpro­wa­dzo­nej – bit (ang. bina­ry infor­ma­tion unit).

Film pt. Mate­ma­tycz­na teo­ria infor­ma­cji z zaso­bów Kha­nA­ca­de­my­Po­Pol­sku 

Trud­no prze­ce­nić zna­cze­nie ww. publi­ka­cji. Sta­no­wi­ły zbiór twier­dzeń mate­ma­tycz­nych, któ­re bez­po­śred­nio odno­si­ły się do nie­za­wod­no­ści komu­ni­ka­cji (np. odpor­no­ści na zakłó­ce­nia atmos­fe­rycz­ne lub pocho­dzą­ce z innych źró­deł). Shan­non i Weaver wyka­za­li, ze dzię­ki zasto­so­wa­niu wła­ści­we­go spo­so­bu kodo­wa­nia infor­ma­cji moż­na ją prze­sy­łać na odle­głość w spo­sób niezawodny.
Ogra­ni­cze­nie nało­żo­ne przez natu­rę wią­że się jedy­nie z koniecz­no­ścią ist­nie­nia tzw. kana­łu komu­ni­ka­cji (środ­ka komunikacji).

Isto­tą teo­rii infor­ma­cji, sfor­mu­ło­wa­nej przez Shan­no­na, jest poję­cie nie­pew­no­ści. Im więk­sze jest praw­do­po­do­bień­stwo zakłó­ceń (tzw. szu­mu) w komu­ni­ka­cji na dro­dze mie­dzy nadaw­cą i odbior­cą, tym bar­dziej wyszu­ka­nej (zło­żo­nej) meto­dy zapi­su infor­ma­cji (kodo­wa­nia) trze­ba użyć.
Mia­ra zależ­no­ści mię­dzy zło­żo­no­ścią kodu a stop­niem nie­za­wod­no­ści komu­ni­ka­cji jest tym, co Clau­de Shan­non nazy­wał entro­pią.

Pra­wa opi­sa­ne przez Shan­no­na mia­ły ogrom­ne prak­tycz­ne zna­cze­nie dla inży­nie­rów i kon­struk­to­rów. W efek­cie umoż­li­wi­ły choć­by prze­kaz (na żywo) obra­zu tele­wi­zyj­ne­go z Księ­ży­ca w 1969 roku. Trze­ba pod­kre­ślić, że mate­ma­tycz­ne twier­dze­nia Shan­no­na są uni­wer­sal­ne, a ich zasto­so­wa­nia nie ogra­ni­cza­ją się wyłącz­nie do świa­ta inży­nie­rii elektrycznej.
To, co Shan­non nazy­wał kodo­wa­niem źró­dła, dziś nazy­wa się kom­pre­so­wa­niem danych (kto „zipo­wał” plik, widział kodo­wa­nie danych na żywo). To, co nazy­wał kodo­wa­niem kana­łu, dziś w prak­ty­ce reali­zu­je się jako kody korekcyjne.

***

Clau­de Shan­non pra­co­wał w labo­ra­to­rium badaw­czym Bell fir­my tele­ko­mu­ni­ka­cyj­nej AT&T od 1941 r. do 1956 r., potem objął sta­no­wi­sko pro­fe­so­ra w MIT. Tam pra­co­wał aż do eme­ry­tu­ry w 1978 r. Był nauczy­cie­lem pierw­szej gene­ra­cji bada­czy sztucz­nej inteligencji.

Na prze­ło­mie lat 40. i 50. Clau­de Shan­non opu­bli­ko­wał pio­nier­skie arty­ku­ły o mate­ma­tycz­nej teo­rii sys­te­mów kryp­to­gra­ficz­nych oraz o teo­rii prze­twa­rza­nia języ­ka natu­ral­ne­go. W 1950 r. opi­sał kom­bi­na­to­rycz­ne zasa­dy dzia­ła­nia pro­gra­mu kom­pu­te­ro­we­go, któ­ry był­by zdol­ny do gry w szachy.
Shan­non był jed­nym ze współ­au­to­rów twier­dze­nia mate­ma­tycz­ne­go, roz­wią­zu­ją­ce­go pro­blem efek­tyw­ne­go prób­ko­wa­nia sygna­łu dźwię­ko­we­go, któ­re­go celem jest cyfro­wy zapis dźwię­ku. To on opi­sał też spo­sób na ope­ra­cję odwrot­ną: kon­wer­sję cyfrowo-analogową, czy­li rekon­struk­cję sygna­łu cią­głe­go z cią­gu cyfro­wych pró­bek, nie­zbęd­nej do odtwo­rze­nia dźwię­ku (np. w głośnikach).

Clau­de E. Shan­non zmarł w 2001 r., w wie­ku 84 lat. Nie­ste­ty cho­ro­ba Alzhe­ime­ra w ostat­nich latach życia nie pozwo­li­ła mu na korzy­sta­nie z wie­lu urzą­dzeń cyfro­wych, któ­re dzia­ła­ją prze­cież w opar­ciu o jego pio­nier­skie teo­rie matematyczne.

W 2018 roku nakrę­co­no peł­no­me­tra­żo­wy fabu­la­ry­zo­wa­ny doku­ment pt. The Bit Play­er opo­wia­da­ją­cy o geniu­szu Shannona.

Zwia­stun fil­mu The Bit Play­er (2018)

Sto­wa­rzy­sze­nie IEEE, pier­wot­nie zrze­sza­ją­ce inży­nie­rów elek­try­ków i elek­tro­ni­ków, w roku 1972 r. usta­no­wi­ło nagro­dę im. Shan­no­na, któ­rą przy­zna­je się każ­de­go roku za wybit­ne osią­gnię­cia w dzie­dzi­nie teo­rii infor­ma­cji i jej zasto­so­wań, np. w infor­ma­ty­ce. Pierw­szym lau­re­atem był sam Clau­de Shannon.

Prof. Robert Fano, lau­re­at Nagro­dy im. Shan­no­na z 1976 r., mówił o wykła­dach Shan­non tak:

[Shan­non] nie lubi wykła­dać. Wszyst­kie jego wykła­dy są jed­nak cudow­ne, każ­dy jest pereł­ką. Choć wyda­je się, że sło­wa wykła­du są wypo­wia­da­ne spon­ta­nicz­nie, to jed­nak w rze­czy­wi­sto­ści są bar­dzo sta­ran­nie prze­my­śla­ne wcześniej.

Jako cie­ka­wost­kę dodaj­my, ze Clau­de Shan­non potra­fił jeź­dzić na jed­no­ko­ło­wym rowe­rze wła­snej kon­struk­cji (i to o osi nie umiesz­czo­nej cen­tral­nie), jed­no­cze­śnie żon­glu­jąc kil­ko­ma pałeczkami.

Powyż­szy rysu­nek pocho­dzi ze zbio­ru sce­na­riu­szy zajęć o infor­ma­ty­ce dla dzie­ci pro­jek­tu Com­pu­ter Scien­ce Unplug­ged, w któ­rych się nie uży­wa komputerów. 

W arty­ku­le Wiki­pe­dii może­my prze­czy­tać inną ciekawostkę:

Shan­non zna­ny był z tego, że upra­wia­nie nauki było dla nie­go nie tyl­ko poważ­nym zaję­ciem, ale rów­nież rado­ścią i zaba­wą. Dla czy­stej zaba­wy na przy­kład skon­stru­ował maszy­nę o nazwie THROBAC‑I, któ­ra liczy­ła, wyko­rzy­stu­jąc rzym­ski zapis liczb.


Wię­cej infor­ma­cji o genial­nym twór­cy teo­rii infor­ma­cji, i wywo­dza­cej się z niej teo­rii kodo­wa­nia i kom­pre­sji danych, moż­na prze­czy­tać m.in. w książ­kach: H. Rhe­in­gold „Narzę­dzia uła­twia­ją­ce myśle­nie” (War­sza­wa 2003), J. Mie­ścic­ki „Wstęp do infor­ma­ty­ki” (Legio­no­wo 2013) oraz J. Gle­ick „Infor­ma­cja. Bit. Wszech­swiat. Rewo­lu­cja” (Kra­ków 2012).

Czy­tel­ni­ków zain­te­re­so­wa­nym filo­zo­fią infor­ma­ty­ki (np. poję­ciem infor­ma­cji) pole­ca­my książ­kę dr Iza­be­li Bondeckiej-Krzykowskiej „Z zagad­nień onto­lo­gicz­nych infor­ma­ty­ki”, wyda­nej w 2016 r. przez Wydaw­nic­two UAM.