„Claude Shannon był tym, który jako pierwszy uchylił drzwi do cyfrowego świata.”
dr inż. Jerzy Mieścicki
Claude Elwood Shannon urodził się w Gaylord w stanie Michigan w 1916 r. jako syn przedsiębiorcy i nauczycielki. Bez wątpienia był cudownym dzieckiem – został jednym z najwybitniejszych uczonych XX w., tej miary, co Albert Einstein.
W wieku 20 lat Claude uzyskał dwa dyplomy ukończenia studiów na uniwersytecie Michigan: z inżynierii elektrycznej oraz matematyki (licencjat).
źródło: UM Bentley Historical Library
Już rok później (1937 r.) Claude Shannon ukończył studia magisterskie w Massachusetts Institute of Technology (MIT). W pracy dyplomowej wykazał, że operacje logiczne można wykonywać za pomocą przełączników, które otwierają lub zamykają obwód elektryczny (bramki logiczne). Było to praktyczne zastosowanie algebry logiki opisanej sto lat wcześniej przez George’a Boole’a. W tej samej pracy Shannon pokazał, jak grupując odpowiednie bramki logiczne można budować układy wykonujące operacje arytmetyczne (np. sumatory).
W MIT w roku 1940 Claude Shannon obronił doktorat. W swej pracy zajmował się algebraicznymi modelami w genetyce.
W 1943 r. przez kilka miesięcy współpracował z Alanem Turingiem. Opracowali wspólnie system cyfrowego kodowania mowy (celem było szyfrowanie rozmów telefonicznych na najwyższym szczeblu polityki; projekt nie został jednak wdrożony).
Jeszcze pod koniec lat 30. Claude Shannon zainteresował się zagadnieniem przesyłania informacji na odległość (komunikacją). Istniało wówczas już wiele technik opracowanych przez inżynierów. Geniusz Shannona pozwoił mu na to, by rozpatrywać zagadnienie komunikacji w kategoriach abstrakcyjnych, w oderwaniu od fizycznego medium (środka komunikacji).
Najpierw w 1947 r. samodzielnie, a w 1948 r. wspólnie z Warrenem Weaverem, swoim mentorem, Shannon opisał w artykułach naukowych matematyczną teorię informacji i komunikacji, która stanowiła, jak się okazało, podwaliny do rozwoju ery cyfrowej.
Ogólna idea była wystarczająco prosta, by Shannon mógł ją przedstawić za pomocą dwuosobowej gry „Pięciu pytań”: Pierwszy z graczy wybiera w myśli jedną z liter alfabetu. Drugi z graczy próbuje ją odgadnąć, zadając pytania w rodzaju „Czy ta litera poprzedza w alfabecie literę L?”. Shannon użył tej gry, aby zwrócić uwagę na to, ze wystarczy nie więcej niż pięć pytań, aby „odgadnąć” dowolną literę alfabetu z języka angielskiego. Jeśli odpowiedzi („tak” lub „nie”) prowadzących do znalezienia właściwej litery na kolejne pytania zapisać jako ciąg cyfr (odpowiednio 1 lub 0), a następnie zakodować go jako ciąg impulsów prądu elektrycznego (obwód „zamknięty” lub „otwarty”). Podstawowy pojęciem w tej teorii kodów binarnych było wymiarowanie informacji, a podstawową jednostką miary informacji wprowadzonej – bit (ang. binary information unit).
Film pt. Matematyczna teoria informacji z zasobów KhanAcademyPoPolsku
Trudno przecenić znaczenie ww. publikacji. Stanowiły zbiór twierdzeń matematycznych, które bezpośrednio odnosiły się do niezawodności komunikacji (np. odporności na zakłócenia atmosferyczne lub pochodzące z innych źródeł). Shannon i Weaver wykazali, ze dzięki zastosowaniu właściwego sposobu kodowania informacji można ją przesyłać na odległość w sposób niezawodny.
Ograniczenie nałożone przez naturę wiąże się jedynie z koniecznością istnienia tzw. kanału komunikacji (środka komunikacji).
Istotą teorii informacji, sformułowanej przez Shannona, jest pojęcie niepewności. Im większe jest prawdopodobieństwo zakłóceń (tzw. szumu) w komunikacji na drodze miedzy nadawcą i odbiorcą, tym bardziej wyszukanej (złożonej) metody zapisu informacji (kodowania) trzeba użyć.
Miara zależności między złożonością kodu a stopniem niezawodności komunikacji jest tym, co Claude Shannon nazywał entropią.
Prawa opisane przez Shannona miały ogromne praktyczne znaczenie dla inżynierów i konstruktorów. W efekcie umożliwiły choćby przekaz (na żywo) obrazu telewizyjnego z Księżyca w 1969 roku. Trzeba podkreślić, że matematyczne twierdzenia Shannona są uniwersalne, a ich zastosowania nie ograniczają się wyłącznie do świata inżynierii elektrycznej.
To, co Shannon nazywał kodowaniem źródła, dziś nazywa się kompresowaniem danych (kto „zipował” plik, widział kodowanie danych na żywo). To, co nazywał kodowaniem kanału, dziś w praktyce realizuje się jako kody korekcyjne.
***
Claude Shannon pracował w laboratorium badawczym Bell firmy telekomunikacyjnej AT&T od 1941 r. do 1956 r., potem objął stanowisko profesora w MIT. Tam pracował aż do emerytury w 1978 r. Był nauczycielem pierwszej generacji badaczy sztucznej inteligencji.
Na przełomie lat 40. i 50. Claude Shannon opublikował pionierskie artykuły o matematycznej teorii systemów kryptograficznych oraz o teorii przetwarzania języka naturalnego. W 1950 r. opisał kombinatoryczne zasady działania programu komputerowego, który byłby zdolny do gry w szachy.
Shannon był jednym ze współautorów twierdzenia matematycznego, rozwiązującego problem efektywnego próbkowania sygnału dźwiękowego, którego celem jest cyfrowy zapis dźwięku. To on opisał też sposób na operację odwrotną: konwersję cyfrowo-analogową, czyli rekonstrukcję sygnału ciągłego z ciągu cyfrowych próbek, niezbędnej do odtworzenia dźwięku (np. w głośnikach).
Claude E. Shannon zmarł w 2001 r., w wieku 84 lat. Niestety choroba Alzheimera w ostatnich latach życia nie pozwoliła mu na korzystanie z wielu urządzeń cyfrowych, które działają przecież w oparciu o jego pionierskie teorie matematyczne.
W 2018 roku nakręcono pełnometrażowy fabularyzowany dokument pt. The Bit Player opowiadający o geniuszu Shannona.
Zwiastun filmu The Bit Player (2018)
Stowarzyszenie IEEE, pierwotnie zrzeszające inżynierów elektryków i elektroników, w roku 1972 r. ustanowiło nagrodę im. Shannona, którą przyznaje się każdego roku za wybitne osiągnięcia w dziedzinie teorii informacji i jej zastosowań, np. w informatyce. Pierwszym laureatem był sam Claude Shannon.
Prof. Robert Fano, laureat Nagrody im. Shannona z 1976 r., mówił o wykładach Shannon tak:
[Shannon] nie lubi wykładać. Wszystkie jego wykłady są jednak cudowne, każdy jest perełką. Choć wydaje się, że słowa wykładu są wypowiadane spontanicznie, to jednak w rzeczywistości są bardzo starannie przemyślane wcześniej.
Jako ciekawostkę dodajmy, ze Claude Shannon potrafił jeździć na jednokołowym rowerze własnej konstrukcji (i to o osi nie umieszczonej centralnie), jednocześnie żonglując kilkoma pałeczkami.
Powyższy rysunek pochodzi ze zbioru scenariuszy zajęć o informatyce dla dzieci projektu Computer Science Unplugged, w których się nie używa komputerów.
W artykule Wikipedii możemy przeczytać inną ciekawostkę:
Shannon znany był z tego, że uprawianie nauki było dla niego nie tylko poważnym zajęciem, ale również radością i zabawą. Dla czystej zabawy na przykład skonstruował maszynę o nazwie THROBAC‑I, która liczyła, wykorzystując rzymski zapis liczb.
Więcej informacji o genialnym twórcy teorii informacji, i wywodzacej się z niej teorii kodowania i kompresji danych, można przeczytać m.in. w książkach: H. Rheingold „Narzędzia ułatwiające myślenie” (Warszawa 2003), J. Mieścicki „Wstęp do informatyki” (Legionowo 2013) oraz J. Gleick „Informacja. Bit. Wszechswiat. Rewolucja” (Kraków 2012).
Czytelników zainteresowanym filozofią informatyki (np. pojęciem informacji) polecamy książkę dr Izabeli Bondeckiej-Krzykowskiej „Z zagadnień ontologicznych informatyki”, wydanej w 2016 r. przez Wydawnictwo UAM.