Posłużenie się pojęciem informacji (w technicznym sensie) i jej jednostką pomiarową (bit – patrz tabl-. 12-1) wymaga komentarza dotyczącego zarówno charakteru teorii informacji, jak i jej miejsca w psychologii.
Inżynierowie łączności interesują się nie tylko aparatami służącymi do przesyłania impulsów elektrycznych, lecz także tym, w jaki sposób przekazywać sygnały, aby przenosiły maksymalną ilość informacji pomimo zakłócającego wpływu S2umu (zakłócenia atmosferyczne itd.). Mając do czynienia z tym rodzajem wiadomości, które koduje się w postaci słów lub liczb, przyjęli oni jako jed- nostkę informacji bil (skrót od binary digit – jednostka dwójkowa). Bit, jak to widzieliśmy, jest to taka ilość informacji, która liczbą wchodzących w grą alternatyw zmniejsza do połowy.
Przypuśćmy, że ktoś pomyślał sobie jakąś liczbą od 1 do 8, a my staramy się odgadnąć ją w sposób systematyczny. Zadajemy pytanie: „Czy jest to 4 lub mniej, czy też więcej niż 4?” Odpowiedź brzmi „4 lub mniej”. Tym samym wyeliminowaliśmy następujące liczby: 5, 6, 7 i 8, czyli połowę początkowych alternatyw. Otrzymaliśmy zatem jeden „bit” informacji. Teraz pytamy: „Czy jest to 2 lub mniej, czy więcej niż 2?” – „2 lub mniej”. Obecnie wyeliminowaliśmy liczby 3 i 4, a więc mamy drugi bit informacji. Potrzebujemy jeszcze jednego bita, a będziemy znali odpowiedź. Możemy teraz zapytać: „Czy jest to 2?”. Niezależnie od tego, czy odpowiedź brzmi „tak”, czy „nie”, otrzymaliśmy potrzebną informację. Zredukowanie 8 alternatyw do 1 -wymagało 3 bitów informacji. W języku matematycznym można to określić, że ilość informacji potrzebna do zredukowania nieokreśloności rośnie jak logarytm liczby alternatyw, zgodnie z wzorem:
Leave a reply