next up previous
Következő: Digitális mérőátalakítók | Tartalomjegyzék | Előző: Az analóg és digitális

Információmennyiség, információfluxus

Az információmennyiség fogalmát és definicióját Shannon fogalmazta meg először és azóta mindenütt elfogadottá vált. Eszerint az információmennyiség szorosan kötődik egy eseményhalmaz valamely eseményének bekövetkezési valószínűségéhez:

\begin{displaymath}I = - \log _2 p_i \end{displaymath}

ahol pi az i-ik eseményre vonatkozó valószínuség. A definíciót fogadjuk el, - indoklása, célszerűségének kimutása nem e tantárgynak a feladata. Egy megfigyelés, vagy mérés eredménye tehát akkor jelent nagy információmennyiséget, ha a kérdéses esemény bekövetkezésének valószínűsége kicsiny volt. Azt is mondják, hogy az információ mértékszáma a "meglepetés" nagyságát tükrözi. Nehézség nélkül értelmezhetjük egy eseményhalmaz megfigyelése során nyert átlagos információt is. Ezt entrópiának nevezik és a következőképpen határozható meg:

\begin{displaymath}H = - \sum _i p_i \log _2 p_i\end{displaymath}

Egy elemi alternatíva (fej/írás) nyilván akkor jelenti a legnagyobb átlagos információmennyiséget, ha mindkét esemény bekövetkezése egyformán valószínű. Ekkor az átlagos információ nagyságára 1-et kapunk. Ezt hívják az információ egységének, bit-nek (binary unit rövidítése). (Ha arra a kérdésre várunk választ, hogy "Kisasszony, hozzám jön feleségül?" - a válasz elvileg 1 bitnyi információt jelent. Ha azonban valahonnan sejtjük, hogy mi lesz a válasz, már csak kisebb információhoz jutunk. Vegyük észre, hogy az információ mennyisége nem függ az információ "jelentőségétől" !) Képzeljük el, hogy a 0 - 10.24 V közötti tartományban kivánunk feszültséget mérni, azonban a mérést csak 40 mV pontossággal végezzük. Ha minden mérési eredmény egyformán valószínű, akkor a fenti képlet alapján egy mérés információmennyisége 8 bit. Az is eléggé jól látszik a képletből, hogyha az események nem egyformán valószínűek (vagyis nem zajszerű jelet vizsgálunk), akkor az átlagos információmennyiség kisebb lesz. Érdekes azt is észrevenni, hogy ha a mérési eredményt bistabil multivibrátorokon óhajtanánk tárolni, akkor ehhez 8 darab bistabilra lenne szükségünk. A 8 bit -- 8 bistabil egybeesés nem véletlen ! Nézzünk néhány gyakran előforduló információt. Az ABC betűinek száma (kerekítve) 32. Ha kis- és nagybetűt egyaránt használunk, akkor ez már 64 lehetséges állapotot jelent. Ha a számítógép klaviatúra szerinti összes írásjelet is figyelembe vesszük, akkor (megint csak kerekítve) 128 karaktert használunk írás közben. Ez annyit jelent, hogy egy betű, vagy karakter információtartalma 7 bit - természetesen csak akkor, ha mindegyik előfordulási valószínűsége azonos lenne. Ha a 7 bithez egy ún. paritásbitet adunk, akkor eljutunk egy 8 bites infor- mációmennyiséghez, aminek külön nevet adtak: byte -nek hívják. Egy könyvoldal 2-3000 byte-nyi, egy számítógép fekete-fehér (grafikus) monitor képe pedig (200 sor $\times$ 600 oszlop) 120000 bit-nyi = 15 kilobyte-nyi információt jelent. Az információmennyiség fogalma mellett gyakran van szükség az információfluxus fogalmára is. Ezzel a másodpercenkénti elküldött/fogadott információmennyiséget jellemezzük. Néhány könnyen átlátható fluxus: -- Az emberi beszéd (másodpercenként 3 - 8 betű) 40-60 bit/sec hozamú. -- Az igen jóminőségű digitális hangrögzítő rendszerek a mikrofon jeléből másodpercenként legalább 30000-szer vesznek mintát, a mintavételek 16 bit pontosságúak - a fluxus tehát kb 60 Kbyte/sec. -- Ha a tévén a képet másodpercenként 25-ször közvetítik, (625 sor, 1000 pixel soronként) akkor az információ kb. 1.9 Mbyte/sec fluxussal árad.
next up previous
Következő: Digitális mérőátalakítók | Tartalomjegyzék | Előző: Az analóg és digitális

1999-09-23