Következő: Digitális mérőátalakítók
| Tartalomjegyzék
| Előző: Az analóg és digitális
Az információmennyiség fogalmát és definicióját Shannon fogalmazta
meg először és azóta mindenütt elfogadottá vált. Eszerint az
információmennyiség szorosan kötődik egy eseményhalmaz valamely
eseményének bekövetkezési valószínűségéhez:
ahol pi az i-ik eseményre vonatkozó valószínuség. A definíciót fogadjuk el,
- indoklása, célszerűségének kimutása nem e tantárgynak a feladata.
Egy megfigyelés, vagy mérés eredménye tehát akkor jelent nagy
információmennyiséget, ha a kérdéses esemény bekövetkezésének
valószínűsége kicsiny volt. Azt is mondják, hogy az információ
mértékszáma a "meglepetés" nagyságát tükrözi.
Nehézség nélkül értelmezhetjük egy eseményhalmaz megfigyelése
során nyert átlagos információt is. Ezt entrópiának nevezik és a
következőképpen határozható meg:
Egy elemi alternatíva (fej/írás) nyilván akkor jelenti a
legnagyobb átlagos információmennyiséget, ha mindkét esemény
bekövetkezése egyformán valószínű. Ekkor az átlagos információ
nagyságára 1-et kapunk. Ezt hívják az információ egységének, bit-nek
(binary unit rövidítése).
(Ha arra a kérdésre várunk választ, hogy "Kisasszony, hozzám jön
feleségül?" - a válasz elvileg 1 bitnyi információt jelent. Ha azonban
valahonnan sejtjük, hogy mi lesz a válasz, már csak kisebb
információhoz jutunk. Vegyük észre, hogy az információ mennyisége nem
függ az információ "jelentőségétől" !)
Képzeljük el, hogy a 0 - 10.24 V közötti tartományban kivánunk
feszültséget mérni, azonban a mérést csak 40 mV pontossággal végezzük.
Ha minden mérési eredmény egyformán valószínű, akkor a fenti képlet
alapján egy mérés információmennyisége 8 bit. Az is eléggé jól látszik
a képletből, hogyha az események nem egyformán valószínűek (vagyis nem
zajszerű jelet vizsgálunk), akkor az átlagos információmennyiség
kisebb lesz. Érdekes azt is észrevenni, hogy ha a mérési eredményt
bistabil multivibrátorokon óhajtanánk tárolni, akkor ehhez 8 darab
bistabilra lenne szükségünk. A 8 bit -- 8 bistabil egybeesés nem
véletlen !
Nézzünk néhány gyakran előforduló információt. Az ABC betűinek
száma (kerekítve) 32. Ha kis- és nagybetűt egyaránt használunk, akkor
ez már 64 lehetséges állapotot jelent. Ha a számítógép klaviatúra
szerinti összes írásjelet is figyelembe vesszük, akkor (megint csak
kerekítve) 128 karaktert használunk írás közben. Ez annyit jelent, hogy
egy betű, vagy karakter információtartalma 7 bit - természetesen csak
akkor, ha mindegyik előfordulási valószínűsége azonos lenne. Ha a 7
bithez egy ún. paritásbitet adunk, akkor eljutunk egy 8 bites infor-
mációmennyiséghez, aminek külön nevet adtak: byte -nek hívják.
Egy könyvoldal 2-3000 byte-nyi, egy számítógép fekete-fehér
(grafikus) monitor képe pedig (200 sor
600 oszlop) 120000
bit-nyi = 15 kilobyte-nyi információt jelent.
Az információmennyiség fogalma mellett gyakran van szükség az
információfluxus fogalmára is. Ezzel a másodpercenkénti
elküldött/fogadott információmennyiséget jellemezzük. Néhány könnyen
átlátható fluxus:
-- Az emberi beszéd (másodpercenként 3 - 8 betű) 40-60 bit/sec
hozamú.
-- Az igen jóminőségű digitális hangrögzítő rendszerek a mikrofon
jeléből másodpercenként legalább 30000-szer vesznek mintát, a
mintavételek 16 bit pontosságúak - a fluxus tehát kb 60 Kbyte/sec.
-- Ha a tévén a képet másodpercenként 25-ször közvetítik, (625 sor,
1000 pixel soronként) akkor az információ kb. 1.9 Mbyte/sec fluxussal
árad.
Következő: Digitális mérőátalakítók
| Tartalomjegyzék
| Előző: Az analóg és digitális
1999-09-23