Statikus adatok mérése
Hartley-féle képlet nem tükrözi az események véletlenszerű jellegét, ezért általános esetben kapcsolat szükséges az információ mennyiségének és a releváns események (üzenetek) előfordulásának valószínűsége között.
Ezt a problémát 1946-ban az amerikai matematikus Claude Shannon orvosolta.
Statisztikai (valószínû) megközelítéssel az információ a megfelelõ üzenet elõfordulásának valószínûségének mértéke.
Ebből a szempontból, annál valószínűbb, hogy az esemény, annál kevésbé van információ az üzenetben.
Sokféle üzenet csökkenthető a kettős eseményekhez.
Általános esetben egy esemény tekinthető egy kísérlet kimenetelének eredményére. A helyzetek megoldásának minden lehetséges kimenetelének teljes csoportját az események együttesének nevezik.
![Statikus információmód (minden lehetséges kimenetelről) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-2a8fb1af.png)
Hagyja, hogy az összes lehetséges kimenet összesen legyen N, melyből K nem ismétlődik.
Majd egy i-es esemény valószínűsége.
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-900d8410.png)
![Statikus információmód (minden lehetséges kimenetelről) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-3686ef1a.png)
Az esemény végrehajtása bizonyos mennyiségű információt tartalmaz
![Statikus adatok (információk) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-ae4100c2.png)
![Statikus adatok (statikus) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-7242f1f5.png)
![Statikus adatok (információk) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-5da3e9fe.png)
![Statikus adatok (információk) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-c9128f55.png)
![Statikus adatok (statikus) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-c0c1e57b.png)
4 Az adatok statikus mértéke. Valószínűség és információ
Hartley-féle képlet nem tükrözi az események véletlenszerű jellegét, ezért általános esetben kapcsolat szükséges az információ mennyiségének és a releváns események (üzenetek) előfordulásának valószínűsége között.
Ezt a problémát 1946-ban az amerikai matematikus Claude Shannon orvosolta.
Statisztikai (valószínû) megközelítéssel az információ a megfelelõ üzenet elõfordulásának valószínûségének mértéke.
Ebből a szempontból, annál valószínűbb, hogy az esemény, annál kevésbé van információ az üzenetben.
Sokféle üzenet csökkenthető a kettős eseményekhez.
Általános esetben egy esemény egy kísérlet eredménye kimenetelének tekinthető. A helyzetek megoldásának minden lehetséges kimenetelének teljes csoportját az események együttesének nevezik.
![Statikus adatok (statikus) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-3b33fc29.png)
Hagyja, hogy az összes lehetséges kimenet összesen legyen N, melyből K nem ismétlődik.
Majd egy i-es esemény valószínűsége.
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-b9fa1e74.png)
![Statikus információmód (minden lehetséges kimenetelről) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-38cd0246.png)
Az esemény végrehajtása bizonyos mennyiségű információt tartalmaz
![Statikus információmód (minden lehetséges kimenetelről) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-f70607a0.png)
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-ac5fad3b.png)
![Statikus adatok (statikus) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-8df70397.png)
![Statikus adatok (információk) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-382e9957.png)
Entrópia tulajdonságai
1. Az entrópiát ugyanazon egységekben mérik, mint az információ mennyiségét.
A (2) képletben a "-" jel azt jelenti, hogy az entrópia mindig nem negatív, azaz
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-4d313697.png)
2. Az M entrópiája akkor érte el a maximális értéket, ha minden esemény egyformán valószínű.
3. H = 0, ha az i-es események egyikének valószínűsége 1.
Így az entrópia az üzenetforrás viselkedésében rejlő bizonytalanság mértéke, és jellemzi ennek a forrásnak az információ kiadását.
Ahogy a rendszer lehetséges állapotainak száma nő, az energia növekszik.
Általánosságban feltételezhetjük, hogy az információ mennyisége jellemzi az entrópia csökkenését a megismerés folyamatának következtében.
Ha a bizonytalanságot teljesen eltávolítják, akkor az energia mennyisége megegyezik a forrás által szolgáltatott információ mennyiségével.
A helyzet hiányos megoldása esetén az információ mennyiségét az entrópia kezdeti és végső értékei közötti különbség határozza meg:
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-74f2f750.png)
azaz Az információ mennyiségét a kezdeti és a végső entrópia értékek közötti különbség határozza meg.
A legnagyobb mennyiségű információ akkor jön létre, ha a bizonytalanság teljes mértékben megszűnik.
A valódi események, valamint a szimbólumok a valódi kapcsolatokban egymástól függetlenek és egyöntetűek, amelyek ténylegesen magukban hordozzák az egyes szimbólumokat, kisebbek lesznek a maximális elméletileg lehetséges értéknél.
Az információvesztést egy redundancia tényező jellemzi:
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-a6b461a1.png)
![Statikus információmérték (intézkedés) Statikus adatok mérése](https://images-on-off.com/images/211/staticheskayamerainformatsii-a2792d99.png)
Az információs átviteli csatornák esetében a csatornák adatsebességének nevezett karaktert használják, ez egyenlő az egységnyi időegység alatt továbbítandó információ átlagos értékével.
Az üzenetegység forrása által az egységnyi időegységben keletkezett információ átlagos mennyiségét a forrás kapacitására hívják.
A csatorna maximális adatsebességét a csatorna sávszélességének nevezik.
A jelforrások teljesítményének és az átviteli csatornák kapacitásának összehangolásának problémája az információ kódolásának elméletének és gyakorlatának egyik legfontosabb feladata.