Egységek információ
Laboratóriumi munka 1
Szám és információs egységek
Egységek információ
Az egyén által kapott információ a tudás bizonytalanságának (entrópia) csökkenésének mércéjeként tekinthető. Ha az üzenet a tudásunk bizonytalanságának csökkenéséhez vezet, azt mondhatjuk, hogy egy ilyen üzenet tartalmaz információkat. Az információmennyiség egységénél elfogadott mennyiségű információt tartalmaz, amely olyan üzenetet tartalmaz, amely két tényezővel csökkenti a tudás bizonytalanságát. Az ilyen egység minimális, és egy kicsit nevezik. Nagyobb egységek vannak:
1 kilobájt = 1024 byte = 2 10 bájt, 1 megabájt = 1024 kBa = 2 20 bájt,
1 gigabájt = 1024 MB = 2 30 bájt, 1 terabájt = 1024 GB = 2 40 bájt,
1 Petabyte = 1024 TB = 2 50 byte, 1Exabájt = 1024 PB = 2 60 byte.
1) Rendelje el a jeleket <, =,> a következő láncban:
20 bájt ... 1000 bit ... 1 MB ... 1024 KB ... 1 GB.
2) Rendezze el az értékeket növekvő sorrendben:
1025 byte, 1 KB, 1 MB, 1,023 KB, 1,2 TB, 1025 bit.
3) Válaszd ki a helyes válaszokat: 5 MB - ... kevesebb, mint 5000 KB, egyenlő 5120 KB, egyenlő 512 KB, több mint 5000 KB, több mint 1 GB?
4) Egyezik az információegységekkel?
5) Keress x-et a kapcsolatokból:
a) 16 x bit = 32 MB, b) 8 x KB = 16 GB
Az információ mennyisége (az entrópia módszer)
1. Equitable események. Bármelyik rendszert a saját állapotai jellemzik, amelyek bizonyos események következtében alakulnak ki. Az események ugyanilyen valószínűek. ha egyre növekvő számú kísérlet mellett fokozatosan közelednek a rendszer állapotainak száma (például az "eagle" és az "érmék"). Így, amikor egy egyenlő oldalú tetraéderes piramist dobálnak, 4 azonosítható esemény létezik, és hat kocka kocka dobása esetén hat egyenlő valószínűségű esemény.
A Hartley-képlet meghatározza az I információ mennyiségét bitekben az esetleges azonosítható N események számához az alábbiak szerint:
A lehetséges események számának meghatározásához, ha az információ mennyisége ismert, alkalmazza az inverz képletet:
A számológép segítségével a logaritmus érték kiszámításához használhat képletet
1) Mi a legnagyobb természetes szám, amelyet 7 bit, 128, 127, 256 vagy 64 kódol?
2) Mennyi információt tartalmaz egy bináris szám egy bitjében?
3) Mennyi információt tartalmaz az üzenet, hogy a kívánt fájl a 8 lézerlemez valamelyikén van?
4) Az üzenet, hogy az előadás a 10. emeleten lesz, 4 bitet tartalmaz. Hány emelet van a házban?
- Egyenletes események. Ha a kísérlet eredményeként az események eltérő valószínűséggel fordulnak elő, akkor az események egyenlőtlenek. Például ha az érme egyik oldala nehezebb, akkor gyakrabban esik ki. Vagy ha 10 ceruza 2 piros és 8 kék, akkor a vörös ceruzás valószínűsége sokkal nagyobb, mint a kék.
A különböző valószínűségű események egyikére vonatkozó információ mennyiségét a következő képlet határozza meg:
ahol valószínűség p = K / N, K az érdeklődő esemény száma, N az események teljes száma.
A különböző valószínűségekkel rendelkező események mennyiségét a Shannon képlet határozza meg:
ahol pi az egyes események valószínűsége.
Példa: A dobozban 8 toll, fekete paszta és 24 piros színű. Mennyi információt kap az üzenet, amelyhez fekete tésztát kapott?
N = 8 + 24 = 32 totál toll
Рч = 8/32 = 1/4-es valószínűséggel kap egy fekete fogantyút
így az üzenet, hogy kinyújtották a tollat fekete paszta hordozza 2 bitet információk.
1) Egy tanuló az első évben 100 pontot kapott. Az üzenet, hogy megkapta az első öt, 2 bitet tartalmaz. Hány ötös volt a tanuló az első évében?
2) Számítástechnikai vizsga során 6 ötös, 15 négyes, 8 tripletes és 1 kolléga jutott hozzá. Mennyi információt talál az üzenetben, hogy Stepanov négyet kapott?
3) A dobozban 10 fehér, 20 piros, 30 kék és 40 zöld ceruza van. Mennyibe kerül az üzenet a rajzolt ceruza színéről?
4) Három településről érkezett kérelem érkezett: A (10 pályázat), 40 pályázat, C (30 pályázat). Csak az egyikük sikertelen. Mennyi információt tartalmaz az üzenet, hogy a B városból származó alkalmazás még nem fejeződött be?
3. Az információmérés betűrendes megközelítése. Egy személy esetében az információ mennyisége az érthetőségétől és az újdonságtól függ, azaz tudásunk bizonytalanságának csökkentése (entrópia). Bármely technikai eszköz működik az adatokkal, és abc-féle megközelítést alkalmaz az információ mérésére, mivel a jelek kódolják az egyes betűjeleket az ábécé szerint. Az ábécé ereje a szimbólumainak teljes száma, beleértve a betűket, a számokat, az írásjeleket és a speciális szimbólumokat. Minél több az ábécé ereje, annál több információt hordoz egy karakter.
Tegyük fel, hogy az ábécé szimbólumai ugyanolyan valószínűséggel találkoznak és ugyanolyan mennyiségű információt hordoznak. Az információ abszolutikus megközelítés szempontjából történő mérésére (ha a mennyiség nem függ a tartalomtól, hanem az ábécétől és a szövegben szereplő karakterek számától függ), az algoritmust használják:
1) Keresse meg az ábécé hatalmát - N.
2) Számítsd ki az Ic szimbólum információs térfogatát a Hartley képlet segítségével (1).
3) Keresse meg a karakterek számát az K. üzenetben.
4) Számítsa ki az egész üzenet információ mennyiségét (az információ mennyiségét) az I = Ic képlet segítségével # 8729; K, (5)
Példa: Keresse meg az 1000 karakterből álló, orosz betűkkel írott információk mennyiségét.
A megoldáshoz az algoritmust használjuk:
1) Találjuk meg az ábécé erejét N = 33 orosz nagybetűk +33 orosz kisbetűk +21 speciális karakterek = 87 karakter
2) Az (1) képlet szerinti szimbólum információs térfogata:
3) A K = 1000 üzenetben szereplő karakterek száma
4) Az egész üzenet tájékoztatási mennyisége az (5) képlet szerint:
1) Az 1000 karakter szövegét angolul, oroszul és görögül írják. Hasonlítsa össze a szövegben található információk mennyiségét.
1. Probabilisztikus megközelítés az információ mennyiségének mérésére.
2. A rendszer egyenetlen állapotára vonatkozó információk meghatározásának meghatározása (Hartley-képlet).
3. Az információ mennyiségének meghatározása a rendszer nem egyenetlen állapotaira (Shannon-képlet).
4. A valószínűségi megközelítés különbsége a volumetrikus információ mennyiségének méréséhez.
5. Adjon példákat az információ mennyiségére vonatkozó valószínűségi megközelítés alkalmazásáról.