Információ a fizikában
Bevezetés. Információ a valós világban, az információ fogalma. Típusú információk, információs hordozók.
Emberi információs tevékenységek
Az "Informatika" témakör egy olyan általános tudomány, amely megteremti a tudás alapszintjét más általános szakmai és speciális tudományok elsajátításához.
A jegyzetek tartják szempontok: információk, források, az oktatási információs források, engedélyezett, és a nyílt forráskódú szoftverek, számrendszerek, programozási környezet, adat archiválás, információt keresni a számítógép segítségével, szoftverek kereső szolgáltatás, automatizált rendszerek különböző célokra, példák azok használatát.
A tudomány tanulmányozása eredményeként a hallgatónak:
- információs erőforrás, információs oktatási erőforrás, licencelt program és szabadon elosztott program, számrendszer, algoritmus, archív fájl, ACS;
- különböző megközelítések az "információ" fogalmának meghatározásához;
- az információmennyiség mérésének módszerei: valószínűségi és ábécé, információs egységek;
- a számok egyik számrendszerről a másikra történő fordítása;
- kiszámítja az információ mennyiségét.
Az előadások kurzusa az első félévben 18 óra.
1.1.1 Az "információ" fogalma az élettelen és élő természet, a társadalom és a technológia tudományaiban
Az "információ" szó a latin "információ" szóból származik, amely fordításban a redukciót, tisztázást, ismereteket jelenti. Az "információ" fogalma alapvetően a számítástechnika területén alapul, lehetetlen megadni meghatározását más, "egyszerű" fogalmakon keresztül.
A „információ” használják a különböző kormányzati tudomány (számítástechnika, kibernetika, biológia, fizika, stb), míg az egyes tudomány fogalmát „információ” Kommunikáció-de különböző fogalmak rendszereket.
A személy tájékoztatása az a tudat, amelyet különböző forrásokból kap.
Információ - az információkat a világ (tárgyak, jelenségek, események, folyamatok, stb), amelyek csökkentik a meglévő bizonytalansági szintet, hiányos ismeretek, elidegenedett az alkotó és lett üzenetküldés (kifejezve az adott nyelven formájában karakter, beleértve a és a rögzített tárgyi közegben) is játszott az emberek továbbítanak beszélt, írott vagy más módon (a kondicionált jeleket, azt jelenti, számítástechnikai eszközök, stb.)
A fizikában az információt anti-entrópiával vagy entrópiával kezeljük az ellenkező jel mellett. A rendszer entrópiája a rendellenesség, a káosz mértéke, míg az információ (entrópia-ellenesség) a rendszer rendsze- rűségének és szervezésének mértéke.
Információ zárt rendszerekben. A termodinamika második törvénye szerint egy zárt rendszer, vagyis egy olyan rendszer, amely nem cserél anyagot és energiát a környezetével, hajlamos a termikus egyensúlyra.
A termikus egyensúlyi állapotra törekvő zárt rendszerek nem tudnak információt tárolni. Tanulmányként tekintse példaként. Első pillantásra a tankönyv hõmérlegben van - végül is meg tudjuk mérni a hõmérsékletét. A tankönyv azonban csak akkor érheti el a teljes termikus egyensúlyt, ha a nyomtató tinta elterjedt és diffundált minden oldalon. Ha azonban a szöveg eltűnik, az információ eltűnik.
Információ nyílt rendszerekben. A modern fizika olyan nyílt rendszereket tekinti, amelyek energiát vagy anyagot cserélnek a környezetre és növelik szervezetüket. Ahogy a rendszer szervezete nő, az entrópia értéke csökken, és az információ mennyisége nő.
Zárt rendszerekben a folyamatok a rendtől a káoszig terjednek (információ csökken).
Nyílt rendszerekben a struktúra bonyolultabbá válhat, ezért az információ, amely a rendszer elemeinek rendességének mértéke, növekszik.