• Jak spočítat množství informací ve zprávě. Pravděpodobnostní přístup ke stanovení množství informací "Shannonův vzorec. Aplikace ET Excelu k řešení problémů zjišťování množství informací"

    Aby bylo možné porovnat různé zdroje zpráv a různé komunikační linky a kanály, je nutné zavést nějaké kvantitativní měřítko, které umožní vyhodnotit informace obsažené ve zprávě a přenášené signálem. Takové měřítko v podobě množství informací zavedl K. Shannon na základě konceptu volby, což mu umožnilo vybudovat celkem obecnou matematickou teorii komunikace.

    Podívejme se na hlavní myšlenky této teorie, jak jsou aplikovány na diskrétní zdroj, který produkuje sekvenci elementárních zpráv. Pokusme se najít vhodnou míru množství informací obsažených v určité zprávě. Hlavní myšlenkou teorie informace je, že toto měřítko není určeno konkrétním obsahem dané zprávy, ale tím, že si zdroj vybírá danou elementární komunikaci z konečné množiny. Tato myšlenka je odůvodněna tím, že na jejím základě bylo možné získat řadu dalekosáhlých a zároveň netriviálních výsledků, které jsou v dobré shodě s intuitivními představami o přenosu informací. Hlavní z těchto výsledků budou uvedeny níže.

    Pokud tedy zdroj vybere jednu základní zprávu () z množiny abecedy, pak výstup množství informací nezávisí na konkrétním obsahu tohoto prvku, ale na tom, jak je tato volba provedena. Pokud je vybraný prvek zprávy předem určen, pak je přirozené předpokládat, že informace v něm obsažená je rovna nule. Budeme tedy předpokládat, že k volbě písmene dojde s určitou pravděpodobností . Tato pravděpodobnost může obecně záviset na tom, která sekvence předcházela danému písmenu. Akceptujeme, že množství informací obsažených v elementární zprávě je spojitou funkcí této pravděpodobnosti a pokusíme se určit formu této funkce tak, aby vyhovovala některým z nejjednodušších intuitivních představ o informaci.

    Za tímto účelem provedeme jednoduchou transformaci zprávy, která spočívá v tom, že každou dvojici „písmen“ vytvořených postupně zdrojem, budeme považovat za jedno zvětšené „písmeno“. Takové proměně říkáme zvětšení abecedy. Sada zvětšených "písmen" tvoří abecedu objemu , protože po každém z prvků abecedy lze obecně vybrat kterýkoli z prvků. Nechť existuje pravděpodobnost, že zdroj provede sekvenční výběr prvků a . Pak, když vezmeme v úvahu pár jako písmeno nové abecedy, lze tvrdit, že tento pár obsahuje množství informací .

    Je přirozené vyžadovat, aby množství informací obsažených ve dvojici písmen splňovalo podmínku aditivity, to znamená, že se rovnalo součtu množství informací obsažených v každém z písmen a původní abecedě. Informace obsažená v písmenu se rovná , kde je pravděpodobnost výběru písmene po všech písmenech, která mu předcházejí. K určení informací obsažených v dopise je třeba vzít v úvahu pravděpodobnost výběru písmene za písmenem, přičemž je třeba vzít v úvahu také všechna písmena, která písmenu předcházejí. Tuto podmíněnou pravděpodobnost označíme jako . Pak množství informací v dopise bude vyjádřeno funkcí .

    Na druhou stranu pravděpodobnost výběru dvojice písmen pravidlem násobení pravděpodobností je

    Požadavek na aditivitu množství informací při operaci zvětšování abecedy vede k rovnosti

    Nechte a . Pak pro jakékoli a musí být dodržena rovnice

    Vylučujeme případy nebo z úvahy, protože vzhledem ke konečnému počtu písmen abecedy tyto rovnosti znamenají, že výběr dvojice písmen zdrojem je nemožná událost.

    Rovnost (1.3) je funkční rovnice, ze které lze určit tvar funkce. Obě strany rovnice (1.3) diferencujeme vzhledem k p:

    .

    Obě části výsledné rovnice vynásobíme p a zavedeme zápis , tedy

    (1.4)

    Tato rovnice by měla platit pro všechny . Poslední omezení není podstatné, protože rovnice (1.4) je symetrická vzhledem k, a proto musí být splněna pro každou dvojici kladných hodnot argumentů nepřesahující jednu. To je však možné pouze v případě, že obě části (1.4) představují nějakou konstantní hodnotu , odkud

    Integrací výsledné rovnice zjistíme

    , (1.5)

    kde je libovolná integrační konstanta.

    Vzorec (1.5) definuje třídu funkcí vyjadřujících množství informace při výběru písmene s pravděpodobností a splnění podmínky aditivity. Pro určení integrační konstanty použijeme výše uvedenou podmínku, podle které předem určený prvek zprávy, tedy s pravděpodobností, neobsahuje informaci. Proto, , odkud okamžitě vyplývá, že . - základna přirozených logaritmů), nebo, jinými slovy, je rovna informaci obsažené ve zprávě, že nastala událost, jejíž pravděpodobnost byla rovna

    uvážíme-li, že logaritmus se bere v jakékoli bázi, pokud je tato báze zachována v průběhu řešeného problému.

    Díky aditivitě informací umožňují výrazy (1.6) určit množství informace nejen v písmenu zprávy, ale také v libovolné libovolně dlouhé zprávě. Je pouze nutné vzít jako pravděpodobnost výběru této zprávy ze všech možných s ohledem na dříve vybrané zprávy.

    Informatika

    Množství informací


    Úvod

    2. Nejistota, množství informací a entropie

    3. Shannonova formule

    4. Hartleyho vzorec

    5. Množství informací přijatých v procesu komunikace

    Seznam použité literatury


    Úvod

    Podle definice, A.D. Ursula - "informace odráží rozmanitost." Množství informací je kvantitativním měřítkem rozmanitosti. To může být různorodost celkového obsahu paměti; rozmanitost signálu přijímaného v procesu konkrétní zprávu; rozmanitost výsledků konkrétní situace; rozmanitost prvků nějakého systému ... je hodnocením rozmanitosti v nejširším slova smyslu.

    Jakákoli zpráva mezi zdrojem a příjemcem informace má určité trvání v čase, ale množství informací přijatých příjemcem v důsledku zprávy je nakonec charakterizováno nikoli délkou zprávy, ale rozmanitostí signálu generovaného v přijímači touto zprávou.

    Paměť nosiče informace má určitou fyzickou kapacitu, ve které je schopna akumulovat obrazy, a množství informací nashromážděných v paměti je v konečném důsledku charakterizováno rozmanitostí plnění této kapacity. U předmětů neživé přírody je to rozmanitost jejich historie, u živých organismů je to rozmanitost jejich zkušeností.

    1.Bit

    Rozmanitost je při přenosu informací zásadní. Bílou na bílou nelze kreslit, jeden stav nestačí. Pokud je paměťová buňka schopna být pouze v jednom (počátečním) stavu a není schopna svůj stav pod vnějším vlivem změnit, znamená to, že není schopna vnímat a uchovávat informace. Informační kapacita takové buňky je 0.

    Minimální diverzita je zajištěna přítomností dvou stavů. Pokud je paměťová buňka schopna v závislosti na vnějším vlivu zaujmout jeden ze dvou stavů, které se běžně označují jako „0“ a „1“, má minimální informační kapacitu.

    Informační kapacita jedné paměťové buňky schopné být ve dvou různých stavech se bere jako měrná jednotka množství informace - 1 bit.

    1 bit (bit - zkratka anglické binární číslice - binární číslo) je měrnou jednotkou informační kapacity a množství informací a ještě jedna veličina - informační entropie, se kterou se seznámíme později. Bit, jedna z nejvíce nepodmíněných měrných jednotek. Pokud by jednotka měření délky mohla být nastavena jako libovolná: loket, stopa, metr, pak by jednotka měření informace nemohla být v podstatě žádná jiná.

    Na fyzické úrovni Bit je paměťová buňka, která je kdykoli v jednom ze dvou stavů: "0" nebo "1".

    Pokud každý bod nějakého obrázku může být pouze buď černý nebo bílý, nazývá se takový obrázek bitmapa, protože každý bod je paměťová buňka s kapacitou 1 bit. Tlukot také symbolizuje žárovka, která může být zapnutá nebo vypnutá. Klasický příklad ilustrující 1 bit informace - množství informace získané jako výsledek hození mince - hlavy nebo ocasy.

    Množství informace rovnající se 1 bitu lze získat jako odpověď na otázku ano / ne. Pokud zpočátku existovaly více než dvě možnosti odpovědi, množství informací přijatých v konkrétní odpovědi bude větší než 1 bit, pokud budou možnosti odpovědi méně než dvě, tzn. za prvé, pak to není otázka, ale prohlášení, proto není vyžadováno získávání informací, protože neexistuje žádná nejistota.

    Informační kapacita paměťové buňky schopné přijímat informace nemůže být menší než 1 bit, ale množství přijaté informace může být menší než 1 bit. K tomu dochází, když možnosti odpovědi „ano“ a „ne“ nejsou stejně pravděpodobné. Nejednotnost je zase důsledkem toho, že k této problematice jsou již k dispozici některé předběžné (a priori) informace získané např. na základě předchozích životních zkušeností. Ve všech argumentech předchozího odstavce je tedy třeba vzít v úvahu jedno velmi důležité upozornění: platí pouze pro ekvipravděpodobný případ.

    Množství informace budeme označovat symbolem I, pravděpodobnost značíme symbolem P. Připomeňme, že celková pravděpodobnost celá skupina události je 1.

    2. Nejistota, množství informací a entropie

    Zakladatel teorie informace Claude Shannon definoval informaci jako odstranění nejistoty. Přesněji řečeno, získávání informací - nutná podmínka k odstranění nejistoty. Nejistota vzniká v situaci volby. Úkolem, který se řeší při odstraňování nejistoty, je snížení počtu zvažovaných možností (snížení diverzity) a v důsledku toho výběr jedné možnosti odpovídající situaci z možných. Odstranění nejistoty poskytuje příležitost činit informovaná rozhodnutí a jednat. To je kontrolní role informací.

    Situace maximální nejistoty implikuje přítomnost několika stejně pravděpodobných alternativ (možností), tzn. žádná z možností není preferována. Navíc, čím více stejně pravděpodobných možností je pozorováno, tím větší je nejistota, tím obtížnější je učinit jednoznačný výběr a tím více informací je zapotřebí k jeho získání. Pro N variant je tato situace popsána následujícím rozdělením pravděpodobnosti: (1/N, 1/N, … 1/N).

    Minimální nejistota je 0, tzn. tato situace naprosté jistoty, což znamená, že volba byla učiněna, a to vše nezbytné informace přijaté. Rozdělení pravděpodobnosti pro situaci úplné jistoty vypadá takto: (1, 0, …0).

    Veličina charakterizující míru nejistoty v teorii informace se označuje symbolem H a nazývá se entropie, přesněji informační entropie.

    Entropie (H) je míra nejistoty vyjádřená v bitech. Entropii lze také považovat za měřítko rovnoměrnosti distribuce náhodná proměnná.

    Obrázek 1. ukazuje chování entropie pro případ dvou alternativ se změnou poměru jejich pravděpodobností (p, (1-p)).

    Entropie dosahuje své maximální hodnoty při tento případ potom, když jsou obě pravděpodobnosti stejné a rovné ½, hodnota nulové entropie odpovídá případům (p 0 =0, p 1 =1) a (p 0 =1, p 1 =0).

    Množství informace I a entropie H charakterizují stejnou situaci, ale z kvalitativně opačných stran. I je množství informací, které je potřeba k odstranění nejistoty H. Podle definice Leona Brillouina je informace negativní entropie (negentropie).

    Když je nejistota zcela odstraněna, množství přijatých informací I se rovná původně existující nejistotě H.

    Při částečném odstranění nejistoty se množství přijatých informací a zbývající nevyřešená nejistota sčítají k počáteční nejistotě. Ht + It = H.

    Z tohoto důvodu jsou vzorce, které budou uvedeny níže pro výpočet entropie H, také vzorce pro výpočet množství informace I, tzn. pokud jde o úplné odstranění nejistoty, H v nich může být nahrazeno I.

    3. Shannonova formule

    V obecném případě entropie H a množství informací, které jsem v důsledku odstranění nejistoty získal, závisí na počátečním počtu uvažovaných možností N a apriorních pravděpodobností pro realizaci každé z nich P: (p 0, p 1, …p N -1), tzn. H=F(N, P). Výpočet entropie se v tomto případě provádí podle Shannonova vzorce, který navrhl v roce 1948 v článku „Matematická teorie komunikace“.

    V konkrétním případě, kdy jsou všechny varianty stejně pravděpodobné, zůstává závislost pouze na počtu uvažovaných variant, tzn. H=F(N). Shannonův vzorec je v tomto případě značně zjednodušený a shoduje se s Hartleyho vzorcem, který jako první navrhl americký inženýr Ralph Hartley v roce 1928, tzn. o 20 let dříve.

    Shannonův vzorec má následující tvar:

    (1)

    Rýže. 3. Nalezení logaritmu b k základu a je nalezením mocniny, na kterou musíte zvýšit a, abyste dostali b.

    Připomeňme si, co je logaritmus.

    Logaritmus se základem 2 se nazývá binární:

    log 2 (8) = 3 => 2 3 = 8

    log2(10)=3,32 => 2 3,32 =10

    Logaritmus se základem 10 se nazývá desetinný:

    log 10 (100) = 2 => 102 = 100

    Hlavní vlastnosti logaritmu:

    1. log(1)=0 protože libovolné číslo s nulovou mocninou dává 1;

    2. log(a b)=b*log(a);

    3. log(a*b)=log(a)+log(b);

    4. log(a/b)=log(a)-log(b);

    5. log(l/b)=0-log(b)=-log(b).

    Znaménko mínus ve vzorci (1) neznamená, že entropie je záporná. To je vysvětleno skutečností, že p i £ 1 podle definice a logaritmus čísla menšího než jedna je záporná hodnota. Podle vlastnosti logaritmu

    , takže tento vzorec lze napsat ve druhé verzi, bez mínusu před znaménkem součtu. je interpretováno jako soukromé množství informací získaných v případě implementace i-té možnosti. Entropie v Shannonově vzorci je průměrná charakteristika - matematické očekávání rozdělení náhodné veličiny (I 0, I 1, ... I N -1 ).

    Množství informace je číselná charakteristika signálu, odrážející míru nejistoty (nekompletnosti znalostí), která zmizí po obdržení zprávy v podobě daného signálu.
    Tato míra nejistoty v teorii informace se nazývá entropie. Pokud je v důsledku přijetí zprávy dosaženo úplného vyjasnění nějaké záležitosti, říká se, že byly přijaty úplné nebo vyčerpávající informace a je třeba přijmout dodatečné informace Ne. Naopak, pokud po přijetí zprávy zůstane nejistota stejná, pak nebyla přijata žádná informace (nulová informace).
    Výše uvedená úvaha ukazuje, že mezi pojmy informace, nejistota a volba existuje úzký vztah. Jakákoli nejistota tedy znamená možnost volby a jakákoli informace snižující nejistotu snižuje možnost volby. S úplnými informacemi není na výběr. Částečné informace snižují počet možností, a tím snižují nejistotu.
    Zvažte příklad. Člověk hodí mincí a sleduje, na kterou stranu padne. Obě strany mince jsou si rovny, takže je stejně pravděpodobné, že jedna nebo druhá strana vypadne. Tato situace je připisována počáteční nejistotě, charakterizované dvěma možnostmi. Po pádu mince je dosaženo úplné jasnosti a nejistota zmizí (stane se nulová).
    Výše uvedený příklad odkazuje na skupinu událostí, u kterých lze položit otázku ano-ne.
    Množství informací, které lze získat při zodpovězení otázky ano-ne, se nazývá bit (anglicky bit - zkratka pro binární číslici - binární jednotka).
    Bit je nejmenší jednotka informace, protože není možné získat informace menší než 1 bit. Při příjmu informace v 1 bitu se nejistota sníží 2krát. Každý hod mincí nám tedy poskytne 1 bit informace.
    Zvažte systém dvou elektrických žárovek, které lze zapínat nebo vypínat nezávisle na sobě. U takového systému jsou možné následující stavy:
    Lampa A: 0 0 1 1 ;
    Lampa B: 0 1 0 1 .
    Získat úplné informace o stavu systému musíte položit dvě otázky ano-ne na žárovku A a žárovku B. V tomto případě je množství informací obsažených v tomto systému určeno již ve 2 bitech a počet možných stavů systému je 4. Pokud vezmete tři žárovky, musíte položit tři otázky a získat 3 bity informací. Počet stavů takového systému je 8 a tak dále.
    Vztah mezi množstvím informací a počtem stavů systému je stanoven Hartleyho vzorcem.
    i=log 2N,
    kde i je množství informace v bitech; N je počet možných stavů. Stejný vzorec může být zapsán odlišně:
    N=2i.
    Skupina 8 bitů informací se nazývá bajt.
    Pokud je bit nejmenší jednotkou informace, pak je její základní jednotkou bajt. Existují odvozené jednotky informace: kilobajt (KB, Kb), megabajt (MB, Mb) a gigabajt (GB, GB).
    Existuje tedy úzký vztah mezi pojmy „informace“, „nejistota“ a „možnost výběru“. Jakákoli nejistota znamená možnost volby a jakákoli informace snižující nejistotu snižuje možnost volby. Částečné informace snižují počet možností, a tím snižují nejistotu.
    Množství informace je číselná charakteristika signálu, odrážející míru nejistoty (nekompletnosti znalostí), která zmizí po obdržení zprávy v podobě daného signálu.

    Více k tématu Pojem množství informací:

    1. Pojem, druhy informací a zásady právní úpravy vztahů v oblasti informací
    2. Žurnalistika jako masová informační činnost. Pojmy "informace" a "hromadné informace". Masová informace jako produkt masové informační činnosti. Hromadné informace a sociální informace.
    Informace o autorovi

    Chetvergová Yu. N.

    Místo výkonu práce, pozice:

    MOU "Střední škola č. 1 Porkhov", učitel

    Pskovská oblast

    Charakteristika lekce (třídy)

    úroveň vzdělání:

    Střední (úplné) všeobecné vzdělání

    Cílová skupina:

    učitel (učitel)

    Třídy):

    Položky:

    Informatika a ICT

    Účel lekce:

    Opakování, upevňování, kontrola znalostí a dovedností

    Typ lekce:

    Lekce pro integrovanou aplikaci studentů ZUN

    Studenti ve třídě (publikum):

    Použitá metodologická literatura:

    Pourochnye vývoj v informatice. Stupeň 10. O. L. Sokolová;

    Použité vybavení:

    Program "Kalkulačka"

    Kalkulačka

    Předmět. Množství informací. Hartleyho a Shannonova vzorce

    Postup lekce

    Opakování látky probrané v lekci. Doplnění. (10 minut)

    Tréninkové karty. skupinová práce(20 minut)

    Řešení problému. Práce ve dvojici (10 minut)

    Test. (40 minut)

    Vzájemné ověřování. Pracujte na chybách.

    Základní znalosti, dovednosti a kompetence

    Znalost:

    Které události jsou stejně pravděpodobné a které ne.

    Jak zjistit pravděpodobnost události;

    Jak zjistit množství informací ve zprávě pro různé události.

    dovednosti:

    Rozlišujte mezi stejně pravděpodobnými a ne stejně pravděpodobnými událostmi;

    Najděte množství informací pro různé události.

    kompetence:

    Spolupráce

    Sdělení

    Kreativita a zvědavost

    Kritické myšlení (hodnotový soud)

    Opakování látky probrané v lekci

    Které události jsou stejně pravděpodobné a které ne stejně pravděpodobné?

    V roce 1928 navrhl americký inženýr R. Hartley vědecký přístup k hodnocení zpráv. Vzorec, který navrhl, byl následující:

    I = log 2 K,
    kde K je počet ekvipravděpodobných událostí; I je počet bitů ve zprávě, takže došlo k některé z K událostí. Pak K=2 I .
    Někdy je Hartleyho vzorec napsán takto:

    I \u003d log 2 K \u003d log 2 (1 / p) \u003d - log 2 p,
    protože každý z K událostí má ekvipravděpodobný výsledek p = 1 / K, pak K = 1 / p.

    Míč je v jedné ze tří uren: A, B nebo C. Určete, kolik bitů informací obsahuje zpráva, která je v urně B.

    Řešení.

    Taková zpráva obsahuje I = log 2 3 = 1,585 bitů informace.

    Ale ne všechny situace mají stejnou pravděpodobnost realizace. Existuje mnoho takových situací, ve kterých se pravděpodobnost realizace liší. Například pokud se hodí asymetrická mince nebo „sendvičové pravidlo“.

    "Jednou jsem jako dítě upustil sendvič. Když jsem se díval, jak provinile utírám olejovou skvrnu, která zůstala na podlaze, můj starší bratr mě ujistil:

    Nebojte se, je to zákon sendviče, který fungoval.

    Co je to za zákon? Zeptal jsem se.

    Zákon, který říká: "Sendvič vždy padá máslem dolů." To je ale vtip, pokračoval bratr.. "Žádný zákon neexistuje." Jen se chlebíček opravdu chová dost zvláštně: většina másla je na dně.

    Pojďme ještě párkrát upustit sendvič, zkontrolujte, - navrhl jsem. - Stejně to budeš muset vyhodit.

    Kontrolovány. Z deseti krát osm spadl sendvič máslovou stranou dolů.

    A pak mě napadlo: dá se předem vědět, jak bude chlebíček s máslem padat dolů nebo nahoru?

    Naše experimenty byly přerušeny matkou ... “
    (Úryvek z knihy „Tajemství velkých generálů“, V. Abchuk).

    V roce 1948 americký inženýr a matematik K Shannon navrhl vzorec pro výpočet množství informací pro události s různou pravděpodobností.
    Pokud jsem množství informací,
    K - počet možných událostí, p i - pravděpodobnosti jednotlivých událostí,
    pak množství informací pro události s různou pravděpodobností lze určit podle vzorce:

    I = - Součet p i log 2 p i , kde i nabývá hodnot od 1 do K.

    Hartleyho vzorec lze nyní považovat za speciální případ Shannonovy vzorce:

    I \u003d - Součet 1 / K log 2 (1 / K) \u003d I \u003d log 2 K.

    Pro stejně pravděpodobné události je množství získaných informací maximální.

    Jak zjistit pravděpodobnost události?

    Pokud je informace obsažená v nějaké zprávě nová, pro člověka srozumitelná, doplňuje jeho znalosti, tzn. vést ke snížení nejistoty poznání, pak zpráva obsahuje informaci.

    1 bit - množství informací obsažených ve zprávě, které 2krát snižuje nejistotu znalosti.

    Příklad

    Při hodu mincí jsou možné 2 události (případy) – mince padne hlavou nebo patou a obě události jsou stejně pravděpodobné (když ve velkém počtu přehodí, kolikrát mince padne hlavou a ocasem je stejný). Po obdržení zprávy o výsledku pádu mince se nejistota znalostí snížila 2krát, a proto je množství přijatých informací v tomto případě 1 bit.

    Jak zjistit množství informací ve zprávě pro různé události?

    Výpočet množství informací pro nepravděpodobné události.

    Pokud jsou události stejně pravděpodobné, lze množství informací vypočítat pomocí vzorce:

    N = 2 I

    kde N - počet možných událostí,

    je množství informací v bitech.

    Vzorec navrhl americký inženýr R. Hartley v roce 1928.

    Úkol 1.V krabičce je 32 tužek, všechny tužky jsou různých barev. Náhodně byla vylosována červená. Kolik informací z toho bylo získáno?

    Řešení.

    Vzhledem k tomu, že nakreslení tužky libovolné barvy z 32 tužek v krabici je stejně pravděpodobné, počet možných událostí

    rovná se 32.

    N = 32, I = ?

    N = 2 I , 32 = 2 5 , I = 5 bitů .

    Odpovědět: 5 bitů

    Výpočet množství informací pro události s různou pravděpodobností.

    Existuje mnoho situací, kdy možné události mají různé pravděpodobnosti realizace. Zvažte příklady takových událostí.

    1. V krabičce je 20 tužek, z toho 15 červených a 5 černých. Pravděpodobnost náhodného nakreslení červené tužky je větší než černé.

    2. Pokud sendvič náhodou upadne, je pravděpodobnější, že spadne olejem dolů (těžší strana) než olejem nahoru.

    3. V rybníce žije 8 000 karasů, 2 000 štik a 40 000 střevle. Největší šancí pro rybáře je ulovit v tomto rybníku střevle, na druhém místě - karasa, na třetím - štiku.

    Množství informací ve zprávě o nějaké události závisí na její pravděpodobnosti. Čím nižší je pravděpodobnost události, tím více informací nese.
    P=K/N , kde K je počet případů realizace jednoho z výsledků události, N - celkový počet možných výsledků jedné z událostí
    2
    I = log 2 (1/p ), kde I - množství informací, p - pravděpodobnost události

    Úkol 1 . V krabici je 50 míčků, z toho 40 bílých a 10 černých. Určete množství informací ve zprávě o náhodném losování bílé koule a černé koule.

    Řešení.
    Pravděpodobnost nakreslení bílé koule

    P 1 = 40/50 = 0,8
    Pravděpodobnost nakreslení černé koule
    P 2 = 10/50 = 0,2
    Množství informací o kreslení bílé koule
    I 1 \u003d log 2 (1 / 0,8) \u003d log 2 1,25 \u003d log 1,25 / log 2 " 0,32 bitu
    Množství informací o nakreslení černé koule

    I 2 \u003d log 2 (1 / 0,2) \u003d log 2 5 \u003d log5 / log2» 2,32 bit

    Odpovědět: 0,32bit, 2,32bit

    Co je to logaritmus?

    Logaritmus čísla k základu b je exponent, na který musí být číslo zvýšeno A získat číslo b.

    a logab = b, a > 0, b > 0, a ≠ 1

    Analýza problému
    Určete množství informací přijatých během provádění jedné z událostí, pokud hází
    a) asymetrická čtyřboká pyramida;
    b) symetrický a jednotný čtyřboký jehlan.

    Řešení.

    A) Hodíme asymetrický čtyřboký jehlan.
    Pravděpodobnost jednotlivých událostí bude následující:
    p1 = 1/2,
    p2 = 1/4,
    p3 = 1/8,
    p4 = 1/8,
    pak se množství informací získaných po provedení jedné z těchto událostí vypočítá podle vzorce:
    I = -(1/2 log 2 1/2 + 1/4 log 2 1/4 + 1/8 log 2 1/8 + 1/8 log 2 1/8) = 1/2 + 2/4 + 3/8 + 3/8 = 14/8 = 1,75 (bit).
    b) Nyní spočítejme množství informací, které získáme při házení symetrické a jednotné čtyřboké pyramidy:
    I = log 2 4 = 2 (bit).
    2. Pravděpodobnost první události je 0,5 a druhé a třetí události 0,25. Kolik informací získáme po implementaci jednoho z nich?
    3. Kolik informací získáte při hraní rulety s 32 sektory?
    4. Kolik různá čísla lze kódovat 8 bity?
    Řešení: I=8 bitů, K=2 I =2 8 =256 různých čísel.

    Úkol 2.V jezeře žijí kapři a okouni. Odhaduje se, že kaprů je 1500 a okounů 500. Kolik informací obsahují hlášení, že rybář chytil karase, okouna, ulovil ryby?

    Řešení.
    Události ulovení karasů nebo okounů nejsou stejně pravděpodobné, protože okounů je v jezeře méně než karasů.

    Celkový počet karasů a okounů v jezírku je 1500 + 500 = 2000.
    Pravděpodobnost dostat se na návnadu karasa

    p1 = 1500/2000 = 0,75 okouna p 2 \u003d 500/2000 \u003d 0,25.

    I 1 = log 2 (1/ p I ), I 1 = log 2 (1/ p 2 ), kde P 1 a P 2 - pravděpodobnost ulovení karasů a okounů.

    I 1 = log 2 (1 / 0,75) » 0,43 bitů, I 2 = log 2 (1 / 0,25) =2 bity - množství informací ve zprávě k ulovení karasů a okounů.

    Množství informací ve zprávě k ulovení ryby (kaprů nebo okouna) se vypočítá pomocí Shannonova vzorce

    I = - p 1 log 2 p 1 - p 2 log 2 p 2

    I = - 0,75*log 2 0,75 - 0,25*log 2 0,25 = - 0,75*(log0,75/log2)-0,25*(log0,25/log2) =

    0,311 + 0,5 = 0,811

    Odpovědět:zpráva obsahuje 0,811 bitů informací

    Cvičební karty (20 minut)

    №1

    1. V krabičce bylo 32 barevných tužek. Kolik informací sděluje zpráva, že byla z krabice vyjmuta červená tužka?

    2. Zpráva, že váš přítel bydlí v 9. patře, obsahuje 4 bity informací. Kolik pater je v domě?

    3. Kolik kilobajtů bude tvořit zprávu o 384 znacích 16znakové abecedy?

    4. Počítačem psaná kniha obsahuje 250 stran; 40 řádků na stránku, 60 znaků na řádek. Kolik informací je v knize?

    5. Napište následující čísla binární systém Počítání: 37 a 52.

    №2

    2. Ve školní knihovně je 8 polic s knihami. Každý regál má 4 police. Knihovník Vasyovi řekl, že kniha, kterou potřebuje, je na páté polici na druhé polici shora. Kolik informací poskytl knihovník Vasyovi?

    4. Kolik informací obsahuje zpráva, která 2krát snižuje nejistotu znalostí?

    5. Zapište následující čísla v binárním systému: 12 a 49.

    1. Při uhodnutí celého čísla v určitém rozsahu bylo přijato 8 bitů informace. Kolik čísel obsahuje tento rozsah?

    2. Přiblížili jste se k semaforu, když svítila červená. Pak se rozsvítilo žluté světlo. Kolik informací jste obdrželi?

    3. Kmen Pulti má 16znakovou abecedu. Kmen Multi používá 32znakovou abecedu. Kmenoví vůdci si vyměnili dopisy. Písmeno kmene Pulti obsahovalo 90 znaků a písmeno kmene Multi obsahovalo 70 znaků. Porovnejte množství informací obsažených v dopisech.

    4. Kolik kilobajtů bude tvořit zprávu o 384 znacích 8znakové abecedy?

    5. Zapište následující čísla v binárním systému: 33 a 15.

    2. Zpráva zabírá 2 stránky a obsahuje 1/16 Kb informací. Každá stránka obsahuje 256 znaků. Kolik informací nese jedno písmeno používané abecedy?

    3. Zpráva napsaná písmeny z abecedy o 128 znacích obsahuje 11 znaků. Kolik informací nese?

    4. V krabičce je 64 barevných tužek. Kolik informací obsahuje zpráva, že byla z krabice vyjmuta zelená tužka?

    5. Zapište následující čísla v dvojkové soustavě: 17 a 42.

    1. Kolik informací získá druhý hráč po prvním tahu prvního hráče ve hře piškvorky na hřišti 4x4?

    2. V loterijním bubnu je 8 kuliček. Kolik informací obsahuje zpráva o prvním vylosovaném čísle, např. vypadlo číslo 2?

    3. Počet bitů informace ve zprávě „Míša obsadil jedno ze 16 míst na olympiádě v informatice“?

    4. Rastr grafický soubor obsahuje černobílý obrázek s 16 gradacemi šedá barva velikost 10x10 bodů. Jaký je informační objem tohoto souboru?

    5. Zapište následující čísla v dvojkové soustavě: 28 a 51.

    1. Abeceda kmene Multi se skládá z 8 písmen. Kolik informací obsahuje zpráva o 13 znacích?

    2. Soubor rastrové grafiky obsahuje černobílý obrázek (bez stupňů šedi) o velikosti 100x100 pixelů. Jaký je informační objem tohoto souboru?

    3. Při uhodnutí celého čísla v určitém rozsahu bylo přijato 5 bitů informace. Kolik čísel obsahuje tento rozsah?

    4. Byl přijat telegram: "Seznamte se s autem 6". Je známo, že vlak tvoří 16 vozů. Kolik informací bylo přijato?

    5. Zapište následující čísla v binárním systému: 23 a 38.

    1. Hodí se symetrický čtyřboký jehlan. Kolik informací získáme ve vizuální zprávě o jejím pádu na jednu z tváří?

    2. Jaký je informační objem textu obsahujícího slovo ENCODING v 8bitovém kódování?

    3. Barevná (s paletou 256 barev) bitmapa grafický obrázek má velikost 10x10 bodů. Kolik paměti zabere tento obrázek?

    4. Zpráva, že váš přítel bydlí v 8. patře, obsahuje 4 bity informací. Kolik pater je v domě?

    5. Zapište následující čísla v binárním systému: 19 a 46.

    1. Na výběr je jedna karta z balíčku 32 karet. Kolik informací získáme ve vizuálním sdělení o výběru určité karty?

    2. Kolik informací je požadováno binární kódování každý znak v sadě 256 znaků?

    3. Text zabírá 0,5 Kbyte paměti počítače. Kolik znaků obsahuje tento text?

    4. Abeceda kmene Pulti se skládá ze 128 písmen. Kolik informací nese jedno písmeno této abecedy?

    5. Zapište následující čísla v binárním systému: 11 a 35.

    1. „Je tvůj přítel doma?“ zeptal se student ve škole. "Ne," odpověděl. Kolik informací obsahuje odpověď?

    2. Zpráva zabere 3 stránky po 25 řádcích. Každý řádek obsahuje 60 znaků. Kolik znaků je v použité abecedě, pokud celá zpráva obsahuje 1125 bajtů?

    3. V krabici je 16 barevných míčků. Kolik informací obsahuje zpráva, že byla z krabice vyjmuta žlutá koule?

    4. Při uhodnutí celého čísla v určitém rozsahu bylo přijato 5 bitů informace. Kolik čísel obsahuje tento rozsah?

    5. Zapište následující čísla v binárním systému: 13 a 41.

    1. Jaký je počet bitů informace ve zprávě „Vanya obsadil jedno z 8 míst na olympiádě v informatice“?

    2. Počítačově psaná kniha obsahuje 150 stran; 40 řádků na stránku, 60 znaků na řádek. Kolik informací je v knize? Definujte v KB.

    3. Při hádání celého čísla v rozsahu od 1 do N bylo přijato 8 bitů informace. Čemu se rovná N?

    4. Zpráva napsaná písmeny z 32znakové abecedy obsahuje 30 znaků. Kolik informací nese?

    5. Zapište následující čísla v dvojkové soustavě: 16 a 39.

    1. Abeceda kmene Multi se skládá z 16 písmen. Kolik informací nese jedno písmeno této abecedy?

    2. Zpráva, že váš přítel bydlí v 8. patře, obsahuje 5 bitů informací. Kolik pater je v domě?

    3. Najděte maximální počet knih (každá 200 stran dlouhá, 60 řádků na stránku, 80 znaků na řádek) zcela umístěných na laserový disk s kapacitou 600 MB.

    4. Kolik informací je potřeba k uhodnutí jednoho z 64 čísel?

    5. Zapište následující čísla v binárním systému: 14 a 53.

    1. Byl přijat telegram: "Seznamte se s autem 4". Je známo, že vlak se skládá z 8 vozů. Kolik informací bylo přijato?

    2. Objem zprávy obsahující 2048 znaků byl 1/512 MB. Jaká je velikost abecedy (kolik znaků v abecedě?), kterou je zpráva napsána?

    3. "Vystupujete na příští zastávce?" zeptal se muž v autobuse. "Ano," odpověděl. Kolik informací obsahuje odpověď?

    4. Zpráva napsaná písmeny z 16znakové abecedy obsahuje 25 znaků. Kolik informací obsahuje odpověď?

    5. Zapište následující čísla v binárním systému: 26 a 47.

    1. Kolik kilobajtů má zpráva obsahující 12288 bitů?

    2. Kolik informací obsahuje zpráva, která čtyřnásobně snižuje nejistotu znalostí?

    3. Kolik znaků obsahuje zpráva napsaná pomocí 16znakové abecedy, pokud její objem byl 1/16 MB?

    4. Do bazénu, který má 8 plaveckých drah, přišla skupina školáků. Trenér řekl, že skupina bude plavat v dráze číslo 4. Kolik informací studenti z této zprávy získali?

    5. Zapište následující čísla v binárním systému: 18 a 25.

    1. Přiblížili jste se k semaforu, když svítilo žluté světlo. Poté zezelenal. Kolik informací jste obdrželi?

    2. K napsání textu byla použita abeceda o délce 256 znaků. Každá stránka obsahuje 30 řádků po 60 znacích na řádek. Kolik informací obsahuje 6 stran textu?

    3. V loterijním bubnu je 64 kuliček. Kolik informací obsahuje zpráva o prvním vylosovaném čísle (např. vypadlo číslo 32)?

    4. Při uhodnutí celého čísla v určitém rozsahu bylo přijato 7 bitů informace. Kolik čísel obsahuje tento rozsah?

    5. Zapište následující čísla v binárním systému: 27 a 56.

    1. Zpráva, že Péťa bydlí v prvním vchodu, nese 2 bity informace. Kolik verand je v domě?

    2. Zpráva napsaná písmeny z abecedy o 128 znacích obsahuje 40 znaků. Kolik informací nese?

    3. Informační zpráva o velikosti 1,5 KB obsahuje 3072 znaků. Kolik znaků je v abecedě, kterou byla tato zpráva napsána?

    4. Kolik kilobajtů bude tvořit zprávu o 284 znacích 16znakové abecedy?

    5. Zapište následující čísla v binárním systému: 10 a 29.

    1. Kolik informací získá druhý hráč po prvním tahu prvního hráče ve hře piškvorky na hřišti 4x4?

    2. Kolik bajtů informací obsahuje 1 MB?

    3. Jaký byl počet možných událostí, pokud jsme po implementaci jedné z nich obdrželi množství informací rovnající se 7 bitům?

    4. K napsání zprávy byla použita abeceda 64 znaků. Každá stránka obsahuje 30 řádků. Celá zpráva obsahuje 8775 bajtů informací a zabírá 6 stránek. Kolik znaků na řádek?

    5. Zapište následující čísla v binárním systému: 22 a 59.

    1. Zpráva napsaná písmeny z abecedy o 128 znacích obsahuje 40 znaků. Kolik informací nese?

    2. Kolik informací získá druhý hráč ve hře „Hádej číslo“ se správnou strategií, pokud první hráč uhádl číslo v rozsahu od 1 do 64?

    3. K napsání textu byla použita abeceda o délce 256 znaků. Každá stránka obsahuje 30 řádků po 70 znacích na řádek. Kolik informací obsahují 3 stránky textu?

    4. Text zabírá 0,25 KB paměti počítače. Kolik znaků obsahuje tento text?

    5. Zapište následující čísla v binárním systému: 32 a 51.

    1. Kolik bitů informace obsahuje 1 KB?

    2. První kmen má 16znakovou abecedu. Druhý kmen používá abecedu o 32 znacích. Kmenoví vůdci si vyměnili dopisy. Dopis z prvního kmene obsahoval 90 znaků a dopis z druhého kmene obsahoval 80 znaků. Porovnejte množství informací obsažených v dopisech.

    3. Kolik informací získáte při hraní rulety s 32 sektory?

    4. Informace jsou přenášeny rychlostí 2,5 Kb/s. Kolik informací se přenese za 20 minut?

    5. Zapište následující čísla v binárním systému: 21 a 48.

    Řešení problémů dle vlastního výběru (20 minut)

    №1

    Zpráva je psána pomocí abecedy obsahující 8 znaků. Kolik informací nese jedno písmeno této abecedy? Řešení: I = log 2 8 = 3 bity.

    Odpovědět: 3 bity.

    №2

    Informační objem jednoho znaku nějaké zprávy je roven 6 bitům. Kolik znaků je v abecedě, se kterou byla/napsána tato zpráva? Řešení: N=2 I = 2 6 = 64 znaků.

    Odpovědět: 64 znaků.

    №3

    Informační objem jednoho znaku nějaké zprávy se rovná 5 bitů. Jaké jsou meze (maximální a minimální hodnota) mocniny abecedy, se kterou je tato zpráva složena?

    Řešení: N = 2 I = 2 5 = 32 — maximální hodnota mocniny abecedy. Pokud existuje alespoň jeden další znak, pak bude pro kódování potřeba 6 bitů.

    Minimální hodnota je 17 znaků, protože pro méně znaků budou stačit 4 bity. Odpovědět: 4 bity.

    №4

    Zpráva napsaná písmeny ze 128znakové abecedy obsahující 30 znaků. Kolik informací nese?

    Vzhledem k tomu: N = 128, K = 30.

    Nalézt: 1 t - ?

    Řešení:

    1) I t \u003d KI, neznámé I;

    2) I = log 2 N = log 2 l 28 \u003d 7 bitů - objem jednoho znaku;

    3) I m = 30 * 7 = 210 bitů - objem celé zprávy.

    Odpovědět:210 bitů je celková velikost zprávy.

    №5

    Zpráva vytvořená pomocí 32znakové abecedy obsahuje 80 znaků. Další zpráva je napsána pomocí 64znakové abecedy a obsahuje 70 znaků. Porovnejte množství informací obsažených ve zprávách.

    Vzhledem k tomu: N 1 \u003d 32, K 1 \u003d 80, N 2 \u003d 64, K 2 \u003d 70.

    Nalézt: I t1 I t2

    Řešení:

    I ) I 1 = log 2 Nl = log 2 32 = 5 bitů - objem jednoho znaku první zprávy;

    1. Informace. Informační objekty různé druhy. Hlavní informační procesy: ukládání, přenos a zpracování informací. Role informací v životě lidí.
    2. Vnímání, zapamatování a transformace signálů živými organismy.
    3. Pojem množství informací: různé přístupy. Jednotky pro měření množství informací.
    4. Zobecňující hodina na dané téma, samostatná práce.

    Lekce.

    cíle:
    • vzdělávací- podat pojem množství informace, zavést pravděpodobnostní a abecední přístup při určování množství informace, zavést měrné jednotky informace, vytvořit praktické dovednosti při určování množství informace.
    • rozvíjející se- pokračovat ve formování vědeckého pohledu na svět, rozšířit slovní zásobu na téma "Informace"
    • vzdělávací- formovat zájem o předmět, pěstovat vytrvalost při překonávání obtíží ve výchovné práci.

    1. Organizační fáze (pozdrav, identifikace nepřítomných na lekci)

    2. Kontrola domácích úkolů, aktivizace znalostí

    na téma "Informace", získané v předchozích 2 lekcích. Aby bylo možné vytvořit řeč, upevnit základní pojmy tohoto tématu, kontrola domácí práce provedené formou frontálního ústního průzkumu na následující otázky:

    1. Co rozumíte informací? Dát příklad. Navrhované odpovědi: studenti obvykle snadno uvádějí příklady informací, které sami dostávají ve světě kolem sebe - zprávy, školní zvonek, nové poznatky ve třídě, informace získané četbou populárně naučné literatury, zkušenosti a emoce získané četbou beletrie, emocionální zážitky z poslechu hudby, estetické kánony, informace o kostýmu a životě 18. století, emoce získané z prohlížení obrazů umělců 18. století. Je žádoucí, aby studenti uváděli příklady informací jak v technických, tak v biologických systémech apod. (tvar vousů klíče obsahuje informace o zámku, určité teplotě vzduchu v místnosti - informace pro hasicí systém, biologická buňka obsahuje informace o biologickém objektu, jehož je součástí...)
    2. Víme, že dvě další důležité entity světa, hmota a energie, existovaly před živými organismy na Zemi. Existovaly informace a informační procesy před objevením se člověka? Navrhovaná odpověď je ano, bylo. Například informace obsažené v rostlinné buňce o typu rostliny, o podmínkách klíčení, rozmnožování atd. umožňují rostlině růst a množení bez lidského zásahu; informace nashromážděné generacemi dravých zvířat tvoří podmíněné a nepodmíněné reflexy chování dalších generací predátorů.
    3. Hmota je to, z čeho je vše vyrobeno, energie je to, co uvádí vše do pohybu. Je pravda, že informace ovládají svět. Zdůvodněte svou odpověď. Odpověď: Informace skutečně vládnou světu. Signál ze Země na satelit způsobí změnu trajektorie jeho pohybu; pokud cestou uvidíme louži, pak nás informace o jejím vzhledu, že je mokrá a špinavá, přiměje k rozhodnutí louži obejít. Charakteristické gesto člověka (ruka natažená dopředu s vertikální dlaní) nás nutí zastavit, informace na vousech klíče a tvaru štěrbiny zámku nám umožňují rozhodnout se o výběru klíče ze svazku, reflexy tvořené generacemi určitého druhu ptáků řídí migrační procesy. Když čteme beletrii, vstřebáváme životní zkušenosti postav, které ovlivňují určitá rozhodnutí v našem vlastním životě; poslechem určité hudby si utváříme vhodný vkus, který ovlivňuje naše chování, prostředí atd.
    4. Vyjmenujte druhy informací podle formy prezentace, uveďte příklady. Odpověď: číselná (cena zboží, čísla v kalendáři), textová (kniha psaná v libovolném jazyce, text učebnic), grafická (obrázek, fotografie, nápis STOP), zvuková (hudba, řeč), video (animace + zvuk), příkazová (restartujte počítač - stisknutím kláves Ctrl + Alt + Delete / Enter).
    5. Jaké akce lze s informacemi podniknout? Odpověď: lze jej zpracovat, přenést, uložit a zakódovat (reprezentovat).
    6. Vyjmenujte způsoby, jakými lidé vnímají informace. Odpověď: člověk vnímá informace pomocí 5 smyslů - zrakem (ve formě vizuálních obrazů), sluchem (zvuky - řeč, hudba, hluk...), čichem (čich pomocí nosních receptorů), chutí (receptory jazyka rozlišují kyselý, hořký, slaný, studený), hmatem (teplota předmětů, typ povrchu...)
    7. Uveďte příklady znakových systémů. Odpověď: přirozený jazyk, formální jazyk (desetinná číselná soustava, poznámky, dopravní značky, Morseova abeceda), genetická abeceda, binární znakový systém.
    8. Proč počítač používá ke kódování informací systém binárních znaků? Odpověď: binární znakový systém se používá v počítači, protože existuje technická zařízení dokáže spolehlivě uložit a rozpoznat pouze dva různé stavy (znaky).

    3. Pravděpodobnostní přístup k měření množství informací (viz multimediální prezentace).

    Dnes si povíme něco o měření informace, tedy o určování jejího množství. (Studenti si zapisují téma hodiny do sešitu - "Množství informací"). Která kniha podle vás obsahuje velké množství informace (zobrazit tenké a tlusté)? Studenti si zpravidla vybírají tlustou, protože obsahuje více slov, textu, písmen (někteří se ptají, jaký typ informací je v knize obsažen - grafický nebo textový? Je třeba upřesnit, že kniha obsahuje pouze textové informace). Které sdělení pro vás přináší více informací: „zítra se učíme podle obvyklého rozvrhu“ nebo „zítra bude místo literatury chemie“? Studenti intuitivně odpoví, že to druhé proto, že i přes téměř shodný počet slov pro ně druhá zpráva obsahuje důležitější, nové nebo relevantní informace. A první zpráva nenese vůbec žádné nové informace. Všimli jste si, že jste se na informace dívali z hlediska počtu znaků, které obsahují, a z hlediska jejich sémantické důležitosti pro vás? K určení množství informací existují 2 přístupy – sémantický a technický (abecední). Sémantika se používá k měření informací používaných osobou a technická (nebo abecední) je používána počítačem.

    Získávání nových informací vede pro člověka ke zvýšení znalostí, případně ke snížení nejistoty. Například hlášení, že zítra je středa, nesnižuje nejistotu, takže neobsahuje žádné informace. Předpokládejme, že máme minci, kterou hodíme na rovnou plochu. Před hodem víme, že se může stát jedna ze dvou věcí – mince skončí v jedné ze dvou pozic: hlava nebo ocas. Po hodu nastává naprostá jistota (vizuálně dostáváme informaci o tom, co vypadlo, např. „orel“). Informační zpráva, že „orel“ vypadl, snižuje naši nejistotu dvakrát, protože jeden z nich informační zprávy.

    V reálu poměrně často dochází k situacím, kdy mohou nastat více než 2 stejně pravděpodobné události. Takže při hodu šestistěnnou kostkou - 6 stejně pravděpodobných událostí. Případ upuštění jedné z ploch krychle sníží nejistotu 6krát. Čím větší je počáteční počet událostí, tím větší je nejistota našeho poznání, tím více informací obdržíme při příjmu informační zprávy.

    Množství informací lze považovat za měřítko snížení nejistoty znalostí při přijímání informačních zpráv.(Studenti píší do sešitů kurzívou.)

    Existuje vzorec, který dává do souvislosti počet možných informačních zpráv N a množství informací I, které přijatá zpráva nese:

    N=2já (N je počet možných informačních zpráv,I je množství informací, které přijatá zpráva nese).

    Pro kvantitativní vyjádření libovolné veličiny je nutné určit měrnou jednotku. Například pro měření délky je zvolen určitý standardní metr a pro měření hmotnosti kilogram.

    4. Jednotky měření informace

    Za jednotka měření množství informací množství informací obsažených ve zprávě je přijato, což snižuje nejistotu znalostí 2krát. Taková jednotka se nazývá bit.

    Vraťme se k výše zvažovanému příjmu informační zprávy, že „orel“ vypadl při hodu mincí. Zde se nejistota snížila o faktor 2, proto je tato zpráva rovna 1 bitu. Zpráva, že určitá strana kostky spadla, snižuje nejistotu faktorem 6, proto je tato zpráva rovna 6 bitům.

    Nejmenší jednotkou pro měření množství informací je bit a další největší jednotkou je bajt a

    1 bajt = 8 bitů

    V mezinárodní systém SI používají desetinné předpony "Kilo" (10 3), "Mega" (10 6), "Giga" (10 9), ... V počítači je informace kódována pomocí binárního znakového systému, proto se ve více jednotkách měření množství informace používá koeficient 2 n.

    1 kilobajt (KB) = 2 10 bajtů = 1024 bajtů
    1 megabajt (MB) = 2 10 kB = 1024 kB
    1 gigabajt (GB) = 2 10 MB = 1 024 MB
    1 terabajt (TB) = 2 10 GB = 1 024 GB

    Terabajt je velmi velká jednotka informace, takže se používá jen zřídka. Všechny informace, které lidstvo nashromáždilo, se odhadují na desítky terabajtů.

    5. Stanovení množství informací

    Úkol 1. Určete počet zkouškových tiketů, pokud vizuální zpráva o počtu jednoho vylosovaného tiketu nese 5 bitů informace. Počet vstupenek je počet informačních zpráv. N=2 I = 2 5 = 32 lístků.

    Úkol 2. Kolik informací má zpráva o vyhodnocení test? Za test můžete získat 2, 3, 4 nebo 5. Celkem jsou 4 zprávy (N=4). Vzorec má podobu rovnice - 4=2 I = 2 2 , I=2.

    Úkoly pro sebenaplnění: (vzorec by měl být vždy na očích, můžete také vyvěsit stůl s mocninami 2) (3 min.)

    1. Kolik informací získáme ve vizuální zprávě o pádu symetrické osmistěnné pyramidy na jednu ze stěn? Odpověď: 3 bity, protože počet možných událostí (zpráv) N=8, 8=2 I = 2 3 , I=3.
    2. Kuličky s čísly se vytahují z neprůhledného sáčku a je známo, že informační zpráva o čísle koule nese 5 bitů informace. Určete počet kuliček v sáčku. Odpověď: v sáčku je 32 kuliček, protože N=2 I = 2 5 = 32.
    3. Kolik informací při hraní piškvorek na poli 4 X 4 obdrží druhý hráč po prvním tahu prvního hráče. Odpověď: Počet událostí před začátkem hry N=16, 16=2 I = 2 4 , I=4. Druhý hráč po prvním tahu prvního hráče obdrží 4 bity informací.

    6. Abecední přístup k určování množství informací

    Podstata technického nebo abecedního přístupu k měření informace je dána počtem znaků nějaké abecedy, která ji reprezentuje. Pokud je například při reprezentaci čísla XVIII použito 5 znaků římské abecedy, jedná se o množství informací. Lze zapsat stejné číslo, tedy stejné informace desítková soustava(18). Jak vidíte, ukazuje se to na 2 znaky, tedy další hodnotu pro množství informací. Pro získání stejné hodnoty množství informací při měření stejných informací je nutné dohodnout se na použití určité abecedy. Od v technické systémy Protože se používá binární abeceda, používá se také k měření množství informací. Počet znaků v abecedě N=2, N=2 I , I - množství informací, které nese jeden znak. 2 2 = 2 1, I = 1 bit. Zajímavé je, že samotná jednotka měření množství informace „bit“ (bit) dostala svůj název z anglické fráze „ BI není digi T" - "binární číslice".

    Čím větší je počet znaků v abecedě, tím více informací nese 1 znak abecedy.

    Určete sami množství informací, které nese 1 písmeno ruské abecedy.

    Odpověď: písmeno ruské abecedy nese 5 bitů informace (s abecedním přístupem k měření informací).

    Kolik informací obsahuje jeden 8bitový symbol binární kód(znak A - 11000000)? Odpověď: 8 bitů nebo 1 bajt.

    Praktická práce(leták - instruktážní karta k provedení praktická práce) určením množství informací pomocí kalkulačky:

    1. Určete informační objem následující zprávy v bajtech (zpráva je vytištěna na kartě, karty na každém stole):

    Množství informací, které znak nese, závisí na pravděpodobnosti jejich přijetí. V ruském psaném projevu je frekvence používání písmen v textu jiná, takže v průměru je 200 písmen „a“ na 1000 znaků smysluplného textu a počet písmen „f“ je stokrát menší (pouze 2). Z hlediska teorie informace tedy informační kapacita znaky ruské abecedy jsou různé (pro písmeno "a" je nejmenší a pro písmeno "f" je největší).

    Určete počet znaků (počet znaků na řádek * počet řádků) - 460 znaků = 460 bajtů

    Zadejte a uložte tento text na plochu pomocí programu Poznámkový blok. Určete objem informací tohoto souboru pomocí počítače (Vyberte objekt APCM à Vlastnosti) Odpověď: 460 bajtů.

    Tento text lze napsat jako zvukový soubor 1.wav a porovnejte s textem (Start à programy à příslušenství à zábava à záznam zvuku…). Určete jeho informační objem pomocí počítače - 5,28 MB (5 537 254 bajtů). Vysvětlete žákům, že tento rozdíl je způsoben rozdílem v podání zvuku a textové informace. Vlastnosti takové reprezentace budou zváženy později.

    2. Určete, kolik učebnic se vejde na disk, jehož informační objem je 700 MB. Odpověď: 1. určete počet znaků v učebnici (počet znaků na řádek * počet řádků na stránku * počet stran) 60 * 30 * 203 = 365400 znaků = 365400 bajtů = 365400/1024/1024 Mb = 0,35 Mb. Počet učebnic K=700/0,35=2000 učebnic.

    7. Shrnutí lekce formou frontálního průzkumu:

    1. Jaké jsou přístupy k určení množství informací? Odpověď: Existují 2 přístupy k měření množství informací – sémantický a technický nebo abecední.
    2. Jaký je rozdíl mezi jedním a druhým přístupem? Odpověď: u sémantického přístupu je množství informace měřítkem snížení nejistoty znalostí při příjmu informační zprávy, u abecedního přístupu je to počet znaků ve zprávě * množství informací, které nese 1 znak abecedy.
    3. Uveďte měrné jednotky pro informaci od nejmenší po největší. Odpověď: bit, byte, KB, MB, GB, TB.
    4. Jak moc se liší bajt od KB, KB od MB, MB od GB? Odpověď: 1024 (2 10).
    5. Kolik bitů je v 1 bajtu? Odpověď: 8.
    6. Co je trochu v sémantickém a abecedním přístupu k určování množství informací? Odpověď: se sémantickým přístupem je bit 2-násobné snížení nejistoty znalostí po přijetí informační zprávy; v abecedním přístupu je bit informační kapacita jednoho znaku v binárním kódování.

    8. Domácí úkol

    1. Odstavce 1.3.1 a 1.1.3 (N. Ugrinovič "Informatika. Základní kurz. Třída 8") 2 otázky na str. 29 (1. Uveďte příklady informačních zpráv, které vedou ke snížení nejistoty poznání. 2. Uveďte příklady informačních zpráv, které nesou 1 bit informace).
    2. Úkoly: 1. Kolik informací obsahuje zpráva o známce za kontrolní práci? 2. Vypočítejte, kolik informací v bitech je obsaženo v 1 Kb, 1 Mb? 3. Spočítejte, kolik knih (vezměte si doma libovolnou beletrii) se vejde na 1,44 MB disketu.