Измерване на информация (подробно изложение)

Отговорът на въпроса "как да се измери информацията?" Зависи от това какво се разбира под информация. При оценяването на постъпващата информация може да бъде субективно подход: доколкото тази информация е интересно или важно за нас. Този подход ще ни доведе до факта, че една и съща информация, ще има различни оценки. Нека се опитаме да обясним тази идея.







Нека разгледаме позицията, че информацията за лицето - е знание. От това следва, че съобщението е информативно, ако не се напълни човешкото познание. Например, съобщение, че 2 * 2 = 4 е информативна за първокласник, и информативен за ученици от средните училища.

По този начин, не е възможно да се равнява на понятието "информация" и "информационни съобщения".

Ако съобщението не е информативна за хората. количеството на информацията в него от гледна точка на човек изчезва. Размерът на информация в информативно съобщение е по-голяма от нула.

Съобщението носи информация за дадено лице, ако информацията, съдържаща се в него, са нови и разбираем за него.

За количествена информация за измерване ще се въведе понятието "знания, за да се намали несигурността", се обяснява с примери. Да предположим, че се хвърлят монета zagadyvaya които попадат: ези-тура? Има само две възможности за възможния резултат от обръщане монета. Освен това, нито един от тези варианти има предимства пред другите. В този случай, те са също толкова вероятно.

Така че, в този случай, преди монетата хвърляне на неопределеността в познанията резултатът е равен на две.

Зарове с шест страни може с еднаква вероятност във всяка от тях. Следователно несигурността на знания за резултата от хвърляне на зарове е шест.

Друг пример: спортист скиор преди състезанието чрез жребий определя неговия сериен номер в началото. Ако състезанието участват 100 спортисти, неопределеността на спортист познаване на стаята си е сто.

Имайте предвид, че докато ние въведохме концепцията за несигурност по пример на еднакво вероятни събития. Но vedb събития могат да бъдат nonequiprobability. Naprmer, в изявление за времето, в зависимост от сезона, информацията, която ще бъде сняг или дъжд, може да има различна вероятност. През лятото най-вероятно съобщение за дъжда, зимата - снегът, и те могат да бъдат също толкова вероятно по време на преходния период.

В допълнение, има "значителни събития" - събития, които се случват по необходимост, като деня и нощта. Има "невъзможни" събития, които никога не са се случили.

Връщайки се към примера на монетата. След като излезете и погледнете, имаш визуално послание, че падна, например, на орела. Това беше едно от две възможни събития. Несигурността знания наполовина: имаше две възможности, имаше един. Така че, да разберете резултатите от обръщане монета, имаш един бит информация.

Съобщението, че proihoshlo един от двата еднакво вероятно събития, носи един бит информация.







И сега този проблем: в което студентът може да получи една от четирите степени: "отличен", "добра", "задоволителна" и "незадоволителна". Представете си, че вашият приятел отиде да вземе изпита. Нещо повече, той научава, неравномерно и може еднакво вероятно да получите някой от тези оценки. Притеснявате ли се за него, в очакване на резултатите. И накрая, той дойде и каза, че е получил четири. Колко бита на информация съдържа посланието му?

За да отговорим на този въпрос, ние постепенно ще получите отговор. Задаването на въпроси, така че всеки отговор донесе един бит информация, и по този начин намалява несигурността на нашите познания удвоява.

По първия въпрос:
- Резултат високи тройни?
- Да!
След този отговор на броя на вариантите наполовина. Само "4" и "5". Получи един бит информация.
По втория въпрос:
- Имаш пет?
- Не!
Тепе резултат е абсолютно ясно. Така получава 1 други битове информация. Като цяло, ние имаме два бита.

Едно съобщение, че е един от четирите еднакво вероятно събитията носи 2 бита информация.

В най-общия случай, нека
N - е броя на възможните резултати от събитието, което е нейната несигурност.
Ние означаваме с и количеството на информацията в съобщението, което proizroshlo един от N събития.
Връзката между тези стойности се изразява с формулата:

Да се ​​говори за "важността" на информация за компютъра, получаващ информацията, тя е просто безсмислено. Остава да извърши оценка на информация в количествено. Ако ние си спомняме, като измерените стойности в физика, става ясно, че количествено определяне на всичко зависи от това, че избран за справка. Можете да предложите да се извърши оценка на информация, като база за сравнение на броя на думи или символи, които се съдържат в настоящата публикация. Но това, което се смята за една машина дума, символ или чрез машина, ако информацията е кодирана в рамките на един компютър под формата на сигнали на два вида: магнетизирани - на намагнетизиран или изключване на високо напрежение или ниско. Математическият модел, приет, за да опише тези две държави, е съвсем проста: един прие държавния обозначен с числото 0, а другата 1. Това кодиране се нарича двоичен, и числата 0 и 1 са наречени бита.

набор символи се използват за представяне на информацията, която се нарича азбуката. По този начин, ние можем да приемем, че машината се състои от два от азбуката. Обикновено азбуката bykvy само разбират, но тъй като текстът може да се появи пунктуация, цифри, скоби, те са, ние сме също е включен в азбуката.

Общият брой на букви и цифри се нарича силата на азбуката. И означаваме тази стойност от буквата N.

Така например, на капацитета на българската азбука писма е 33, а ако се включат допълнителни символи в азбуката, можете да получите мощност от 54 азбука.

Въз основа на азбучен подход към измерване на информация може да се покаже, че минималната кардиналността на азбуката, подходящ за предаване на информация е две. Тази азбука се нарича двоичен код.

Представете си, че получите текстово последователност, един знак, като панделка хартия, изпълзи на телеграфа. Да приемем, че всеки символ се появява с еднаква вероятност може да бъде всеки символ азбука. По този начин, след като във всяка позиция в текста може еднакво получават или от N символи. На несигурността на възникване на всеки набор от знаци стойност е N. Следователно, всеки somvol мечки и бита информация, която се изчислява от уравнението:

За N = 54, като се използва logorifmov маса, ние получаваме I = 5,755 бита. Ето колко информация е символ на българската азбука!

Сега, за да се намери количеството информация в целия текст, че е необходимо да се преброят на героите в нея и се умножава по аз

Следователно, когато азбучен подход за измерване на количеството информация на информацията, съдържанието е независима. Обемът на информацията зависи от количеството на текст (т.е. броят на знаците в текста) и от monoSTU азбука.

От това следва, че не може да се сравни обемите от информация на текстове, написани на различни езици, но силата на звука. Те се различават по тегло е информация от един знак като силовите азбуките на различни езици, са различни.