wd wp Пошук:

Тэорыя інфармацыі

Тэо́рыя інфарма́цыі — раздзел кібернетыкі, які вывучае працэсы захоўвання, пераўтварэння і перадачы інфармацыі.

У тэорыі інфармацыі выкарыстоўваюцца метады тэорый імавернасцей, лікаў, графаў, гульняў, матэматычнай статыстыкі, алгебры.

Інтэнсіўнае развіццё абумоўлена патрэбамі сродкаў сувязі, электроннай вылічальнай і кіравальнай тэхнікі, радыёлакацыі і інш.

Гісторыя

Узнікла тэорыя інфармацыі ў канцы 1940-х гадоў на аснове прац амерыканскага матэматыка К. Шэнана; значны ўклад у яе абгрунтаванне зрабілі савецкія вучоныя А. М. Калмагораў, А. Я. Хінчын, А. А. Харкевіч.

На Беларусі даследаванні па тэорыі інфармацыі праводзяцца з 1960-х гадоў у Інстытуце тэхнічнай кібернетыкі НАН Беларусі, БДУ, Беларускім дзяржаўным універсітэце інфарматыкі і радыёэлектронікі і іншых.

Агляд

Асноўная частка тэорыі інфармацыі — агульная тэорыя сувязі, якая распрацоўвае эфектыўныя метады перадачы інфармацыі па лініях сувязі, вывучае праблемы аптымальнага кадзіравання і фільтрацыі інфармацыі, выяўлення і прадказання сігналаў.

Тэорыя інфармацыі зыходзіць з таго, што сігналы (паведамленні) паступаюць ад крыніцы ў выпадковай паслядоўнасці, маюць пэўную імавернасць, а таксама імавернасць таго, што паведамленні могуць скажацца ў час перадачы. У якасці меры такой неазначальнасці прымаецца сярэдняя колькасць двайковых знакаў, неабходная для запісу адвольнага паведамлення дадзенай крыніцы самым эканомным спосабам кадзіравання. Гэтая мера не меншая за энтрапію мноства паведамленняў

H

i

1

n

p

i

log

2

1

p

i

,

{\displaystyle H=\sum _{i=1}^{n}p_{i}\log _{2}{\frac {1}{p_{i}}},}

\{\displaystyle H=\sum \{i=1\}^\{n\}p\{i\}\log \{2\}\{\frac \{1\}\{p\{i\}\}\},\} дзе n — колькасць паведамленняў, p**i — імавернасць з’яўлення асобнага паведамлення.

Колькасць інфармацыі ў паведамленні X адносна паведамлення Y вызначаецца суадносінамі

I ( X , Y )

H ( X ) + H ( Y ) − H ( X , Y ) ,

{\displaystyle I(X,Y)=H(X)+H(Y)-H(X,Y),}

\{\displaystyle I(X,Y)=H(X)+H(Y)-H(X,Y),\} дзе H(X,Y) — энтрапія пары (X,Y).

Скорасць V перадачы інфармацыі па канале сувязі не перавышае велічыні, вызначанай з суадносін

H V

C ,

{\displaystyle HV=C,}

\{\displaystyle HV=C,\} дзе H — энтрапія крыніцы на сімвал, C — прапускная здольнасць дадзенага канала.

Літаратура

Тэмы гэтай старонкі (6):
Катэгорыя·Тэорыя інфармацыі
Катэгорыя·Вікіпедыя·Спасылкі на Беларускую энцыклапедыю з назвай артыкула
Катэгорыя·Сувязь
Катэгорыя·Кібернетыка
Катэгорыя·Вікіпедыя·Спасылкі на Беларускую энцыклапедыю з нумарамі старонак
Катэгорыя·Вікіпедыя·Спасылкі на Беларускую энцыклапедыю без аўтара