Двайковая энтрапія, таксама вядомая як энтрапія Шэнана, - гэта паняцце ў тэорыі інфармацыі, якое вымярае нявызначанасць або выпадковасць двайковай выпадковай зменнай з двума вынікамі. Яна адрозніваецца ад класічнай энтрапіі тым, што асабліва прымяняецца да бінарных зменных, у той час як класічная энтрапія можа прымяняцца да зменных з любой колькасцю вынікаў.
Каб зразумець двайковую энтрапію, мы павінны спачатку зразумець саму канцэпцыю энтрапіі. Энтрапія - гэта мера сярэдняй колькасці інфармацыі або нявызначанасці, якая змяшчаецца ў выпадковай велічыні. Ён колькасна вызначае, наколькі непрадказальныя вынікі выпадковай зменнай. Іншымі словамі, гэта кажа нам, колькі "сюрпрызу" мы можам чакаць, назіраючы за вынікамі выпадковай зменнай.
У выпадку двайковай выпадковай велічыні з двума вынікамі пазначым гэтыя вынікі 0 і 1. Двайковая энтрапія гэтай зменнай, пазначаная як H(X), вылічваецца па формуле:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
дзе p(0) і p(1) - верагоднасці назірання за вынікамі 0 і 1 адпаведна. Лагарыфм бярэцца па аснове 2, каб гарантаваць, што выніковае значэнне энтрапіі вымяраецца ў бітах.
Каб вылічыць двайковую энтрапію, нам трэба вызначыць імавернасці двух вынікаў. Калі імавернасці роўныя, г.зн. p(0) = p(1) = 0.5, то двайковая энтрапія максімізуецца, што сведчыць аб максімальнай нявызначанасці. Гэта таму, што абодва вынікі аднолькава верагодныя, і мы не можам прадказаць, які з іх адбудзецца. У гэтым выпадку двайковая энтрапія роўная H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 біт.
З іншага боку, калі адзін вынік больш верагодны, чым другі, двайковая энтрапія памяншаецца, што паказвае на меншую нявызначанасць. Напрыклад, калі p(0) = 0.8 і p(1) = 0.2, двайковая энтрапія роўная H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 біта. Гэта азначае, што ў сярэднім нам патрабуецца менш за адзін біт інфармацыі, каб прадставіць вынікі гэтай двайковай выпадковай зменнай.
Важна адзначыць, што двайковая энтрапія заўсёды неадмоўная, гэта значыць, што яна больш або роўная нулю. Ён максімізуецца, калі імавернасці двух вынікаў роўныя, і мінімізуецца, калі імавернасць аднаго зыходаў роўная 1, а імавернасць другога - 0.
Двайковая энтрапія вымярае нявызначанасць або выпадковасць двайковай выпадковай зменнай з двума вынікамі. Ён разлічваецца па формуле -p(0) * log2(p(0)) – p(1) * log2(p(1)), дзе p(0) і p(1) - гэта верагоднасці двух вынікаў. . Атрыманае значэнне энтрапіі вымяраецца ў бітах, прычым больш высокія значэнні паказваюць на большую нявызначанасць, а меншыя значэнні паказваюць на меншую нявызначанасць.
Іншыя апошнія пытанні і адказы адносна Класічная энтрапія:
- Як разуменне энтрапіі спрыяе распрацоўцы і ацэнцы надзейных крыптаграфічных алгарытмаў у галіне кібербяспекі?
- Што такое максімальнае значэнне энтрапіі і калі яно дасягаецца?
- Пры якіх умовах энтрапія выпадковай велічыні звяртаецца ў нуль і што гэта значыць пра зменную?
- Якія матэматычныя ўласцівасці энтрапіі і чаму яна неадмоўная?
- Як змяняецца энтрапія выпадковай зменнай, калі верагоднасць раўнамерна размяркоўваецца паміж вынікамі ў параўнанні з тым, калі яна зрушана ў бок аднаго выніку?
- Якая сувязь паміж чаканай даўжынёй кодавых слоў і энтрапіяй выпадковай велічыні ў кадаванні зменнай даўжыні?
- Растлумачце, як паняцце класічнай энтрапіі выкарыстоўваецца ў схемах кадавання зменнай даўжыні для эфектыўнага кадавання інфармацыі.
- Якія ўласцівасці класічнай энтрапіі і як яна звязана з верагоднасцю вынікаў?
- Як класічная энтрапія вымярае нявызначанасць або выпадковасць у дадзенай сістэме?