...
首页> 外文期刊>IEEE Transactions on Information Theory >Maximum Entropy for Sums of Symmetric and Bounded Random Variables: A Short Derivation
【24h】

Maximum Entropy for Sums of Symmetric and Bounded Random Variables: A Short Derivation

机译:对称和有界随机变量之和的最大熵:一个短导数

获取原文
获取原文并翻译 | 示例
           

摘要

Let $X_{1}, ldots , X_{n}$ be $n$ independent, symmetric, random variables on the interval $[-1,, 1]$. Ordentlich (2006) showed that the differential entropy of $S_{n}=sum _{i=1}^{n} X_{i}$ is maximized when $X_{i}$, $i=1,ldots ,n-1$ are symmetric Bernoulli random variables and $X_{n}$ is ${rm uniform}(-1,, 1)$. We give a short derivation of this result via an alternative proof of a key lemma of Ordentlich (2006).
机译:令$ X_ {1},ldots,X_ {n} $为间隔$ [-1,,1] $上的$ n $个独立,对称,随机变量。 Ordentlich(2006)表明,当$ X_ {i} $,$ i = 1,ldots,n时,$ S_ {n} = sum _ {i = 1} ^ {n} X_ {i} $的微分熵最大。 -1 $是对称的伯努利随机变量,$ X_ {n} $是$ {rm匀称}(-1 ,, 1)$。我们通过Ordentlich(2006)的一个关键引理的替代证明来简短地推导出这个结果。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号