...
首页> 外文期刊>Information Theory, IEEE Transactions on >Properties of Jeffreys Mixture for Markov Sources
【24h】

Properties of Jeffreys Mixture for Markov Sources

机译:马尔可夫源的Jeffreys混合物的性质

获取原文
获取原文并翻译 | 示例
           

摘要

We discuss the properties of Jeffreys mixture for a Markov model. First, we show that a modified Jeffreys mixture asymptotically achieves the minimax coding regret for universal data compression, where we do not put any restriction on data sequences. Moreover, we give an approximation formula for the prediction probability of Jeffreys mixture for a Markov model. By this formula, it is revealed that the prediction probability by Jeffreys mixture for the Markov model with alphabet ${0,1}$ is not of the form $(n_{x vert s}+alpha)/(n_{s}+beta)$, where $n_{x vert s}$ is the number of occurrences of the symbol $x$ following the context $s in {0,1}$ and $n_{s}=n_{0 vert s}+n_{1 vert s}$. Moreover, we propose a method to compute our minimax strategy, which is a combination of a Monte Carlo method and the approximation formula, where the former is used for earlier stages in the data, while the latter is used for later stages.
机译:我们讨论了马尔可夫模型的Jeffreys混合物的性质。首先,我们证明了改进的Jeffreys混合渐近地实现了对通用数据压缩的minimax编码遗憾,其中我们对数据序列没有任何限制。此外,对于马尔可夫模型,我们给出了杰弗里斯混合物的预测概率的近似公式。通过该公式可以看出,对于字母为$ {0,1} $的马尔可夫模型,Jeffreys混合的预测概率不是$(n_ {x vert s} + alpha)/(n_ {s} + beta)$,其中$ n_ {x vert s} $是符号$ x $在{0,1} $中的上下文$ s之后出现的次数,并且$ n_ {s} = n_ {0 vert s} + n_ {1 vert s} $。此外,我们提出了一种计算最小极大值策略的方法,该方法是蒙特卡罗方法和近似公式的组合,其中前者用于数据的较早阶段,而后者则用于较后阶段。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号