要解决的问题:通过抑制作为学习结果的n-gram语言模型的数据量,提供有效访问语言模型的技术。
解决方案:语言模型压缩设备1将n-gram语言模型存储在语言模型存储部分5中。数据结构转换部分3转换用于指示在其中的(n + 1)-gram的第一位置的指针。将存储在语言模型存储部分5中的n-gram语言模型的数据排列成固定字节表达,并将其存储在转换数据存储部分6中。指针表达的压缩部分4通过提供一个在存储在转换数据存储部分6中的n-gram语言模型的树形结构中的虚拟路由节点中,指针被压缩并转换为等级顺序一元度序列(LOUDS)表达式。压缩和转换后的数据存储在压缩数据存储部分7中。计算机的存储设备(RAM)主要用于存储部分7。
COPYRIGHT:(C)2011,JPO&INPIT
公开/公告号JP2011033806A
专利类型
公开/公告日2011-02-17
原文格式PDF
申请/专利权人 NIPPON TELEGR & TELEPH CORP;
申请/专利号JP20090179625
申请日2009-07-31
分类号G10L15/18;G06F17/27;
国家 JP
入库时间 2022-08-21 18:24:36