首页> 外国专利> Training SVMs with parallelized stochastic gradient descent

Training SVMs with parallelized stochastic gradient descent

机译:通过并行化随机梯度下降训练SVM

摘要

Techniques for training a non-linear support vector machine utilizing a stochastic gradient descent algorithm are provided. The computations of the stochastic gradient descent algorithm are parallelized via a number of processors. Calculations of the stochastic gradient descent algorithm on a particular processor may be combined according to a packing strategy before communicating the results of the calculations with the other processors.
机译:提供了用于利用随机梯度下降算法训练非线性支持向量机的技术。随机梯度下降算法的计算通过多个处理器并行化。在将计算结果与其他处理器通信之前,可以根据打包策略组合特定处理器上的随机梯度下降算法的计算。

著录项

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号