...
首页> 外文期刊>Journal of machine learning research >Stochastic Proximal Methods for Non-Smooth Non-Convex Constrained Sparse Optimization
【24h】

Stochastic Proximal Methods for Non-Smooth Non-Convex Constrained Sparse Optimization

机译:用于非平滑非凸的随机近端方法受限稀疏优化

获取原文
           

摘要

This paper focuses on stochastic proximal gradient methods for optimizing a smooth non-convex loss function with a non-smooth non-convex regularizer and convex constraints. To the best of our knowledge we present the first non-asymptotic convergence bounds for this class of problem. We present two simple stochastic proximal gradient algorithms, for general stochastic and finite-sum optimization problems. In a numerical experiment we compare our algorithms with the current state-of-the-art deterministic algorithm and find our algorithms to exhibit superior convergence.
机译:本文侧重于随机近端梯度方法,用于优化具有非平滑非凸规范器和凸约束的平滑非凸损耗。 据我们所知,我们介绍这类问题的第一个非渐近融合界。 我们提出了两个简单的随机近端梯度算法,用于一般随机和有限和优化问题。 在一个数值实验中,我们将算法与当前的最先进的确定性算法进行比较,找到我们的算法,以表现出卓越的收敛性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号