由于此商品库存有限,请在下单后15分钟之内支付完成,手慢无哦!
100%刮中券,最高50元无敌券,券有效期7天
活动自2017年6月2日上线,敬请关注云钻刮券活动规则更新。
如活动受政府机关指令需要停止举办的,或活动遭受严重网络攻击需暂停举办的,或者系统故障导致的其它意外问题,苏宁无需为此承担赔偿或者进行补偿。
[正版新书] 在线凸优化(第2版) [美] 埃拉德·哈赞 清华大学出版社 凸分析—最优化算法
¥ ×1
书名: | 在线凸优化(第2版) |
出版社: | 清华大学出版社 |
出版日期 | 2024 |
ISBN号: | 9787302661122 |
《在线凸优化(第2版)》全面更新,深入探索优化和机器学习交叉领域,详细介绍日常生活中许多系统和模型的优化过程。 ● 第2版亮点: 增加了关于提升、自适应遗憾和可接近性的章节 ● 扩大了优化和学习理论的覆盖面 ● 应用实例包含专家建议投资组合选择、矩阵补全推荐系统和支持向量机训练等 ● 指导学生完成练习
|
普林斯顿大学计算机科学教授 谷歌AI普林斯顿实验室的联合创始人和主任 Elad Hazan教授主要研究学习机制的自动化及其高效的算法实现。研究领域集中在机器学习,并涉及数学优化、博弈论、统计学和计算复杂性。
|
|
近年来,随着机器学习和计算机技术的不断发展,以及在Web上收集大量数据的普及,在线广告优化、在线投资组合、在线博弈学习等应用已成为工业和学术界关注的热点。而在线凸优化是一种专门用于处理在线学习过程中凸优化问题的优化理论。我们非常高兴介绍由普林斯顿大学教授埃拉德●哈赞(Elad Hazan)撰写的《在线凸优化(第2版)》,书中包括了在线凸优化的基本概念和方法,并详细讨论了在线凸优化的性能保证问题,还介绍了一些最新的在线凸优化算法。本书涵盖了在线凸优化领域的许多关键问题,为我们提供了一份全面的指南。 |
|
目 录
第1章 导论 1 1.1 在线凸优化设置 2 1.2 可用OCO建模的问题示例 3 1.2.1 从专家建议中预测 3 1.2.2 在线垃圾邮件过滤 4 1.2.3 在线最短路径 5 1.2.4 投资组合选择 6 1.2.5 矩阵补全和推荐系统 7 1.3 混合的开始:从专家建议中学习 7 1.3.1 加权多数算法 9 1.3.2 随机加权多数 10 1.3.3 Hedge 12 1.4 文献评述 13 1.5 练习 14 第2章 凸优化基本概念 17 2.1 基本定义和设置 17 2.1.1 凸集上的投影 19 2.1.2 最优条件介绍 20 2.2 梯度下降 21 2.2.1 Polyak 步长 23 2.2.2 度量与最优值之间的距离 24 2.2.3 Polyak 步长分析 25 2.3 约束梯度/次梯度下降 27 2.4 非光滑和非强凸函数的归约 30 2.4.1 光滑且非强凸函数的归约 30 2.4.2 强凸非光滑函数的归约 31 2.4.3 一般凸函数的归约 34 2.5 示例:支持向量机训练 34 2.6 文献评述 37 2.7 练习 38 第3章 在线凸优化一阶算法 41 3.1 在线梯度下降 42 3.2 下界 44 3.3 对数遗憾 46 3.4 应用:随机梯度下降 48 3.5 文献评述 51 3.6 练习 51 第4章 二阶方法 53 4.1 动机:通用投资组合选择 53 4.1.1 主流投资组合理论 53 4.1.2 通用投资组合理论 54 4.1.3 持续再平衡投资组合 55 4.2 指数凹函数 56 4.3 指数加权OCO 58 4.4 在线牛顿步算法 60 4.5 文献评述 66 4.6 练习 67 第5章 正则化 69 5.1 正则化函数 70 5.2 RFTL算法及其分析 71 5.2.1 元算法定义 72 5.2.2 遗憾界 73 5.3 在线镜像下降 75 5.3.1 懒惰版在线镜像下降与RFTL的等价性 77 5.3.2 镜像下降的遗憾界 78 5.4 应用与特例 79 5.4.1 推导在线梯度下降 79 5.4.2 推导乘法更新 80 5.5 随机正则化 81 5.5.1 凸损失扰动 82 5.5.2 线性代价函数扰动 86 5.5.3 专家建议的FPL算法 87 5.6 自适应梯度下降 89 5.7 文献评述 95 5.8 练习 96 第6章 赌博机凸优化 99 6.1 赌博机凸优化设置 99 6.2 多臂赌博机问题 100 6.3 从有限信息归约至完全信息 105 6.3.1 第一部分:使用无偏估计 105 6.3.2 第二部分:逐点梯度估计 107 6.4 无需梯度在线梯度下降 110 6.5 赌博机线性优化的最优遗憾算法 112 6.5.1 自和谐势垒 113 6.5.2 一个近似最优算法 114 6.6 文献评述 117 6.7 练习 118 第7章 无投影算法 121 7.1 回顾:线性代数的相关概念 121 7.2 动机:推荐系统 122 7.3 条件梯度法 124 7.4 投影与线性优化 128 7.5 在线条件梯度算法 130 7.6 文献评述 134 7.7 练习 134 第8章 博弈,对偶与遗憾 137 8.1 线性规划与对偶 138 8.2 零和博弈与均衡 139 8.3 冯 • 诺依曼定理证明 142 8.4 近似线性规划 144 8.5 文献评述 146 8.6 练习 146 第9章 学习理论,泛化性与在线凸优化 149 9.1 统计学习理论 149 9.1.1 过拟合 150 9.1.2 免费午餐 151 9.1.3 学习问题示例 152 9.1.4 定义泛化性与可学习性 153 9.2 使用在线凸优化的不可知学习 155 9.2.1 余项:度量集中和鞅 156 9.2.2 归约的分析 158 9.3 学习与压缩 160 9.4 文献评述 161 9.5 练习 162 第10章 在变化的环境中学习 165 10.1 一个简单的开始:动态遗憾 166 10.2 自适应遗憾的概念 167 10.3 跟踪最好的专家 169 10.4 在线凸优化的有效自适应遗憾 172 10.5 计算高效的方法 174 10.6 文献评述 179 10.7 练习 180 第11章 Boosting与遗憾 183 11.1 Boosting 的问题 184 11.2 基于在线凸优化的 Boosting 185 11.2.1 简化设置 185 11.2.2 算法与分析 186 11.2.3 AdaBoost 188 11.2.4 补全路线图 189 11.3 文献评述 190 11.4 练习 191 第12章 在线Boosting 193 12.1 动机:向大量专家学习 193 12.1.1 示例:Boosting在线二进制分类 194 12.1.2 示例:个性化文章配置 195 12.2 情境学习模型 195 12.3 延拓算子 196 12.4 在线 Boosting方法 198 12.5 文献评述 202 12.6 练习 202
|
|
亲,大宗购物请点击企业用户渠道>小苏的服务会更贴心!
亲,很抱歉,您购买的宝贝销售异常火爆让小苏措手不及,请稍后再试~
非常抱歉,您前期未参加预订活动,
无法支付尾款哦!
抱歉,您暂无任性付资格