百博亚洲-六合彩免费图库

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
大发888代理充值| 博彩百家乐官网带连线走势图| 大发888 dafa888 大发官网| 玩百家乐官网新澳门娱乐城| 真人百家乐蓝盾娱乐网| 广丰县| 百家乐赢钱公式冯耕| 百家乐官网分路单析器| 366百家乐赌博| 百家乐官网小型抽水泵| 碧桂园太阳城怎么样| 安卓水果机游戏| 百家乐官网tt娱乐场开户注册 | 百家乐官网乐城皇冠| 君怡百家乐的玩法技巧和规则 | 欧凯百家乐的玩法技巧和规则 | 六合彩图| 百家乐翻天qvod| 百家乐官网游戏补牌规则| 大发888我发财| 百家乐官网五铺的缆是什么意思| 六合彩资料大全| 澳门百家乐鸿运| 菲利宾百家乐官网现场| 大发扑克官网| 百家乐小九梭哈| 网上百家乐官网娱乐场开户注册| 星河国际娱乐场| 百家乐官网账号变动原因| 德州扑克辅助软件| 成都南偏西24度风水| 百家乐官网楼梯缆| 石门县| 大发888手机真钱游戏| 百家乐有送体验金| 大发888yulecheng| 百家乐赌博机有鬼吗| 百家乐官网只打一种牌型| 一二博国际| 百家乐追号工具| 澳门百家乐然后赢|