题 目:The Decentralized Distributed Sparsity Learning with Expectile Regression
主讲人:赵慧 教授
单 位:中南财经政法大学
时 间:2025年10月22日 14:30
腾讯ID:379307278
摘 要:去中心化分布式学习因其在计算效率、数据隐私保护和系统稳定性方面的优势, 在大数据分布式计算中日益受到关注。本文在去中心化分布式学习框架下, 提出了一种基于非对称最小二乘损失和L1 惩罚的期望回归稀疏估计方法, 给出了一个具有线性收敛速率的 ADMM-LAMM 算法,并探讨了该方法的统计理论性质,包括估计量的近似 Oracle收敛速率, 以及稀疏支撑集的恢复结果。最后通过数值模拟和真实数据分析展示了所提方法在处理重尾、异质性高维数据中的稳定性和有效性。
简 介:赵慧,中南财经政法大学教授,博士生导师。2005年北京大学博士毕业,曾在中科院系统所和美国密苏里大学从事博士后研究。曾担任中国现场统计研究会理事,湖北省现场统计学会常务理事,中国现场统计研究会多个分会理事。先后主持国家自然科学基金青年基金1项,面上项目3项,此外还主持或参与省部级及以上项目多项。近年来主要研究兴趣:生存分析、复发事件数据分析、高维生存数据分析、分布式统计学习等。发表论文六十余篇,其中部分论文发表在 JASA, Biometrics, Scandinavian Journal of Statistics,Statistic in Medicine,Journal of Multivariate Analysis,Lifetime Data Analysis, Canadian Journal of Statistics,Journal of Nonparametric Statistics, 《中国科学》,《数理统计与管理》等国内外知名统计学术期刊。