
-
1科研工作
-
2獲得的榮譽(yù)
-
3主持的項(xiàng)目:
-
4主要代表作:
-
5Contact Me
常小凱,,男,,1984年10月生,甘肅通渭人,,2022年獲得甘肅省杰出青年基金,,2024年入選甘肅省隴原青年英才,。2019年12月博士畢業(yè)于西安電子科技大學(xué)應(yīng)用數(shù)學(xué)專業(yè)。現(xiàn)為蘭州理工大學(xué)理學(xué)院數(shù)學(xué)系副教授,,碩士研究生導(dǎo)師,。
郵箱:[email protected] 辦公室地址:蘭州理工大學(xué)(西校區(qū))文理樓544
主要從事交替方向乘子法(ADMM),原始-對偶混合梯度法(PDHG)和算子分裂(Operator Splitting)算法及其應(yīng)用的研究,。突破經(jīng)典分裂算法使用Polyak 和Nesterov 等開創(chuàng)的外推技術(shù),,利用序列凸組合提出了原始對偶分裂算法的新范式:“凸組合+大步長”,,取得了系列卓越成果。在《SIAM Journal on Optimization》,、《Journal of Scientific Computing》,、 《Journal of Optimization Theory and Applications》、 《Numerical Algorithms》《Calcolo》,、 《Journal of Computational and Applied Mathematics》,、 《Optimization》、 《Optimization Methods and Software》,、 《計(jì)算數(shù)學(xué)》等國際頂級(jí)和知名學(xué)術(shù)期刊上發(fā)表高水平學(xué)術(shù)論文20余篇,,所設(shè)計(jì)的算法在圖像處理上的應(yīng)用獲得 2017 年陜西省第三屆研究生創(chuàng)新成果一等獎(jiǎng)。
(1)2024年,,入選省級(jí)人才計(jì)劃:甘肅省隴原青年英才,;
(2)2023年,蘭州理工大學(xué)教學(xué)質(zhì)量卓越獎(jiǎng)(二層次),;
(1)國家自然科學(xué)基金項(xiàng)目(33萬,,編號(hào)12161053),基于序列凸組合技術(shù)的新型原始-對偶混合梯度算法及其應(yīng)用研究,,時(shí)間2022年1月——2025年12月,;
(2)甘肅省杰出青年基金項(xiàng)目(40萬,編號(hào)22JR5RA223),,極小極大問題的黃金比率算法及應(yīng)用,,時(shí)間2022年10月——2025年9月,;
(3)甘肅省教育廳科研項(xiàng)目(2.5萬,,編號(hào)2020A022),多分塊交替方向乘子法及其大數(shù)據(jù)應(yīng)用研究, 時(shí)間2020年1月——2021年12月,。
(4)蘭州理工大學(xué)博士科研啟動(dòng)經(jīng)費(fèi)(10萬),;
[1] X. Chang(常小凱), J. Yang, and H. Zhang. Golden ratio primal-dual algorithm with linesearch. SIAM Journal on Optimization,Vol. 32, No. 3, pp. 1584—1613, 2022.
[2] X. Chang(常小凱) , J. Yang. GRPDA Revisited: Relaxed Condition and Connection to Chambolle-Pock’s Primal-Dual Algorithm, Journal of Scientific Computing, (2022) 93:70.
[3] X. Chang(常小凱) , J. Yang. A golden ratio primal-dual algorithm for structured convex optimization. Journal of Scientific Computing, (2021) 87:47.
[4] X. Chang(常小凱), L. Xu, and J. Cao. A splitting preconditioned primal-dual algorithm with interpolation and extrapolation for bilinear saddle point problem. Numerical Algorithms, 2024.
[5] X. Chang(常小凱) , J. Bai. A projected extrapolated gradient method with larger step size for monotone variational inequalities. Journal of Optimization Theory and Applications, 190, 602—627 (2021).
[6] X. Chang(常小凱) , J. Bai, D. Song, S. Liu. Linearized symmetric multi-block ADMM with indefinite proximal regularization and optimal proximal parameter. Calcolo, 2020.
[7] X. Chang(常小凱), S. Liu, P. Zhao, X. Li. Convergent prediction-correction-based ADMM for multi-block separable convex programming. Journal of Computational and Applied Mathematics, 2018.
已發(fā)表文章中使用的部分code分享在網(wǎng)址:https://github.com/cxk9369010 請下載測試并提出寶貴意見,。