我中心基于Transformer模型提出了一種新型時序預(yù)測模型InParformer,其主要由交互式并行注意力機(jī)制和進(jìn)化分解模塊組成,在多個真實世界時序公開數(shù)據(jù)集的預(yù)測性能優(yōu)于現(xiàn)有基于Transformer的長時序預(yù)測模型。相應(yīng)的模型庫已經(jīng)部署在中心的人工智能數(shù)據(jù)與計算應(yīng)用服務(wù)平臺(平臺鏈接:http://data.aicnic.cn/)。

圖 1 InParformer框架
該研究成果已被人工智能領(lǐng)域的國際頂級會議AAAI (CCF A類)2023接收。論文第一作者為人工智能部2020級的碩士研究生操海洲,導(dǎo)師王玨正高級工程師為通信作者。
在“碳中和、碳達(dá)峰”背景下,我中心提出了基于時間相關(guān)性注意力機(jī)制和領(lǐng)域知識的時序預(yù)測模型,并在新能源領(lǐng)域真實世界光伏出力數(shù)據(jù)集上獲得了良好的預(yù)測效果。該研究成果已在國際知名會議KSEM(International conference on Knowledge Science, Engineering and Management,CCF C類)2022發(fā)表。2020級博士研究生姚鐵錘在導(dǎo)師遲學(xué)斌研究員、王彥棡研究員和王玨正高級工程師的指導(dǎo)下參加了KSEM 2022會議并作線上報告,榮獲KSEM 2022最佳學(xué)生論文獎(Best Student Paper Award。此次KSEM 2022共收到投稿498篇論文,最終評出3篇最佳學(xué)生論文。

圖 2 KSEM 2022最佳學(xué)生論文獎
該成果得到科技創(chuàng)新2030 “新一代人工智能”重大項目“全面支持國家AI標(biāo)準(zhǔn)體系的深度學(xué)習(xí)開源框架”和中科院戰(zhàn)略先導(dǎo)(A)子課題“自主進(jìn)化計算開放平臺”的支持。
相關(guān)成果:
[1] Cao, Haizhou, Zhenhao Huang, Tiechui Yao, Jue Wang*, Hui He, and Yangang Wang. "InParformer: Evolutionary Decomposition Transformers with Interactive Parallel Attention for Long-Term Time Series Forecasting." In Proceedings of the AAAI Conference on Artificial Intelligence. 2023. (accepted)
[2] Yao, Tiechui, Jue Wang*, Haizhou Cao, Fang Liu, Xiaoguang Wang, Yangang Wang, and Xuebin Chi. "A Multi-level Attention-Based LSTM Network for Ultra-short-term Solar Power Forecast Using Meteorological Knowledge." In International Conference on Knowledge Science, Engineering and Management, pp. 16-28. Springer, Cham, 2022.