近日,數(shù)理學院王晚生教授團隊在國際頂尖應(yīng)用數(shù)學期刊之一的SIAM Journal on Scientific Computing上發(fā)表了題為“Deep Learning Numerical Methods for High-Dimensional Quasilinear PIDEs and Coupled FBSDEs with Jumps”的研究論文。該研究提出了一種新穎的深度學習算法,旨在高效求解高維擬線性拋物積分微分方程(PIDEs)和帶跳的耦合正倒向隨機微分方程(FBSDEJs)。這項研究突破了傳統(tǒng)數(shù)值方法在高維問題中遭遇的“維數(shù)災(zāi)難”瓶頸,為金融數(shù)學、隨機最優(yōu)控制等領(lǐng)域的復(fù)雜問題提供了實用的計算方案。
PIDEs 和 FBSDEJs 是隨機最優(yōu)控制和金融數(shù)學等領(lǐng)域中的關(guān)鍵數(shù)學模型。不過這些模型的解析解極難獲得,其數(shù)值求解成為唯一的手段。然而,對PIDEs的數(shù)值求解,現(xiàn)有的傳統(tǒng)網(wǎng)格類方法由于計算復(fù)雜度隨著維度的增加呈指數(shù)級增長,難以有效應(yīng)對高維問題;同時對于耦合的FBSDEJs,由于其時間上的正倒向耦合,傳統(tǒng)的數(shù)值計算方法將非常復(fù)雜。
王晚生教授團隊提出的深度學習算法(Deep FBSDE method)巧妙地應(yīng)對了這些挑戰(zhàn)。該方法的核心思想包括三個步驟:首先,利用非線性費曼-卡茨公式(nonlinear Feynman-Kac formula)將高維PIDE問題轉(zhuǎn)化為耦合的FBSDEJ問題;其次,將此FBSDEJ問題視為一個隨機控制問題,并創(chuàng)新性地引入一對深度神經(jīng)網(wǎng)絡(luò),分別用于逼近解的梯度和積分核;最后,通過最小化一個與終端條件相關(guān)的全局損失函數(shù)來訓練神經(jīng)網(wǎng)絡(luò),從而獲得方程的解。
該研究工作的另一項重要貢獻在于其嚴謹?shù)睦碚摲治觥Q芯繄F隊為該深度學習算法提供了完整的誤差估計,通過分析馬爾可夫迭代的收斂性、時間離散化誤差以及深度學習的模擬誤差,證明了在神經(jīng)網(wǎng)絡(luò)通用逼近能力下,算法的近似誤差可以收斂到零。這為深度學習方法在科學計算領(lǐng)域的應(yīng)用提供了堅實的理論基礎(chǔ)。
該研究工作得到了國家自然科學基金重大研究計劃、國家自然科學基金面上項目、上海市科學技術(shù)委員會科技創(chuàng)新行動計劃等資金支持。
(供稿:數(shù)理學院)