Furthermore, the gradient descent and recursion least squares are used to optimize the parameters of the basis function and the linear weight of the output layer, respectively.

 
  • 同時(shí)為進(jìn)一步提高網(wǎng)絡(luò )性能,采用梯度下降法與遞推最小二乘法混合學(xué)習策略,分別對基函數參數(中心與寬度)和輸出層線(xiàn)性權值進(jìn)行學(xué)習。
今日熱詞
目錄 附錄 查詞歷史
国内精品美女A∨在线播放xuan