Markov chain

 
       
  • n. [統]馬爾可夫鏈
new

Markov chain的英文翻譯是什么意思,詞典釋義與在線(xiàn)翻譯:

英英釋義

Noun:
  1. a Markov process for which the parameter is discrete time values

Markov chain的用法和樣例:

例句

用作名詞 (n.)
  1. To analyze those algorithms, a new method which models point multiplication algorithms as Markov Chain is proposed in this paper.
    為了分析這些算法,文中提出了一種新的方法,即把橢圓曲線(xiàn)標量乘運算看作馬爾可夫鏈。
  2. Based on the Markov chain, this paper investigates the time variant system reliability of brittle structure under multiple time varying loads.
    對由脆性材料組成的結構,應用馬爾可夫鏈分析了系統在時(shí)變載荷作用下的時(shí)變可靠性問(wèn)題。

Markov chain的相關(guān)資料:

臨近單詞

今日熱詞
目錄 附錄 查詞歷史
国内精品美女A∨在线播放xuan