網(wǎng)站制作NEWS
哪個(gè)是深度學(xué)習(xí)中常用的優(yōu)化算法
1、MBGD每一次利用一小批樣本,即n個(gè)樣本進(jìn)行計(jì)算,這樣它可以降低參數(shù)更新時(shí)的方差,收斂更穩(wěn)定,另一方面可以充分地利用深度學(xué)習(xí)庫(kù)中高度優(yōu)化的矩陣操作來(lái)進(jìn)行更有效的梯度計(jì)算。
2、深度學(xué)習(xí)常見(jiàn)的3種算法有:卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、生成對(duì)抗網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetworks),是深度學(xué)習(xí)的代表算法之一。
3、經(jīng)驗(yàn)上,RMSProp已被證明是一種有效且實(shí)用的深度神經(jīng)網(wǎng)絡(luò)優(yōu)化算法。目前它是深度學(xué)習(xí)從業(yè)者經(jīng)常采用的優(yōu)化方法之一。
4、梯度下降是非常常用的優(yōu)化算法。作為機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí),這是一個(gè)必須要掌握的算法。借助本文,讓我們來(lái)一起詳細(xì)了解一下這個(gè)算法。
多重隨機(jī)標(biāo)簽