国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用TensorFlow2.0框架實現(xiàn)BP網(wǎng)絡(luò)

汽車電子技術(shù) ? 來源:神經(jīng)網(wǎng)絡(luò)研究所 ? 作者:NNResearcher ? 2023-03-01 11:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

熬過了上一篇漫長的代碼,稍微解開了一丟丟疑惑,使得抽象的BP有一點具體化了,可是還是有好多細節(jié)的東西沒有講清楚,比如,為什么要用激活函數(shù)?為什么隨機梯度下降沒有提到?下面我們來一一解開疑惑。

首先是為什么要使用激活函數(shù)?這要回顧一下我們在學(xué)習(xí)BP之前學(xué)習(xí)的感知器模型。它模仿的是人類體內(nèi)的信號傳導(dǎo)的過程,當信號達到一定的閾值時,就可以繼續(xù)向后傳播。

圖片

那這個感知器模型和BP網(wǎng)絡(luò)有什么關(guān)系呢?在我們所看到的BP網(wǎng)絡(luò)的結(jié)構(gòu)圖中,其實是被簡化了的,下面小編畫了一個邏輯更清晰一點的圖:

圖片

這樣我們就可以看出來,其實BP網(wǎng)絡(luò)是由一個一個的感知器組成,也就構(gòu)成了一個真正的神經(jīng)網(wǎng)絡(luò),自然就能理解為什么要使用激活函數(shù)了。

圖片

接下來我們來看一下TensorFlow實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)到底有多簡單!

#構(gòu)建一個結(jié)構(gòu)為[10,15,1]的BP神經(jīng)網(wǎng)絡(luò)
model = tf.keras.Sequential([tf.keras.layers.Dense(15,activation='relu',input_shape=(10,)),
                             tf.keras.layers.Dense(1)])
model.summary()  #顯示網(wǎng)絡(luò)結(jié)構(gòu)
model.compile(optimizer='SGD',loss='mse')  #定義優(yōu)化方法為隨機梯度下降,損失函數(shù)為mse
#x->訓(xùn)練集,y——>bia標簽,epochs=10000訓(xùn)練的次數(shù),validation_data=(test_x,test_y)——>驗證集
history = model.fit(x,y,epochs=10000,validation_data=(test_x,test_y))

上面就是一個最簡單的BP網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu),小編還準備好了完整的通用框架代碼,不用總是修改隱藏層,可以直接使用哦!公眾號發(fā)送“BP源碼”就可以獲??!是不是非常驚訝!昨天的百行代碼完全消失了,這短短幾行代碼就可實現(xiàn)一個BP網(wǎng)絡(luò)。

這里解釋一下validation_data,這是驗證集,作用和測試集是一樣的,只不過驗證集是在訓(xùn)練過程中對模型進行測試,這樣方便觀察模型的準確性。loss函數(shù)的作用是計算模型的預(yù)測誤差,也就是是衡量模型的準確度,常用的誤差函數(shù)還有mse,mae,rmse,mape等等,模型中有很多誤差函數(shù)不能直接調(diào)用,但是可以自己定義。

   SGD就是我們所說的隨機梯度下降算法了,但是現(xiàn)在我們普遍認為“adam”是目前最好的優(yōu)化算法,當然這也根據(jù)不同的神經(jīng)網(wǎng)絡(luò)做不同的選擇。想要研究理論的讀者可以去查一查資料,小編作為實戰(zhàn)派就不對理論做過多的闡述了!

另外再列出來同樣強大的pytorch框架的代碼,大家可以自行選取。

class Model(nn.Module):
    def __init__(self):
        super().__init__()
        self.fc = nn.Sequential(
            nn.Linear(10, 15),
            nn.ReLU(),
            nn.Dropout(),  #防止過度擬合,TensorFlow也有
            nn.Linear(15, 2)
        )
    def forward(self, x):
        x = self.fc(x)
        return x

關(guān)于選擇哪一個框架的問題,在TensorFlow2.0出現(xiàn)之前,小編會推薦pytorch,現(xiàn)在的TensorFlow2.0和pytorch代碼風(fēng)格已經(jīng)越來越接近了,但是TensorFlow2.0可以支持的平臺更多,所以這里推薦TensorFlow2.0。

有什么問題,歡迎大家留言討論!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 信號
    +關(guān)注

    關(guān)注

    11

    文章

    2853

    瀏覽量

    78293
  • 閾值
    +關(guān)注

    關(guān)注

    0

    文章

    123

    瀏覽量

    18762
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64895
  • BP網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    27

    瀏覽量

    22417
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    330

    瀏覽量

    61183
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    求利用LABVIEW 實現(xiàn)bp神經(jīng)網(wǎng)絡(luò)的程序

    誰有利用LABVIEW 實現(xiàn)bp神經(jīng)網(wǎng)絡(luò)的程序?。ㄎ?b class='flag-5'>用的版本是8.6的 )
    發(fā)表于 11-26 14:54

    labview BP神經(jīng)網(wǎng)絡(luò)實現(xiàn)

    請問:我在用labview做BP神經(jīng)網(wǎng)絡(luò)實現(xiàn)故障診斷,在NI官網(wǎng)找到了機器學(xué)習(xí)工具包(MLT),但是里面沒有關(guān)于這部分VI的幫助文檔,對于”BP神經(jīng)
    發(fā)表于 02-22 16:08

    深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU詳解

    TensorFlow&TensorFlow-GPU:深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU的簡介、安裝、使用方法詳細
    發(fā)表于 12-25 17:21

    高階API構(gòu)建模型和數(shù)據(jù)集使用

    TensorFlow2.0Beta版本,同pytorch一樣支持動態(tài)執(zhí)行(TensorFlow2.0默認eager模式,無需啟動會話執(zhí)行計算圖),同時刪除了雜亂低階API,使用高階API簡單地構(gòu)建復(fù)雜神經(jīng)網(wǎng)絡(luò)模型,本文主要分享
    發(fā)表于 11-04 07:49

    TensorFlow的特點和基本的操作方式

    2015年11月在GitHub上開源,在2016年4月補充了分布式版本,最新版本為1.10,2018年下半年將發(fā)布Tensorflow 2.0預(yù)覽版。Tensorflow目前仍處于快速開發(fā)迭代中,不斷推出新功能和優(yōu)化性能,現(xiàn)已成
    發(fā)表于 11-23 09:56

    TensorFlow實戰(zhàn)之深度學(xué)習(xí)框架的對比

    Google近日發(fā)布了TensorFlow 1.0候選版,這第一個穩(wěn)定版將是深度學(xué)習(xí)框架發(fā)展中的里程碑的一步。自TensorFlow于2015年底正式開源,距今已有一年多,這期間TensorF
    發(fā)表于 11-16 11:52 ?4773次閱讀
    <b class='flag-5'>TensorFlow</b>實戰(zhàn)之深度學(xué)習(xí)<b class='flag-5'>框架</b>的對比

    TensorFlow框架結(jié)構(gòu)解析

    TensorFlow是谷歌的第二代開源的人工智能學(xué)習(xí)系統(tǒng),是用來實現(xiàn)神經(jīng)網(wǎng)絡(luò)的內(nèi)置框架學(xué)習(xí)軟件庫。目前,TensorFlow機器學(xué)習(xí)已經(jīng)成為
    發(fā)表于 04-04 14:39 ?7266次閱讀
    <b class='flag-5'>TensorFlow</b>的<b class='flag-5'>框架</b>結(jié)構(gòu)解析

    機器學(xué)習(xí)框架Tensorflow 2.0的這些新設(shè)計你了解多少

    總是無法被撼動。而就在即將到來的2019年,Tensorflow 2.0將正式入場,給暗流涌動的框架之爭再燃一把火。
    的頭像 發(fā)表于 11-17 11:33 ?3340次閱讀

    TensorFlow2.0終于問世,Alpha版可以搶先體驗

    之前開發(fā)者反饋,希望TensorFlow能夠簡化API、減少冗余并改進文檔和示例。這次2.0發(fā)布,聽取了開發(fā)者的建議,因此新版本有以下三大特點:簡單、強大、可拓展。
    的頭像 發(fā)表于 03-08 09:30 ?3862次閱讀
    <b class='flag-5'>TensorFlow2.0</b>終于問世,Alpha版可以搶先體驗

    基于TensorFlow框架搭建卷積神經(jīng)網(wǎng)絡(luò)的電池片缺陷識別研究

    基于TensorFlow框架搭建卷積神經(jīng)網(wǎng)絡(luò)對電池片電致發(fā)光圖像進行缺陷識別。選取公開的數(shù)據(jù)集,其中包含了電池片的不同種類缺陷。
    的頭像 發(fā)表于 08-28 18:46 ?8037次閱讀
    基于<b class='flag-5'>TensorFlow</b><b class='flag-5'>框架</b>搭建卷積神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的電池片缺陷識別研究

    IJCAI 2019上的一個TensorFlow2.0實操教程,117頁PPT干貨分享

    如果您有興趣開始學(xué)習(xí)TensorFlow,或者學(xué)習(xí)新發(fā)布的2.0版本,那么本教程非常適合您。前提是您需要事先熟悉一些基本的機器學(xué)習(xí)知識。我們將介紹深度學(xué)習(xí)中的關(guān)鍵概念。我們的目標是幫助您高效地開始使用TensorFlow,這樣您
    的頭像 發(fā)表于 09-01 07:49 ?3531次閱讀

    tensorflow能做什么_tensorflow2.0和1.0區(qū)別

    等多項機器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域,對2011年開發(fā)的深度學(xué)習(xí)基礎(chǔ)架構(gòu)DistBelief進行了各方面的改進,它可在小到一部智能手機、 大到數(shù)千臺數(shù)據(jù)中心服務(wù)器的各種設(shè)備上運行。TensorFlow將完全開源,任何人都可以。
    的頭像 發(fā)表于 12-04 14:45 ?8297次閱讀

    神經(jīng)網(wǎng)絡(luò)原理簡述—卷積Op求導(dǎo)

    目前主流的CNN訓(xùn)練框架,如pytorch、mxnet、tensorflow2.0中都已經(jīng)集成了autograd的機制,自動求導(dǎo)的機制相較于傳統(tǒng)訓(xùn)練框架如caffe、te...
    發(fā)表于 02-07 11:29 ?0次下載
    神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>原理簡述—卷積Op求導(dǎo)

    深度學(xué)習(xí)框架tensorflow介紹

    深度學(xué)習(xí)框架tensorflow介紹 深度學(xué)習(xí)框架TensorFlow簡介 深度學(xué)習(xí)框架TensorFl
    的頭像 發(fā)表于 08-17 16:11 ?3011次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀