找回密碼
 立即注冊

QQ登錄

只需一步,快速開始

帖子
查看: 3829|回復(fù): 1
收起左側(cè)

神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)課件資料下載

[復(fù)制鏈接]
ID:384779 發(fā)表于 2018-8-10 11:36 | 顯示全部樓層 |閱讀模式
神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
0.png 0.png 0.png

有監(jiān)督學(xué)習(xí)是利用一組已知輸入x和輸出y的數(shù)據(jù)來學(xué)習(xí)模型的參數(shù),使得模型預(yù)測的輸出標(biāo)記和真實標(biāo)記盡可能的一致。有監(jiān)督學(xué)習(xí)根據(jù)輸出類型又可以分為回歸和分類兩類。回歸(Regression) 如果輸出y是連續(xù)值(實數(shù)或連續(xù)整數(shù)),f(x)的輸出也是連續(xù)值。這種類型的問題就是回歸問題。對于所有已知或未知的(x;y),使得f(x; )和y盡可能地一致。損失函數(shù)通常定義為平方誤差。分類(Classication) 如果輸出y是離散的類別標(biāo)記(符號),就是分類問題。損失函數(shù)有一般用0-1損失函數(shù)或負(fù)對數(shù)似然函數(shù)等。在分類問題中,通過學(xué)習(xí)得到的決策函數(shù)f(x; )也叫分類器。

無監(jiān)督學(xué)習(xí)(Unsupervised Learning) 無監(jiān)督學(xué)習(xí)是用來學(xué)習(xí)的數(shù)據(jù)不包含輸出目標(biāo),需要學(xué)習(xí)算法自動學(xué)習(xí)到一些有價值的信息。一個典型的無監(jiān)督學(xué)習(xí)問題就是㚐類(Clustering)。
增強(qiáng)學(xué)習(xí)(Reinforcement Learning) 增強(qiáng)學(xué)習(xí)也叫強(qiáng)化學(xué)習(xí),強(qiáng)調(diào)如何基于環(huán)境做出一系列的動作,以取得最大化的累積收益。每做出一個動作,并不一定立刻得到收益。增強(qiáng)學(xué)習(xí)和有監(jiān)督學(xué)習(xí)的不同在于增強(qiáng)學(xué)習(xí)不需要顯式地以輸入/輸出對的方式給出訓(xùn)練樣本,是一種在線的學(xué)習(xí)機(jī)制。

在梯度下降訓(xùn)練的過程中,由于過擬合的原因,在訓(xùn)練樣本上收斂的參數(shù),并不一定在測試集上最優(yōu)。因此,我們使用一個驗證集(Validation Dataset)(也叫開發(fā)集(Development Dataset))來測試每一次迭代的參數(shù)在驗證集上是否最優(yōu)。如果在驗證集上的錯誤率不再下降,就停止迭代。這種策略叫Early-Stop。如果沒有驗證集,可以在訓(xùn)練集上進(jìn)行交叉驗證。
0.png
0.png

全部資料51hei下載地址:
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》邱錫鵬講義.pdf (687.64 KB, 下載次數(shù): 41)
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》邱錫鵬PPT.pdf (1.17 MB, 下載次數(shù): 35)


回復(fù)

使用道具 舉報

ID:386567 發(fā)表于 2018-8-15 15:35 | 顯示全部樓層
找這個PPT都好久了,能否提供下載看看呢
回復(fù)

使用道具 舉報

您需要登錄后才可以回帖 登錄 | 立即注冊

本版積分規(guī)則

手機(jī)版|小黑屋|51黑電子論壇 |51黑電子論壇6群 QQ 管理員QQ:125739409;技術(shù)交流QQ群281945664

Powered by 單片機(jī)教程網(wǎng)

快速回復(fù) 返回頂部 返回列表