找回密碼
 立即注冊(cè)

QQ登錄

只需一步,快速開(kāi)始

帖子
查看: 3868|回復(fù): 1
收起左側(cè)

神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)課件資料下載

[復(fù)制鏈接]
ID:384779 發(fā)表于 2018-8-10 11:36 | 顯示全部樓層 |閱讀模式
神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
0.png 0.png 0.png

有監(jiān)督學(xué)習(xí)是利用一組已知輸入x和輸出y的數(shù)據(jù)來(lái)學(xué)習(xí)模型的參數(shù),使得模型預(yù)測(cè)的輸出標(biāo)記和真實(shí)標(biāo)記盡可能的一致。有監(jiān)督學(xué)習(xí)根據(jù)輸出類(lèi)型又可以分為回歸和分類(lèi)兩類(lèi)�;貧w(Regression) 如果輸出y是連續(xù)值(實(shí)數(shù)或連續(xù)整數(shù)),f(x)的輸出也是連續(xù)值。這種類(lèi)型的問(wèn)題就是回歸問(wèn)題。對(duì)于所有已知或未知的(x;y),使得f(x; )和y盡可能地一致。損失函數(shù)通常定義為平方誤差。分類(lèi)(Classication) 如果輸出y是離散的類(lèi)別標(biāo)記(符號(hào)),就是分類(lèi)問(wèn)題。損失函數(shù)有一般用0-1損失函數(shù)或負(fù)對(duì)數(shù)似然函數(shù)等。在分類(lèi)問(wèn)題中,通過(guò)學(xué)習(xí)得到的決策函數(shù)f(x; )也叫分類(lèi)器。

無(wú)監(jiān)督學(xué)習(xí)(Unsupervised Learning) 無(wú)監(jiān)督學(xué)習(xí)是用來(lái)學(xué)習(xí)的數(shù)據(jù)不包含輸出目標(biāo),需要學(xué)習(xí)算法自動(dòng)學(xué)習(xí)到一些有價(jià)值的信息。一個(gè)典型的無(wú)監(jiān)督學(xué)習(xí)問(wèn)題就是㚐類(lèi)(Clustering)。
增強(qiáng)學(xué)習(xí)(Reinforcement Learning) 增強(qiáng)學(xué)習(xí)也叫強(qiáng)化學(xué)習(xí),強(qiáng)調(diào)如何基于環(huán)境做出一系列的動(dòng)作,以取得最大化的累積收益。每做出一個(gè)動(dòng)作,并不一定立刻得到收益。增強(qiáng)學(xué)習(xí)和有監(jiān)督學(xué)習(xí)的不同在于增強(qiáng)學(xué)習(xí)不需要顯式地以輸入/輸出對(duì)的方式給出訓(xùn)練樣本,是一種在線(xiàn)的學(xué)習(xí)機(jī)制。

在梯度下降訓(xùn)練的過(guò)程中,由于過(guò)擬合的原因,在訓(xùn)練樣本上收斂的參數(shù),并不一定在測(cè)試集上最優(yōu)。因此,我們使用一個(gè)驗(yàn)證集(Validation Dataset)(也叫開(kāi)發(fā)集(Development Dataset))來(lái)測(cè)試每一次迭代的參數(shù)在驗(yàn)證集上是否最優(yōu)。如果在驗(yàn)證集上的錯(cuò)誤率不再下降,就停止迭代。這種策略叫Early-Stop。如果沒(méi)有驗(yàn)證集,可以在訓(xùn)練集上進(jìn)行交叉驗(yàn)證。
0.png
0.png

全部資料51hei下載地址:
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》邱錫鵬講義.pdf (687.64 KB, 下載次數(shù): 41)
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》邱錫鵬PPT.pdf (1.17 MB, 下載次數(shù): 35)


回復(fù)

使用道具 舉報(bào)

ID:386567 發(fā)表于 2018-8-15 15:35 | 顯示全部樓層
找這個(gè)PPT都好久了,能否提供下載看看呢
回復(fù)

使用道具 舉報(bào)

本版積分規(guī)則

小黑屋|51黑電子論壇 |51黑電子論壇6群 QQ 管理員QQ:125739409;技術(shù)交流QQ群281945664

Powered by 單片機(jī)教程網(wǎng)

快速回復(fù) 返回頂部 返回列表