找回密碼
 立即注冊

QQ登錄

只需一步,快速開始

搜索
查看: 2918|回復(fù): 0
收起左側(cè)

人工智能 深度學(xué)習(xí)的一點內(nèi)容

[復(fù)制鏈接]
ID:115781 發(fā)表于 2016-4-21 20:42 | 顯示全部樓層 |閱讀模式
深度學(xué)習(xí)的一點內(nèi)容:
word完整版本下載: 深度學(xué)習(xí).zip (74.21 KB, 下載次數(shù): 7)

以下是文章預(yù)覽(無圖版本):

Deep Learning是機器學(xué)習(xí)中一個非常接近AI的領(lǐng)域,其動機在于建立、模擬人腦進行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),最近研究了機器學(xué)習(xí)中一些深度學(xué)習(xí)的相關(guān)知識,本文給出一些很有用的資料和心得。

Key Words:有監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí),分類、回歸,密度估計、聚類,深度學(xué)習(xí),Sparse DBN,

1. 有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)

給定一組數(shù)據(jù)(input,target)為Z=(X,Y)。
有監(jiān)督學(xué)習(xí):最常見的是regression & classification。
regression:Y是實數(shù)vector。回歸問題,就是擬合(X,Y)的一條曲線,使得下式cost function L最小。


classification:Y是一個finite number,可以看做類標號。分類問題需要首先給定有l(wèi)abel的數(shù)據(jù)訓(xùn)練分類器,故屬于有監(jiān)督學(xué)習(xí)過程。分類問題中,cost function L(X,Y)是X屬于類Y的概率的負對數(shù)。
,其中fi(X)=P(Y=i | X);


無監(jiān)督學(xué)習(xí):無監(jiān)督學(xué)習(xí)的目的是學(xué)習(xí)一個function f,使它可以描述給定數(shù)據(jù)的位置分布P(Z)。 包括兩種:density estimation & clustering.
density estimation就是密度估計,估計該數(shù)據(jù)在任意位置的分布密度
clustering就是聚類,將Z聚集幾類(如K-Means),或者給出一個樣本屬于每一類的概率。由于不需要事先根據(jù)訓(xùn)練數(shù)據(jù)去train聚類器,故屬于無監(jiān)督學(xué)習(xí)。
PCA和很多deep learning算法都屬于無監(jiān)督學(xué)習(xí)。


2. 深度學(xué)習(xí)Deep Learning介紹
   Depth 概念:depth: the length of the longest path from an input to an output.
   Deep Architecture 的三個特點:深度不足會出現(xiàn)問題;人腦具有一個深度結(jié)構(gòu)(每深入一層進行一次abstraction,由lower-layer的features描述而成的feature構(gòu)成,就是上篇中提到的feature hierarchy問題,而且該hierarchy是一個稀疏矩陣);認知過程逐層進行,逐步抽象
   3篇文章介紹Deep Belief Networks,作為DBN的breakthrough

3.Deep Learning Algorithm 的核心思想:
    把learning hierarchy 看做一個network,則
    ①無監(jiān)督學(xué)習(xí)用于每一層網(wǎng)絡(luò)的pre-train;
    ②每次用無監(jiān)督學(xué)習(xí)只訓(xùn)練一層,將其訓(xùn)練結(jié)果作為其higher一層的輸入;
    ③用監(jiān)督學(xué)習(xí)去調(diào)整所有層
這里不負責(zé)任地理解下,舉個例子在Autoencoder中,無監(jiān)督學(xué)習(xí)學(xué)的是feature,有監(jiān)督學(xué)習(xí)用在fine-tuning. 比如每一個neural network 學(xué)出的hidden layer就是feature,作為下一次神經(jīng)網(wǎng)絡(luò)無監(jiān)督學(xué)習(xí)的input……這樣一次次就學(xué)出了一個deep的網(wǎng)絡(luò),每一層都是上一次學(xué)習(xí)的hidden layer。再用softmax classifier去fine-tuning這個deep network的系數(shù)。


這三個點是Deep Learning Algorithm的精髓,我在上一篇文章中也有講到,其中第三部分:Learning Features Hierachy & Sparse DBN就講了如何運用Sparse DBN進行feature學(xué)習(xí)。

4. Deep Learning 經(jīng)典閱讀材料:
•    The monograph or review paper Learning Deep Architectures for AI (Foundations & Trends in Machine Learning, 2009).
•    The ICML 2009 Workshop on Learning Feature Hierarchies webpage has a list of references.
•    The LISA public wiki has a reading list and a bibliography.
•    Geoff Hinton has readings from last year’s NIPS tutorial.
闡述Deep learning主要思想的三篇文章:
•    Hinton, G. E., Osindero, S. and Teh, Y., A fast learning algorithm for deep belief netsNeural Computation 18:1527-1554, 2006
•    Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle, Greedy Layer-Wise Training of Deep Networks, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007<比較了RBM和Auto-encoder>
•    Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007<將稀疏自編碼用于回旋結(jié)構(gòu)(convolutional architecture)>
06年后,大批deep learning文章涌現(xiàn),感興趣的可以看下大牛Yoshua Bengio的綜述Learning deep architectures for {AI},不過本文很長,很長……
5. Deep Learning工具—— Theano
     Theano是deep learning的Python庫,要求首先熟悉Python語言和numpy,建議讀者先看Theano basic tutorial,然后按照Getting Started 下載相關(guān)數(shù)據(jù)并用gradient descent的方法進行學(xué)習(xí)。
學(xué)習(xí)了Theano的基本方法后,可以練習(xí)寫以下幾個算法:
有監(jiān)督學(xué)習(xí):
1.    Logistic Regression - using Theano for something simple
2.    Multilayer perceptron - introduction to layers
3.    Deep Convolutional Network - a simplified version of LeNet5

無監(jiān)督學(xué)習(xí):
•    Auto Encoders, Denoising Autoencoders - description of autoencoders
•    Stacked Denoising Auto-Encoders - easy steps into unsupervised pre-training for deep nets
•    Restricted Boltzmann Machines - single layer generative RBM model
•    Deep Belief Networks - unsupervised generative pre-training of stacked RBMs followed by supervised fine-tuning




最后呢,推薦給大家基本ML的書籍:
•    Chris Bishop, “Pattern Recognition and Machine Learning”, 2007
•    Simon Haykin, “Neural Networks: a Comprehensive Foundation”, 2009 (3rd edition)
•    Richard O. Duda, Peter E. Hart and David G. Stork, “Pattern Classification”, 2001 (2nd edition)


關(guān)于Machine Learning更多的學(xué)習(xí)資料將繼續(xù)更新,敬請關(guān)注本博客和新浪微博Sophia_qing。

References:
1. Brief Introduction to ML for AI
2.Deep Learning Tutorial
3.A tutorial on deep learning - Video


評分

參與人數(shù) 1黑幣 +50 收起 理由
admin + 50 共享資料的黑幣獎勵!

查看全部評分

回復(fù)

使用道具 舉報

您需要登錄后才可以回帖 登錄 | 立即注冊

本版積分規(guī)則

小黑屋|51黑電子論壇 |51黑電子論壇6群 QQ 管理員QQ:125739409;技術(shù)交流QQ群281945664

Powered by 單片機教程網(wǎng)

快速回復(fù) 返回頂部 返回列表