深度學習—-Deep Learning

1/2ページ

深度學習方法(十三):卷積神經網路結構變化——可變形卷積網路deformable convolutional networks

上一篇我們介紹了:深度學習方法(十二):卷積神經網路結構變化——Spatial Transformer Networks,STN創造性地在CNN結構中裝入了一個可學習的仿射變換,目的是增加CNN的旋轉、平移、縮放、剪裁性。為什麼要做這個很奇怪的結構呢?原因還是因為CNN不夠魯棒,比如把一張圖片顛倒一 […]

深度學習方法(七):最新SqueezeNet 模型詳解,CNN模型引數降低50倍,壓縮461倍!

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。 技術交流QQ群:433250724,歡迎對演算法、技術感興趣的同學加入。 繼續前面關於深度學習CNN經典模型的整理,之前介紹了CNN網路Lenet,Alexnet,Googlenet,VGG,Deep Res […]

[重磅]Deep Forest,非神經網路的深度模型,周志華老師最新之作,三十分鐘理解!

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。 技術交流QQ群:433250724,歡迎對演算法、技術感興趣的同學加入。 深度學習最大的貢獻,個人認為就是表徵學習(representation learning),通過端到端的訓練,發現更好的feature […]

深度學習方法(十):卷積神經網路結構變化——Maxout Networks,Network In Network,Global Average Pooling

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。 技術交流QQ群:433250724,歡迎對演算法、技術感興趣的同學加入。 最近接下來幾篇博文會回到神經網路結構的討論上來,前面我在“深度學習方法(五):卷積神經網路CNN經典模型整理Lenet,Alexnet […]

深度學習方法(十一):卷積神經網路結構變化——Google Inception V1-V4,Xception(depthwise convolution)

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。 技術交流QQ群:433250724,歡迎對演算法、機器學習技術感興趣的同學加入。 上一篇講了深度學習方法(十):卷積神經網路結構變化——Maxout Networks,Network In Network,G […]

引數(parameters)和超引數(hyperparameters)

在機器學習或者深度學習領域,引數和超引數是一個常見的問題,個人根據經驗給出了一個很狹隘的區分這兩種引數的方法。 引數:就是模型可以根據資料可以自動學習出的變數,應該就是引數。比如,深度學習的權重,偏差等 超引數:就是用來確定模型的一些引數,超引數不同,模型是不同的(這個模型不同的意思就是有微小的區別 […]

機器學習中訓練集、驗證集(開發集)、測試集如何劃分

1.傳統的機器學習領域中,由於收集到的資料量往往不多,比較小,所以需要將收集到的資料分為三類:訓練集、驗證集、測試集。也有人分為兩類,就是不需要測試集。 比例根據經驗不同而不同,這裡給出一個例子,如果是三類,可能是訓練集:驗證集:測試集=6:2:2;如果是兩類,可能是訓練集:驗證集=7:3。因為資料 […]

深度學習方法(五):卷積神經網路CNN經典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。 技術交流QQ群:433250724,歡迎對演算法、技術感興趣的同學加入。 關於卷積神經網路CNN,網路和文獻中有非常多的資料,我在工作/研究中也用了好一段時間各種常見的model了,就想著簡單整理一下,以備查 […]

基於檢索與深度神經網路的人機對話

關於NLP的交流分享,下面簡單梳理下自己的所得 1.      一個10個詞語的句子出現3個或以上的錯別字那麼這個句子基本沒有 2.      規則模型與生成式模型 在做對話系統或者問答系統的過程中,他們採用的是混合模型,包括Deep Learning以及檢索系統,首先要說一說各種模型的優缺點,見下 […]