machine-learning

1/22ページ

機器學習中的概率問題

前言 機器學習的過程可以理解為計算機通過分析大量的資料獲得模型,並通過獲得的模型進行預測的過程。機器學習的模型可以有多種表示,例如線性迴歸模型,SVM模型,決策樹模型,貝葉斯模型。   概率型別 在理解概率模型之前,首先要理解的各種概率型別所表示的確切含義。 1.先驗概率 某事件發生的概率。 2.條 […]

SVM理解與引數選擇(kernel和C)

大部分資料都在講SVM的kernel等看似高大上的東西,卻忽略了SVM的模型表示式這一關鍵,造成大家看SVM資料覺得雲裡霧裡的感覺。 本文舍末求本,從SVM的模型理解開始,帶大家理解SVM的基本思想,理解各個引數對SVM的效能影響。 直觀理解SVM 以二維平面上的分類為例,下面給出了不同的分類可能, […]

人人都能用Python寫出LSTM-RNN的程式碼![你的神經網路學習最佳起步]

0. 前言 本文翻譯自部落格: iamtrask.github.io ,這次翻譯已經獲得trask本人的同意與支援,在此特別感謝trask。本文屬於作者一邊學習一邊翻譯的作品,所以在用詞、理論方面難免會出現很多錯誤,假如您發現錯誤或者不合適的地方,可以給我留言,謝謝! — 2016.7. […]

深度學習一:安裝MXnet包,實現MNIST手寫數體識別

我想寫一系列深度學習的簡單實戰教程,用mxnet做實現平臺的例項程式碼簡單講解深度學習常用的一些技術方向和實戰樣例。這一系列的主要內容偏向於講解實際的例子,從樣例和程式碼裡中學習解決實際問題。我會預設讀者有一定神經網路和深度學習的基礎知識,讀者在這裡不會看到大段推導和理論闡述。基礎理論知識十分重要, […]

機器學習中的正則化項(L1, L2)的理解

正則化(Regularization) 機器學習中幾乎都可以看到損失函式後面會新增一個額外項,常用的額外項一般有兩種,一般英文稱作ℓ1-norm和ℓ2-norm,中文稱作L1正則化和L2正則化,或者L1範數和L2範數。 L1正則化和L2正則化可以看做是損失函式的懲罰項。所謂『懲罰』是指對損失函式中的 […]