機器學習-學習筆記1
今天一朋友發給我了關於斯坦福大學andrew ng的機器學習的視訊,最開始覺得只當是瞭解。因為接下來的學習方向是機器智慧了,這些都是基礎必須學會的知識。瞭解到了一些概念 1:監督學習,就是給定了學習集合,這些學習集合也叫做樣本,每個樣本的變數以及結果都會給出,並且在預測的時候,預測的結果已經是知道了 […]
-->
程式前沿 幫助程式設計師解決問題,增加專業技能,提升個人能力與未來世界競爭力。
今天一朋友發給我了關於斯坦福大學andrew ng的機器學習的視訊,最開始覺得只當是瞭解。因為接下來的學習方向是機器智慧了,這些都是基礎必須學會的知識。瞭解到了一些概念 1:監督學習,就是給定了學習集合,這些學習集合也叫做樣本,每個樣本的變數以及結果都會給出,並且在預測的時候,預測的結果已經是知道了 […]
正確率、召回率和F值是在魚龍混雜的環境中,選出目標的重要評價指標,本文就針對這三個指標得瑟得瑟。 不妨看看這些指標的定義先: 正確率 = 正確識別的個體總數 / 識別出的個體總數 召回率 = 正確識別的個體總數 / 測試集中存在的個體總數 F值 = 正確率 * 召回率 * 2 […]
1:對文字的分類,不管用什麼高階的方法,首先還是需要建立數學模型的,這個地方就用SVM來建立,他的原理是根據文字的特徵,比如一個文字有10個特徵(一般來說每個特徵是一個代表這個文字的關鍵詞),那麼這個文字向量大小就是10了。具體的每個值就是這個特徵的權重(關於權重的計算很多種,我這個地方只用了詞頻來 […]
下午看了斯坦福機器學習的第二節課,主要是講解的監督學習中的迴歸問題,更多的是迴歸方程中系統的求解,用到了梯度下降演算法。具體的證明過程暫時還不知道,只知道了大概意思,作為入門先這樣理解吧,我來寫個總結,當前先有問題引入。 1:問題引入,有類似下面的一組資料(假定有m個這樣的資料): 吐槽下: […]
最近看sparse representation 總是看到一個underdetermined,經過google translate發現解釋不太通順,後來經過wiki查詢,還真有解釋,原來是在一個linear system equation中。如果the count of equation is fe […]
最近在看sparse and redundant representation,可能由於不經常看類似文章的問題,有些翻譯按照字面來理解根本無法理解,覺得前後矛盾。在第一頁看到一句話這麼說: 矩陣A式n*m的n小於m,如果b is not in the spans of columns of matr […]
最近在看sparse and redundant representations這本書,進度比較慢,不過力爭看過的都懂,不把時間浪費掉。才看完了不到3頁吧,書上基本給出了稀疏表達的概念以及傳統的求法。我也用書中的例子來引入吧。 1:矩陣A(n*m),其中n遠遠小於m,一副圖片經過縮小或者模糊處理導致 […]
區域性加權緊接著上面的線性迴歸中引數求解來繼續講吧。還是以上面的房屋價格的預測,它的中心思想是在對引數進行求解的過程中,每個樣本對當前引數值的影響是有不一樣的權重的。比如上節中我們的迴歸方程為(這個地方用矩陣的方法來表示Ɵ表示引數,i表示第i個樣本,h為在Ɵ引數下的預測值): 我們的目標是讓 […]
這學期又重新修了老闆的機器智慧課程,相比前兩個學年的,這次聽的更認真了,上了第一節課,讓我更加知道了什麼是機器智慧,在這裡做個總結吧,我大概的寫下:1:什麼是智慧智慧是一種知道學習什麼,從什麼地方學習,理解並且能夠和環境進行互動的一種能力。簡單的說智慧就是一種能力。2:智慧來自哪裡智慧來自大腦,它是 […]
前幾天討論班我講了基於PCA的人臉識別,當時我自己其實也只是知道這個演算法流程,然後基於該演算法利用c 實現了,效果還不錯。後來跟師兄一起討論的時候,才發現這個PCA還是有相當深刻的意義。 PCA的演算法:矩陣C=AAT,A的每一列是一張人臉注(將一張人臉圖片用一個列向量表示,即對於128*128的 […]