99久久全国免费观看_国产一区二区三区四区五区VM_久久www人成免费看片中文_国产高清在线a视频大全_深夜福利www_日韩一级成人av

徐土豆
認證:優質創作者
所在專題目錄 查看專題
數據,模型,算法共同決定深度學習模型效果
一文理解Ranking Loss/Contrastive Loss/Margin Loss/Triplet Loss/Hinge Loss
參數和非參數模型——當談到參數我在說些什么?
在深度學習中,對于特征融合方式的思考——論pointwise addition和concatenate的異同
損失函數的可視化——淺論模型的參數空間與正則
曲線擬合問題與L2正則
作者動態 更多
給定計算預算下的最佳LLM模型尺寸與預訓練數據量分配
05-19 09:33
大模型推理時的尺度擴展定律
05-18 10:32
世界多胞體與世界模型
05-13 09:42
獎勵模型中的尺度擴展定律和獎勵劫持
05-12 08:41
MeCo——給預訓練數據增加源信息,就能減少33%的訓練量并且提升效果
05-08 09:13

參數和非參數模型——當談到參數我在說些什么?

本文轉自徐飛翔的“參數和非參數模型——當我談到參數我在說些什么

版權聲明:本文為博主原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接和本聲明。

對觀察數據集進行描述

假如現在給我們觀察數據 ,其中 是表征這個觀察數據的特征和標簽,其中的 表示特征維度, m m m表示樣本數量。 如果我們嘗試對這個觀察數據進行模型描述,我們可以怎么描述呢?把這個問題記住,我們繼續探討。

我們要認識到,對觀察數據進行描述,指的不光光是把所有數據一個字節一個字節地“記住”(memorize),而是嘗試用一個概率分布去描述這個觀察數據,比如數據的聯合概率分布就可以很好地描述這個觀察數據。為什么呢?比如說我們現在輸入樣本的特征是 是一個5維向量,標簽 表征了其類別,那么概率:

    

(1.1)

這個概率表示了樣本 和標簽或者同時出現的概率,通過計算邊緣概率分布,我們同樣知道了特征的概率分布:

  (1.2)

我們在這里不用考慮(1.1)這個概率是怎么計算出來的(實際上這個正是模型所做的事),我們只要知道通過這種手段可以去表達觀察數據集,我們把這個分布稱之為“模型”(不太準確,但是可以這樣理解)。從這個分布中進行采樣我們足以生成虛擬的樣本(生成模型的領域),當然這都是后話了。同樣的,知道了這個分布,也足以解決我們的樣本分類問題:

                     

(1.3)

好的,那么我們現在的問題就集中在如何才能得到(1.1)的概率分布了,也就是怎么建模了。我們終于要進入正題了,哈哈哈哈。

總的來說,我們可以通過兩種方法進行建模,一種稱之為參數化模型(parametric model),另一大類是非參數模型(non-parametric model)。注意,這里的“參數”和模型有沒有可以學習的參數(比如神經網絡中的weight)是沒有關系的,非參數模型中可以有很多可學習的參數,但是不妨礙它為非參數模型。那么我們的問題就是怎么去理解這個“參數”了。參數化模型

對(1.1)的概率分布進行建模,有一種最為直接的方法就是先假設這個分布是服從某個特定分布的,比如高斯分布,泊松分布等等,當然這些分布中有些未知參數需要我們求得,而這些參數也正是決定了這個分布的形狀的,比如高斯分布的均值和協方差決定了不同的高斯分布,如下圖所示。

在這里插入圖片描述Fig 1. 不同均值和協方差的高斯分布。

我們也可以假設這個未知分布是多個已知分布的組合,比如多個高斯分布的組合,我們稱之為混合高斯模型(Gaussian Mixture Model,GMM),模型公式[1]如:

(2.1)

其實就是K個不同均值和協方差的高斯分布的混合,并且對此進行了加權。

我們也可以假設我們的數據擬合曲線的形式,這個同樣也是在隱式地對概率分布進行建模。經典的包括線性回歸,邏輯斯蒂回歸等,其函數形式都是如同:

=

同樣的,整個函數的形式都是已經確定了的,無非就是一個直線/超平面 而已,但是其具體的 的組合,決定了這個超平面的具體走向。

這個就是所謂的參數化模型,我們需要根據經驗,觀察,專家知識等對數據分布進行一定的假設后,然后對決定這個分布形狀的參數集 進行求解,這個求解通常根據現有的觀察到的數據集進行,這個參數集是一個有限的集合。

我們可以推出一個結論就是,在參數化模型的框架下,無論我接下來觀察到多少數量的數據,哪怕是無限多個數據,我模型的參數量都只有固定數量多個,那便是 。也就是說,用有界的參數量(復雜度)對無界的(數據量)的數據分布進行了建模。

假如你的假設分布足夠靠譜,甚至是完全正確的,那么當你通過一些觀察樣本,得到了參數集 之后,之后的預測結果將之和這個參數集有關,后續的任何觀察樣本 都和預測結果無關,表示為:

顯然這樣模型并不是很靈活,模型的可靠性強依賴于對數據的人工分析經驗等。非參數化模型

非參數化模型,和參數化模型截然相反的是,對數據分布不進行任何的假設,只是依賴于觀察數據,對其進行擬合。換句話說,其認為數據分布不能通過有限的參數集進行描述,但是可以通過無限維度的參數進行描述,無限維度也就意味著其本質就是一個函數

通常,實際中的模型是對這個無限維度參數集的近似,比如神經網絡中的參數,雖然參數量通常很大,也有萬有擬合理論保證其可以擬合函數,但是其只是對無限維度數據的近似而已。由于非參數化模型依賴于觀察數據,因此參數集能捕獲到的信息量隨著觀察數據集的數量增加而增加,這個使得模型更加靈活。

常見的模型歸屬

常見的參數化模型和非參數化模型有:

需要進行解釋的是,神經網絡可以看成是高斯過程的近似[2],因此神經網絡也是非參數化模型,k-means在聚類過程中假設數據是球型分布的(也就是歐式距離還管用,歐式距離可以表征樣本之間的相似度的情況)。這里指的參數到底是啥

所以這里談到的參數到底是個啥呢?我認為,這里的參數與否其實指的是是否用參數對模型的形狀進行了顯式地描述,如有則是參數化模型,沒有,那么就是非參數化模型了。

Reference

[1]. https://blog.csdn.net/lin_limin/article/details/81048411

[2]. Radford M. Neal. Priors for infinite networks (tech. rep. no. crg-tr-94-1). University of Toronto, 1994a.

聲明:本內容為作者獨立觀點,不代表電子星球立場。未經允許不得轉載。授權事宜與稿件投訴,請聯系:editor@netbroad.com
覺得內容不錯的朋友,別忘了一鍵三連哦!
贊 4
收藏 4
關注 52
成為作者 賺取收益
全部留言
0/200
  • dy-J4n9lg5Q 2021-05-19 13:28
    佩服樓主
    回復
主站蜘蛛池模板: 免费A级毛片无码A∨中文字幕 | 免费在线观看h视频 | 国产小视频免费观看 | 欧美精品亚洲一区 | 成年人中文字幕在线观看 | 天天玩天天操天天干 | 日韩综合网 | 狂野欧美激情性XXXX按摩 | 免费无码一区二区三区 | 亚洲欧美日韩在线观看一区二区三区 | 国产啪视频| 亚洲V国产V天堂A无码二区 | 白丝美女被操黄色视频国产免费 | 亚洲午夜精品一区二区三区 | 最新大地资源网在线观看免费 | 亚洲av无码偷拍在线观看 | 十八禁羞羞视频爽爽爽 | 亚洲小视频网站 | 国内黄色一级片 | 国产亚洲精品第一综合不卡 | 国产男小鲜肉同志免费 | 人人妻人人澡人人爽人人精品AV | 日本爆乳片手机在线播放 | 日本www免费视频网站在线观看 | 国产亚洲精品久久久一区 | 人妻无码中文专区久久综合 | 69久久夜色精品国产69蝌蚪网 | 性欧美视频一区二区三区 | 麻豆视频免费在线观看 | 久久久精品福利视频 | 色婷婷av| 色日韩综合 | 性少妇无码播放 | 浮生影院大全免费观看高清版 | 亚洲视频你懂的 | av中文字幕最新在线观看 | 国产免费一级大片 | 国产老女人乱淫免费 | 日韩黄色a | 无码人妻一区二区三区免费N鬼沢 | 天堂成人一区二区三区 |