almost 4 years ago

資料分析上 常常會有所謂的tuning parameters(微調參數)
這個tuning parameters和一般parameters的最大差別是
一般的parameters具有科學意義 或是統計分析上的目標
tuning parameters只是當我們使用一個方法時
單純出現在這套方法裡面的一些可調整的參數

舉例來說 直方圖就有一個tuning parameter: 每個區間的size

我發現科學界 工程界 統計界對tuning parameters的選取 偏好非常不同:
1. 科學界的選法: 透過對問題的知識 還有tuning parameters的一些單位與性質來使用
2. 工程界的選法: 設定一堆tuning parameters可能的值 然後設定一個目標函數(通常稱為cost function) 選那個能最小化目標函數的tuning parameter
3. 統計界的選法: 透過理論計算 得出tuning parameters和目標的關係 然後透過理論找出最佳的解(非常可能跟資料有關係)
4. 數學界的選法: ...數學家沒有這個問題XD (有的話也跟統計界方法很像)

上面講的是偏好 實際上真的分析時
每個領域其實都會交互使用
像是統計界現在也很多人用工程界的方法 選一堆可能的值 然後找最佳解
只是這些可能的值 通常是圍繞在理論最佳解的附近微調
(e.g. 理論說10最好 通常就會試 9, 9.5, 10, 10.5, 11 選最好的那個)

有時理論沒有結果時 就會靠科學知識去推論
或著靠前人的經驗法則(empirical study)去找一群相近的可能選擇
最後每個都試 選最佳的那個

我覺得並沒有哪個方法比較好
每個方法都傳遞了該領域重視的價值
跨領域研究的樂趣就在於
常常能看到這種價值觀影響方法的小細節 值得讓人玩味

← 信賴區間的迷思 統計v.s.Data mining--一個簡單的例子 →
 
comments powered by Disqus