Homing So

Homing So

🎉 哈喽啊~各位
github

CS182/282A 春季 2023 1/23/23

基於標準優化的監督學習範式#

成分#

  • 訓練數據 (i=1,...,n)\left( i = 1, ..., n \right)
  • XiX_i: 輸入,協變量;
  • YiY_i: 輸出,標籤
  • 模型 fθ(),θ參數f_\theta{ \left( \cdot \right) },\theta\Leftarrow 參數

通過經驗風險最小化進行訓練#

θ^=argminθ1ni=1nltrain(yi,fθ(xi))\hat{ \theta } = \mathop{\arg\min}\limits_{ \theta } \frac{1}{n} \sum\limits_{i=1}^n l_{train}\left( y_i, f_\theta\left( x_i \right) \right)

  • 選擇一個 θ^\hat{\theta},我們可以從數據中學習以最小化某些東西
  • l(y,y^) 返回一個實數 l\left( y, \hat{y} \right) \text{ 返回一個實數 }ll 是一個損失,將 yy 與某些 y^\hat{y} 的預測進行比較,始終返回一個實數(訓練數據之間的差異,可能是向量或數字),我們可以最小化

真正的目標是在未見過的 XX 上的真實世界表現#

數學代理:

  • P(X,Y)\exists{ P\left(X, Y\right) }:假設一個概率分佈
  • 希望損失 l(Y,fθ(X))l\left( Y, f_\theta\left( X \right) \right)EX,YE_{X, Y}(對 XXYY 的期望)較低

複雜性#

  1. 我們無法訪問 P(X,Y)P\left( X, Y \right)

我們希望在我們未見過的東西上表現良好,我們假設有平均值是有意義的,並且存在某種潛在的分佈,但我們不知道它

解決方案:

  • (Xtest,i,Ytest,i)i=1ntest\left( X_{test, i}, Y_{test, i} \right)_{ i = 1 }^{ n_{test} }:收集一組保留的測試數據
  • 測試錯誤=1ntesti=1ntestl(ytest,i,fθ(xtest,i))\text{測試錯誤} = \frac{1}{n_{test}} \sum\limits_{i=1}^{n_{test}} l\left( y_{test, i}, f_{\theta}\left( x_{test, i} \right) \right)

我們收集的這個測試集在某種程度上忠實地代表了我們期望在現實世界中看到的東西,我們希望現實世界遵循概率分佈所做的事情,因此我們希望平均和抽樣能給我們一些預測能力,預測實際會發生的事情。

我不知道該怎麼做,我知道怎麼做,所以我就這樣做

  1. 我們關心的損失 ltrue(,)l_{true}\left( \cdot, \cdot \right) 與我們的優化器不兼容

你想這樣做,這需要某種方法來計算這個參數是什麼。這是一種算法,他們必須做這項工作,該算法只有在某些事情發生時才能工作。可能你關心的損失不允許它做它需要做的事情。

你實際上關心的是某種不可微分的損失,因為這對你的問題是實際相關的。但你的最小化器將使用導數,因此你會說這行不通。

解決方案:

  • ltrain(,)l_{train} \left( \cdot, \cdot \right):使用一個我們可以處理的替代損失。

經典示例:

  1. y{,}y \in \lbrace \text{貓}, \text{狗} \rbraceltruel_{true}:漢明損失

  2. yRy \rightarrow \mathbf{R},其中訓練數據映射為:

{1+1\begin{equation} \left\{ \begin{array}{lr} 貓 \rightarrow -1 & \\ 狗 \rightarrow +1 & \end{array} \right. \end{equation}
  1. ltrainl_{train}:平方誤差

當我們評估測試錯誤時,我們使用 ltruel_{true}

評估測試錯誤的目的是了解你在現實世界數據上可能表現得多好。這是對已經優化的特定模型進行的評估,測試錯誤上不會發生優化。

你應該知道的示例:

  • 二元分類:邏輯損失,鉸鏈損失
  • 多類別分類:交叉熵損失

附註:

1ni=1nltrue(yi,fθ^(xi))\frac{1}{n} \sum\limits_{i=1}^{n} l_{true} \left( y_{i}, f_{\hat{\theta}} \left( x_{i} \right) \right) 在訓練集上進行評估,與 1ni=1nltrain(yi,fθ(xi))\frac{1}{n} \sum\limits_{i=1}^n l_{train} \left( y_i, f_{\theta} \left( x_{i} \right) \right) 不同

這個對象在實際上對於每個將要處理事情的人來說都是調試。

我們希望使用這個來了解我們是否實際上在優化我們的訓練損失,並看看我們實際上做得如何。因為如果有增長,我會再加一些詞。如果你告訴這個優化的東西和你在朝著的事情之間存在明顯的不匹配,那麼可能有些地方出錯了。

1ntesti=1ntestl(ytest,i,fθ(xtest,i))\frac{1}{n_{test}} \sum\limits_{i=1}^{n_{test}} l\left( y_{test,i}, f_{\theta}\left( x_{test,i} \right) \right)

你希望這是一個忠實的測量,了解事情在實踐中可能如何運作,但如果你看著這個家伙說 ' 哦等等,我應該改變這個,然後你回去說 ' 讓我再看看這個 ',那麼你可能會運行一個優化循環,涉及你作為優化器,實際上你在查看這些保留的數據,而這些數據不再被保留。由於它不再被保留,你可能不會信任事情在實踐中會如何運作。(對過擬合現象的某種看法)

1ni=1nltrain(yi,fθ(xi))\frac{1}{n} \sum\limits_{i=1}^{n} l_{train} \left( y_{i}, f_{\theta} \left( x_{i} \right) \right) 上沒有這樣的關心,因為你已經在使用這些數據來評估你做得如何,從你的優化算法的角度來看,它一直在查看它。因此,無論你是否選擇其他視角,都是無成本的。

  1. 你用你的替代損失運行優化器,並且我們得到了 θ^\hat{\theta} 的 “瘋狂” 值,你在優化器上,和 / 或你得到了非常糟糕的測試表現。(對過擬合現象的另一種看法)

解決方案:

  • 在訓練期間添加明確的回歸:θ^=argminθ(1ni=1nltrain(yi,fθ(xi)))+Rλ(θ)\hat{\theta} = \mathop{\arg\min}\limits_{\theta} \left( \frac{1}{n} \sum\limits_{i=1}^{n} l_{train} \left( y_{i}, f_{\theta} \left( x_{i} \right) \right) \right) + R_{\lambda} \left( \theta \right),例如,脊回歸:R(θ)=λθ2R\left( \theta \right) = \lambda\| \theta \|^2

注意:我們添加了另一個參數 λ\lambda。我們如何選擇它?

原生超參數:θ^=argminθ,λ0()\hat{\theta} = \mathop{\arg\min}\limits_{\theta, \lambda^{\geq0}} \left( \frac{}{} \right)

  • 將參數分為 “正常參數 θ\theta 和超參數 λ\lambda

“超參數是一個參數,如果你讓優化器隨意使用它,它會變得瘋狂,所以你必須將其分開”

保留額外數據(驗證集),用來優化超參數
>
> > 當你使用驗證集進行超參數優化時,你可能會使用與你用於尋找參數的參數不同的優化器。因此,通常在深度學習的背景下,這個東西總是會是某種變體的梯度下降,我們用來進行這種設置。但是對於超參數設置,你可能會進行暴力網格搜索或基於多臂土匪等相關概念的搜索,或者其他零階優化算法的技術,這將幫助你做到這一點,當然你也可以在某些超參數搜索中使用基於梯度的方法。

所有解決方案:

  • 簡化模型:“減少模型階數”

進一步的複雜性#

  • 優化器可能有自己的參數。例如,學習率

通常,優化器可能有自己的可調節旋鈕。在實踐中,作為一個嘗試進行深度學習的人,你將有離散的選擇來選擇使用哪個優化器。

你會看到兩種微妙不同的觀點。

  • 最基本 / 根本的優化器方法:梯度下降

梯度下降是一種迭代優化方法,你在當地進行改進。

  • 思路:每次改變參數一點點。

你關心的只是你的損失在你所處的參數鄰域中的行為。

所以看看損失在附近的情況。

θt+1=θt+η(θLtrain,θ),Ltrain,θ=1ni=1nltrain(yi,fθ(xi))+R()\theta_{t+1} = \theta_{t} + \eta \left( - \nabla_{\theta} L_{train, \theta} \right), L_{train, \theta} = \frac{1}{n} \sum\limits_{i=1}^{n} l_{train} \left( y_{i}, f_{\theta} \left( x_{i} \right) \right) + R \left( \cdot \right)

這是一個離散時間動態系統

η "步長"/"學習率" \eta \leftarrow \text{ "步長"/"學習率" },這個 η\eta 控制這個系統的穩定性

η\eta 太大,動態變得不穩定(它會振盪)

η\eta 太小,收斂所需的時間太長

Ltrain(θ++Δθ)Ltrain(θ+)+θLtrain"行"θ+ΔθL_{train} \left( \theta_{+} + \Delta\theta \right) \approx L_{train} \left( \theta_{+} \right) + \underbrace{\frac{\partial}{\partial\theta} L_{train}}_{\text{"行"}} \rfloor_{\theta_{+}} \Delta\theta

這個 “行” 的轉置稱為梯度

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。