前にL1-Normの劣微分
について書いたが,間違っていたので修正.
[1]のPointwise maximumの項に書いてあるテクニックを使う.として,を以下のように表す(結構感動的).
に対して,となったとする.この時,は以下のようになる.
のsubgradientをとすると,である.最後に,である.
参考:
Written with StackEdit.
前にL1-Normの劣微分
について書いたが,間違っていたので修正.
[1]のPointwise maximumの項に書いてあるテクニックを使う.x∈Rdとして,∥x∥1を以下のように表す(結構感動的).
f(x)=∥x∥1=max{sTx∣s∈{−1,1}d}
xに対して,∥x∥1=sTxとなったとする.この時,sは以下のようになる.
sj=⎩⎨⎧1−1−1 or 1(xj>0)(xj<0)(xj=0)
sTxのsubgradientをgとすると,g∈∂f(x)である.最後に,g=sである.
参考:
Written with StackEdit.
機械学習の問題設定 機械学習の問題設定を見直したのでメモ. ( Ω , F , P ) (\Omega, \mathcal{F}, P) ( Ω , F , P ) : ベースとなる確率空間 ( X , F X ) (\mathcal...
0 件のコメント:
コメントを投稿