分類問題之損失函數:修订间差异

求闻百科,共笔求闻
添加的内容 删除的内容
(机器人:清理不当的来源、移除无用的模板参数)
(机器人:清理不当的来源、移除无用的模板参数)
 
第3行: 第3行:
[[File:Loss function surrogates.svg|thumb|各种代理损失函数的曲线。蓝色为0–1指示函数,绿色为平方损失函数,紫色为铰链损失函数,黄色为逻辑损失函数。注意所有代理损失函数对{{math|''y''{{=}}''f''(''x''{{=}} 0) }}均给出1的惩罚。]]
[[File:Loss function surrogates.svg|thumb|各种代理损失函数的曲线。蓝色为0–1指示函数,绿色为平方损失函数,紫色为铰链损失函数,黄色为逻辑损失函数。注意所有代理损失函数对{{math|''y''{{=}}''f''(''x''{{=}} 0) }}均给出1的惩罚。]]


在[[機器學習]]和[[最佳化]]領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別。將一個向量空間<math>X</math>做為所有的輸入值,而向量空間<math>Y=\{-1, 1\}</math>做為所有的輸出值。我们希望能夠找到最佳的公式<math>f: X\rightarrow\Re</math>將<math>\vec{x}</math>映射到<math>y</math><ref name="penn">{{Citation | last= Shen | first= Yi | title= Loss Functions For Binary Classification and Class Probability Estimation | publisher= University of Pennsylvania | year= 2005 | url= http://stat.wharton.upenn.edu/~buja/PAPERS/yi-shen-dissertation.pdf | accessdate= 6 December 2014 | | | }}</ref>。然而,由于信息不完整、雜訊、计算過程中的非确定性模块等因素,有可能會有相同的輸入值<math>\vec{x}</math>映射到不同的輸出值<math>y</math><ref name="mitlec">{{Citation | last= Rosasco | first= Lorenzo | last2= Poggio | first2= Tomaso | title= A Regularization Tour of Machine Learning | series= MIT-9.520 Lectures Notes | volume= Manuscript | year= 2014}}</ref>。因此,這個學習過程的目的就是要最小化預期風險(更详细的介绍参见[[统计学习理论]]),預期風險之定義為:
在[[機器學習]]和[[最佳化]]領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別。將一個向量空間<math>X</math>做為所有的輸入值,而向量空間<math>Y=\{-1, 1\}</math>做為所有的輸出值。我们希望能夠找到最佳的公式<math>f: X\rightarrow\Re</math>將<math>\vec{x}</math>映射到<math>y</math><ref name="penn">{{Citation | last= Shen | first= Yi | title= Loss Functions For Binary Classification and Class Probability Estimation | publisher= University of Pennsylvania | year= 2005 | url= http://stat.wharton.upenn.edu/~buja/PAPERS/yi-shen-dissertation.pdf | accessdate= 6 December 2014 }}</ref>。然而,由于信息不完整、雜訊、计算過程中的非确定性模块等因素,有可能會有相同的輸入值<math>\vec{x}</math>映射到不同的輸出值<math>y</math><ref name="mitlec">{{Citation | last= Rosasco | first= Lorenzo | last2= Poggio | first2= Tomaso | title= A Regularization Tour of Machine Learning | series= MIT-9.520 Lectures Notes | volume= Manuscript | year= 2014}}</ref>。因此,這個學習過程的目的就是要最小化預期風險(更详细的介绍参见[[统计学习理论]]),預期風險之定義為:


:<math>I[f]=\textstyle \int_{X \times Y}^{} \displaystyle V(f(\vec{x},y))p(\vec{x},y)d\vec{x}dy</math>
:<math>I[f]=\textstyle \int_{X \times Y}^{} \displaystyle V(f(\vec{x},y))p(\vec{x},y)d\vec{x}dy</math>