交叉驗證:修订间差异

求闻百科,共笔求闻
添加的内容 删除的内容
→‎参考文献:​清理
(机器人:清理不当的来源、移除无用的模板参数)
 
第15行: 第15行:
随机从最初的样本中选出部分,形成交叉验证数据,而剩餘的就当做训练数据。
随机从最初的样本中选出部分,形成交叉验证数据,而剩餘的就当做训练数据。
一般来说,少于原本样本三分之一的数据被选做验证数据。
一般来说,少于原本样本三分之一的数据被选做验证数据。
<ref>{{cite web | title=Tutorial 12 | work=Decision Trees Interactive Tutorial and Resources | url=http://decisiontrees.net/node/36 | accessdate=2006-06-21 | | | }}</ref>
<ref>{{cite web | title=Tutorial 12 | work=Decision Trees Interactive Tutorial and Resources | url=http://decisiontrees.net/node/36 | accessdate=2006-06-21 }}</ref>


=== ''k''折交叉验证 ===
=== ''k''折交叉验证 ===
第24行: 第24行:
<!-- This section is linked from [[数据挖掘]] -->
<!-- This section is linked from [[数据挖掘]] -->
正如名称所建议,留一验证({{lang-en|leave-one-out cross-validation, LOOCV}})意指只使用原本样本中的一项来当做验证资料,而剩餘的则留下来当做训练资料。这个步驟一直持续到每个样本都被当做一次验证资料。
正如名称所建议,留一验证({{lang-en|leave-one-out cross-validation, LOOCV}})意指只使用原本样本中的一项来当做验证资料,而剩餘的则留下来当做训练资料。这个步驟一直持续到每个样本都被当做一次验证资料。
事实上,这等同于''k''折交叉验证,其中''k''为原本样本个数。<ref>{{Cite web|url=https://web.stanford.edu/~hastie/ElemStatLearn/|title=Elements of Statistical Learning: data mining, inference, and prediction. 2nd Edition.|website=web.stanford.edu|access-date=2019-04-04|||}}</ref>
事实上,这等同于''k''折交叉验证,其中''k''为原本样本个数。<ref>{{Cite web|url=https://web.stanford.edu/~hastie/ElemStatLearn/|title=Elements of Statistical Learning: data mining, inference, and prediction. 2nd Edition.|website=web.stanford.edu|access-date=2019-04-04}}</ref>
在某些情況下是存在有效率的演算法,如使用{{tsl|en|kernel regression|}} 和[[吉洪诺夫正则化]]。
在某些情況下是存在有效率的演算法,如使用{{tsl|en|kernel regression|}} 和[[吉洪诺夫正则化]]。