交叉驗證:修订间差异

求闻百科,共笔求闻
添加的内容 删除的内容
(移除无用链接)
(noteTA 跳过, replaced: 連結 → 链接, 參考文獻 → 参考文献, 開 → 开 (2), 學 → 学 (2), 上將 → 上将, 見 → 见 (3), 來 → 来 (5), 對 → 对 (2), 樣 → 样 (7), 稱 → 称 (4), 為 → 为 (5), 於 → 于 (4), 種 → 种 (2), 數 → 数, 議 → 议, 標 → 标 (2), 訓 → 训 (3), 練 → 练 (3), 實 → 实 (2), 選 → 选 (2), 並 → 并 (2), 後 → 后 (2), 論 → 论, 認 → 认, 統 → 统 (2), 測 → 测, 試 → 试, 過 → 过, 確 → 确, 較 → 较, 個 → 个 (4), 資 → 资 (3), 範 → 范, 當 → 当 (5), 項 → 项, 機 → 机, 計 → 计 (6), 續 → 续 (3), 險 → 险, 環 → 环, 驗 → 验 (14), 證 → 证 (14), 題 → 题, 問 → 问, 時 → 时, 識 → 识, 別 → 别 (2), 則 → 则 (3), 從 → 从, 隨 → 随, 說 → 说 (2…)
第1行: 第1行:
'''交叉验证''',有'''循'''<ref name="Kohavi95">{{cite journal | last = Kohavi | first = Ron | year = 1995 | title = A study of cross-validation and bootstrap for accuracy estimation and model selection | journal = Proceedings of the Fourteenth International Joint Conference on Artificial Intelligence | url = http://citeseer.ist.psu.edu/kohavi95study.html | volume = 2 | issue = 12 | pages = 1137–1143 | access-date = 2008-07-14 | | | }}(Morgan Kaufmann, San Mateo)</ref><ref name="Chang92">Chang, J., Luo, Y., and Su, K. 1992. GPSM: a Generalized Probabilistic Semantic Model for ambiguity resolution. In Proceedings of the 30th Annual Meeting on Association For Computational Linguistics (Newark, Delaware, June 28 - July 02, 1992). Annual Meeting of the ACL. Association for Computational Linguistics, Morristown, NJ, 177-184</ref><ref name="Devijver82">Devijver, P. A., and J. Kittler, Pattern Recognition: A Statistical Approach, Prentice-Hall, London, 1982</ref>,
'''交叉验证''',有'''循'''<ref name="Kohavi95">{{cite journal | last = Kohavi | first = Ron | year = 1995 | title = A study of cross-validation and bootstrap for accuracy estimation and model selection | journal = Proceedings of the Fourteenth International Joint Conference on Artificial Intelligence | url = http://citeseer.ist.psu.edu/kohavi95study.html | volume = 2 | issue = 12 | pages = 1137–1143 | access-date = 2008-07-14 | | | }}(Morgan Kaufmann, San Mateo)</ref><ref name="Chang92">Chang, J., Luo, Y., and Su, K. 1992. GPSM: a Generalized Probabilistic Semantic Model for ambiguity resolution. In Proceedings of the 30th Annual Meeting on Association For Computational Linguistics (Newark, Delaware, June 28 - July 02, 1992). Annual Meeting of the ACL. Association for Computational Linguistics, Morristown, NJ, 177-184</ref><ref name="Devijver82">Devijver, P. A., and J. Kittler, Pattern Recognition: A Statistical Approach, Prentice-Hall, London, 1982</ref>,
是一[[統計學]]上[[数据]][[本]][[集合划分|切割]]成小子集的用方法。是可以先在一子集上做分析,而其它子集後續對此分析的確認驗證。一始的子集被稱為'''訓練集'''。而其它的子集稱為'''驗證集'''或'''測試集'''。交叉验证的目的,是用未用来给模型作训练的新数据,测试模型的性能,以便減少诸如过拟合和选择偏差等問題,并给出模型如何在一个独立的数据集上通用化(即,一个未知的数据集,如实际问题中的数据)。
是一[[统计学]]上[[数据]][[本]][[集合划分|切割]]成小子集的用方法。是可以先在一子集上做分析,而其它子集后续对此分析的确认验证。一始的子集被称为'''训练集'''。而其它的子集称为'''验证集'''或'''测试集'''。交叉验证的目的,是用未用来给模型作训练的新数据,测试模型的性能,以便減少诸如过拟合和选择偏差等问题,并给出模型如何在一个独立的数据集上通用化(即,一个未知的数据集,如实际问题中的数据)。


交叉驗證的理是由{{tsl|en|Seymour Geisser|}}所始的。它對於根据数据建议的测试假设是非常重要的,特當後續的[[本]]是危、成本高或科学上不适合时去搜集。
交叉验证的理是由{{tsl|en|Seymour Geisser|}}所始的。它对于根据数据建议的测试假设是非常重要的,特当后续的[[本]]是危、成本高或科学上不适合时去搜集。


== 交叉验证的使用 ==
== 交叉验证的使用 ==
第8行: 第8行:
交叉验证是一种预测模型拟合性能的方法。
交叉验证是一种预测模型拟合性能的方法。


== 常的交叉驗證形式 ==
== 常的交叉验证形式 ==


=== Holdout 驗證 ===
=== Holdout 验证 ===


識來說,Holdout 驗證並非一交叉驗證,因数据沒有交叉使用。
识来说,Holdout 验证并非一交叉验证,因数据沒有交叉使用。
隨機從最初的本中出部分,形成交叉驗證数据,而剩餘的就訓練数据。
随机从最初的本中出部分,形成交叉验证数据,而剩餘的就训练数据。
一般來說,少原本本三分之一的数据被驗證数据。
一般来说,少原本本三分之一的数据被验证数据。
<ref>{{cite web | title=Tutorial 12 | work=Decision Trees Interactive Tutorial and Resources | url=http://decisiontrees.net/node/36 | accessdate=2006-06-21 | | | }}</ref>
<ref>{{cite web | title=Tutorial 12 | work=Decision Trees Interactive Tutorial and Resources | url=http://decisiontrees.net/node/36 | accessdate=2006-06-21 | | | }}</ref>


第21行: 第21行:
''k''折交叉验证({{lang-en|''k''-fold cross-validation}}),将训练集分割成''k''个子样本,一个单独的子样本被保留作为验证模型的数据,其他''k''&nbsp;−&nbsp;1个样本用来训练。交叉验证重复''k''次,每个子样本验证一次,平均''k''次的结果或者使用其它结合方式,最终得到一个单一估测。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次,10次交叉验证是最常用的。
''k''折交叉验证({{lang-en|''k''-fold cross-validation}}),将训练集分割成''k''个子样本,一个单独的子样本被保留作为验证模型的数据,其他''k''&nbsp;−&nbsp;1个样本用来训练。交叉验证重复''k''次,每个子样本验证一次,平均''k''次的结果或者使用其它结合方式,最终得到一个单一估测。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次,10次交叉验证是最常用的。


=== 留一驗證 ===
=== 留一验证 ===
<!-- This section is linked from [[数据挖掘]] -->
<!-- This section is linked from [[数据挖掘]] -->
正如名所建,留一驗證({{lang-en|leave-one-out cross-validation, LOOCV}})意指只使用原本本中的一項來當驗證資料,而剩餘的留下來當訓練資料。這個步驟一直持到每個樣本都被做一次驗證資料。
正如名所建,留一验证({{lang-en|leave-one-out cross-validation, LOOCV}})意指只使用原本本中的一项来当验证资料,而剩餘的留下来当训练资料。这个步驟一直持到每个样本都被做一次验证资料。
上,等同''k''折交叉验证,其中''k''原本個數。<ref>{{Cite web|url=https://web.stanford.edu/~hastie/ElemStatLearn/|title=Elements of Statistical Learning: data mining, inference, and prediction. 2nd Edition.|website=web.stanford.edu|access-date=2019-04-04|||}}</ref>
上,等同''k''折交叉验证,其中''k''原本个数。<ref>{{Cite web|url=https://web.stanford.edu/~hastie/ElemStatLearn/|title=Elements of Statistical Learning: data mining, inference, and prediction. 2nd Edition.|website=web.stanford.edu|access-date=2019-04-04|||}}</ref>
在某些情況下是存在有效率的演算法,如使用{{tsl|en|kernel regression|}} 和[[吉洪诺夫正则化]]。
在某些情況下是存在有效率的演算法,如使用{{tsl|en|kernel regression|}} 和[[吉洪诺夫正则化]]。


== 差估 ==
== 差估 ==
可以算估計誤差。常差衡量準是[[均方差]]和[[方根均方差]],
可以算估计误差。常差衡量準是[[均方差]]和[[方根均方差]],
別為交叉驗證的[[方差]]和[[準差]]。
别为交叉验证的[[方差]]和[[準差]]。


== 另 ==
== 另 ==
* [[重抽样]]
* [[重抽样]]
* [[提升方法]]
* [[提升方法]]
* [[Bagging算法|引导聚集算法]]
* [[Bagging算法|引导聚集算法]]


== 考文 ==
== 考文 ==
{{reflist|30em}}
{{reflist|30em}}


== 外部連結 ==
== 外部链接 ==
* [https://web.archive.org/web/20090214023159/http://paul.luminos.nl/documents/show_document.php?d=198 Naive Bayes implementation with cross-validation in Visual Basic] (includes executable and source code)
* [https://web.archive.org/web/20090214023159/http://paul.luminos.nl/documents/show_document.php?d=198 Naive Bayes implementation with cross-validation in Visual Basic] (includes executable and source code)
* [https://web.archive.org/web/20081201180042/http://www.cs.technion.ac.il/%7Eronbeg/gcv/index.html A generic k-fold cross-validation implementation] (free open source; includes a distributed version that can utilize multiple computers and in principle can speed up the running time by several orders of magnitude.)
* [https://web.archive.org/web/20081201180042/http://www.cs.technion.ac.il/%7Eronbeg/gcv/index.html A generic k-fold cross-validation implementation] (free open source; includes a distributed version that can utilize multiple computers and in principle can speed up the running time by several orders of magnitude.)


{{統計學}}
{{统计学}}


[[Category:统计检验]]
[[Category:统计检验]]