模型评估

                     

贡献者: xzllxls

  • 本词条处于草稿阶段。

   当机器学习算法从某个数据集上学习到一个模型之后,需要评估该模型的好坏,也就是所获得的模型对于数据的拟合程度,此评价过程就称为模型评估

   对于一个数据集而言,通常须要该数据集的一部分用于模型训练,称为训练集(training set),另一部分用于模型评估,称为测试集(test set)。因此,就需要一种划分数据集的方案。划分训练集和测试集的一个重要原则是:测试集要与训练集互斥。也就是说,一条数据样本要么在训练集中,要么在测试集中,不能同时出现在训练集和测试集中。最常用的模型评估方法主要有三种,分别是留出法(Hold-out)、交叉验证(Cross validation)和自助法(Bootstrap)。


致读者: 小时百科一直以来坚持所有内容免费,这导致我们处于严重的亏损状态。 长此以往很可能会最终导致我们不得不选择大量广告以及内容付费等。 因此,我们请求广大读者热心打赏 ,使网站得以健康发展。 如果看到这条信息的每位读者能慷慨打赏 10 元,我们一个星期内就能脱离亏损, 并保证在接下来的一整年里向所有读者继续免费提供优质内容。 但遗憾的是只有不到 1% 的读者愿意捐款, 他们的付出帮助了 99% 的读者免费获取知识, 我们在此表示感谢。

                     

友情链接: 超理论坛 | ©小时科技 保留一切权利