助手标题  
全文文献 工具书 数字 学术定义 翻译助手 学术趋势 更多
查询帮助
意见反馈
   经验误差估计 在 计算机软件及计算机应用 分类中 的翻译结果: 查询用时:0.717秒
图标索引 在分类学科中查询
所有学科
计算机软件及计算机应用
自动化技术
更多类别查询

图标索引 历史查询
 

经验误差估计
相关语句
  empirical error estimate
    For optimizing SVM hyper-parameters,this optimization scheme minimizes an empirical error estimate using a quasi-Newton optimization method on the validation set.
    而拟牛顿算法,可在一个校验集上最小化一个经验误差估计来优化SVM的超参数,使超参数在分类任务中达到最优值,从而取得理想的分类结果。
短句来源
  empirical error estimate
    For optimizing SVM hyper-parameters,this optimization scheme minimizes an empirical error estimate using a quasi-Newton optimization method on the validation set.
    而拟牛顿算法,可在一个校验集上最小化一个经验误差估计来优化SVM的超参数,使超参数在分类任务中达到最优值,从而取得理想的分类结果。
短句来源
查询“经验误差估计”译词为用户自定义的双语例句

    我想查看译文中含有:的双语例句
例句
为了更好的帮助您理解掌握查询词或其译词在地道英语中的实际用法,我们为您准备了出自英文原文的大量英语例句,供您参考。
  empirical error estimate
The advantage of this empirical error estimate is that it is applicable even when some of the factors that contribute to the off-resonance error are not known.
      
  empirical error estimate
The advantage of this empirical error estimate is that it is applicable even when some of the factors that contribute to the off-resonance error are not known.
      


Support vector machines(SVM) are efficient in a large number of real-world applications.However,the classification results highly depend on the parameters of the model.For any SVM classification task,the best values for these parameters are usually picked by experience,experiment compare and large-scale search,or using cross validation providing by software package to optimize.For optimizing SVM hyper-parameters,this optimization scheme minimizes an empirical error estimate using a quasi-Newton optimization...

Support vector machines(SVM) are efficient in a large number of real-world applications.However,the classification results highly depend on the parameters of the model.For any SVM classification task,the best values for these parameters are usually picked by experience,experiment compare and large-scale search,or using cross validation providing by software package to optimize.For optimizing SVM hyper-parameters,this optimization scheme minimizes an empirical error estimate using a quasi-Newton optimization method on the validation set.The method shows satisfactory results in feather and down category recognition.

使用SVM进行分类,超参数的选择非常重要,它直接影响分类的性能。在实际应用中,最优SVM算法参数选择还只能是凭借经验、实验对比、大范围的搜寻或者利用软件包提供的交叉确认功能进行寻优。而拟牛顿算法,可在一个校验集上最小化一个经验误差估计来优化SVM的超参数,使超参数在分类任务中达到最优值,从而取得理想的分类结果。该文对拟牛顿算法进行了探讨,并将其应用在基于SVM的羽绒识别系统中,实验结果表明,该算法是有效的,与未经过超参数优化的SVM分类器相比,羽绒的识别率有了较大提高。

 
图标索引 相关查询

 


 
CNKI小工具
在英文学术搜索中查有关经验误差估计的内容
在知识搜索中查有关经验误差估计的内容
在数字搜索中查有关经验误差估计的内容
在概念知识元中查有关经验误差估计的内容
在学术趋势中查有关经验误差估计的内容
 
 

CNKI主页设CNKI翻译助手为主页 | 收藏CNKI翻译助手 | 广告服务 | 英文学术搜索
版权图标  2008 CNKI-中国知网
京ICP证040431号 互联网出版许可证 新出网证(京)字008号
北京市公安局海淀分局 备案号:110 1081725
版权图标 2008中国知网(cnki) 中国学术期刊(光盘版)电子杂志社