Single

深度学习论文写作中多模型结果比较方法

深度学习,其核心即是通过调整模型中的各种参数来拟合曲面,因此当在解决具体的问题时,随着模型初始化参数的不同、迭代次数的不一样,最终获得的结果通常情况下也是变化的。
以document level级别的情感分类为例,当数据源确定、模型确定后,在每次使用训练集训练模型时,随着模型初始化参数的不也一样、即使是迭代次数、学习率等都相同,在使用测试集进行分类结果验证时,通常得到的分类结果都是不一样的。也许当前的分类结果是85.5%,下一次的分类结果有可能就是85.2%。
分类结果的不确定性会导致在论文写作中做多模型分类结果比较时的困惑—-使用哪个分类结果值进行比较?
从经验来看,当模型确定、配置参数确定、数据集确定的情况下,通常情况可以选择以下三个值进行比较:
1.各个模型的最好值
你可以将各种要比较的模型分别进行100,300,500次的训练和验证,记录每次的准确率,从而选择各个模型的最好的结果及其实验参数进行比较。
2.各个模型的平均值
你也可以多次的训练验证后,取各个模型的平均分类精度作为各个模型比较的标准。
3.模型的平均值和波动幅度
当进行多次的训练和验证,各种模型的分类结果通常是在一定的范围中进行波动,将这些分类结果通过折线图表示出来后选择其中比较稳定的波动范围(去除一些很低或者很高的异常点),然后取其最大和最小的平均数和波动范围作为比较值。

暂无评论

发表评论

相关推荐

暂无相关文章内容!