POS机参数更新方法有哪些(pos机参数更新方法是什么)、本站经过数据分析整理出pos机参数更新方法有哪些(pos机参数更新方法是什么)相关信息,仅供参考!
背景
典型的机器学习工作流是数据处理、特征处理、模型训练和评估的迭代循环。想象一下,我们必须测试数据处理方法、模型算法和超参数的不同组合,直到获得满意的模型性能。这项耗时费力的任务通常在超参数优化期间执行。
超参数优化
超参数优化的目标是找到最佳模型管道组件及其关联的超参数。让我们假设一个简单的模型管道,它有两个管道组件:一个输入和一个随机森林分类器。
输入步骤有一个超级参数叫做“策略”,它决定了如何执行输入,比如使用平均值、中值或众数。随机森林分类器有一个超级参数叫做“深度”,它决定了森林中单个决策树的最大深度。我们的目标是找出跨模型管道组件的超参数的哪种组合可以提供最好的结果。超参数优化的两种常用方法是网格搜索或随机搜索。
网格搜索
对于每个超参数,我们生成一个可能值的列表,并尝试所有可能的值组合。在我们的简单示例中,我们有3种输入策略和3种不同的随机森林分类器深度可供尝试,因此总共有9种不同的组合。
随机搜索
在随机搜索中,我们定义了每个超参数的范围和选择,并在这些范围内随机选择一个超参数集。在我们这个简单的例子中,深度范围在2到6之间,输入策略的选择是平均、中值或模式。
网格和随机搜索中的超参数集是彼此独立选择的。这两种方法都没有使用之前的训练和评估测试的结果来改进下一次测试的结果。更有效的超参数优化方法是利用之前实验的结果来改进下一次实验的超参数选择。这种方法用于贝叶斯优化。
贝叶斯优化
贝叶斯优化存储先前搜索的超参数和预定义目标函数的结果(例如二叉交叉熵损失),并使用它来创建代理模型。代理模型的目的是在给定一组特定的候选超参数的情况下,快速估计实际模型的性能。这使我们能够决定是否应该使用一组候选超参数来训练实际模型。随着试验次数的增加,替代模型(用额外的试验结果更新)将得到改进,更好的候选超参数将被推荐。#p#分页标题#e#
在贝叶斯优化为下一次测试推荐好的候选超参数之前,需要测试数据来建立代理模型,所以存在冷启动问题。模型建立之初没有历史实验可以借鉴,所以候选超参数是随机选取的,导致寻找性能好的超参数时启动慢。
为了克服冷启动的问题,开源AutoML库Auto-Sklearn通过一个称为元学习的过程将热启动集成到贝叶斯优化中,以获得比随机更好的超参数实例化。
自动学习
AutoML是在机器学习管道中自动执行数据预处理、特征预处理、超参数优化、模型选择和评估等任务的过程。Auto-Sklearn使用流行的Scikit-Learn机器学习框架来自动化上述任务。下图显示了自动学习的工作原理。
Auto-Sklearn使用贝叶斯优化和热启动(元学习)来寻找最佳的模型管道,并最终从单个模型管道构建集成。让我们来看看Auto-Sklearn框架中的不同组件。
元学习
元学习的目的是为贝叶斯优化找到一个好的超参数实例化,使其在开始时的表现优于随机。元学习背后的理论非常简单:具有相似元特征的数据集在同一组超参数上表现相似。Auto-Sklearn的作者定义的元特征是“它可以有效地计算数据集的特征,并帮助确定在新数据集上使用哪种算法”。
在离线训练过程中,我们列出了140个OpenML参考数据集的偏度、峰度、特征数和类别数等38个元特征。对每个参考数据集进行贝叶斯优化训练,并对训练结果进行评估。为每个参考数据集提供最佳结果的超参数被存储为具有相似元特征的新数据集的贝叶斯优化器的示例。
训练新数据集时更新pos机参数的方法,列出新数据集的元特征,根据元特征空间中新数据集的L1距离对参考数据集进行排序。存储最接近参考数据集的前25个超参数,用于实例化贝叶斯优化器。
更多关于pos机参数更新方法有哪些(pos机参数更新方法是什么)的请关注本站。















