当前位置:网站首页>MMDetection finetune
MMDetection finetune
2022-08-04 07:01:00 【子燕若水】
https://github.com/open-mmlab/mmdetection/blob/master/docs/zh_cn/tutorials/finetune.md
里面的一些参数含义:
optimizer = dict( # 构造optimizer的配置, 支持PyTorch中所有的优化器,并且参数名称也和PyTorch中提供的一样。
type='SGD', # optimizers的类型, 具体细节请参照https://github.com/open-mmlab/mmdetection/blob/master/mmdet/core/optimizer/default_constructor.py#L13.
lr=0.02, # optimizers的学习率, 请到PyTorch的文档中查看相关参数的具体用法。
momentum=0.9, # SGD优化器的超参数:Momentum
weight_decay=0.0001) # SGD优化器的超参数:Weight decay
optimizer_config = dict( # 构造optimizer hook的配置, 具体细节请参照 https://github.com/open-mmlab/mmcv/blob/master/mmcv/runner/hooks/optimizer.py#L8.
grad_clip=None) # 绝大多少方法都不会使用gradient clip
lr_config = dict( # Learning rate scheduler config used to register LrUpdater hook
policy='step', # The policy of scheduler, also support CosineAnnealing, Cyclic, etc. Refer to details of supported LrUpdater from https://github.com/open-mmlab/mmcv/blob/master/mmcv/runner/hooks/lr_updater.py#L9.
warmup='linear', # warmup的策略, 还支持 `exp` 和 `constant`.
warmup_iters=500, # warmup的迭代次数
warmup_ratio=
0.001, # 用于warmup的起始学习比率
step=[8, 11]) # 学习率进行衰减的step位置
total_epochs = 12 # model训练的总epoch数
checkpoint_config = dict( # 设置checkpoint hook, 具体细节请参照https://github.com/open-mmlab/mmcv/blob/master/mmcv/runner/hooks/checkpoint.py 的实现.
interval=1) # 每隔几个epoch保存一下checkpoint
log_config = dict( # logger文件的配置
interval=50, # 每隔多少个epoch输出一个log文件
hooks=[
# dict(type='TensorboardLoggerHook') # MMDetection支持Tensorboard logger
dict(type='TextLoggerHook')
]) # logger 被用来记录训练过程.
dist_params = dict(backend='nccl') # 设置分布式训练的参数,也可以设置端口。
log_level = 'INFO' # The level of logging.
load_from = None # 给出之前预训练模型checkpoint的路径,这个不会resume training(resume training会按照上次的记录接着训练,而这个参数应该只是导入之前预训练模型参数,重新训练)
resume_from = None # 给出需要Resume 的checkpoints的路径, 它将会接着上次被保存的地方进行训练。
workflow = [('train', 1)] # Workflow for runner. [('train', 1)] means there is only one workflow and the workflow named 'train' is executed once. The workflow trains the model by 12 epochs according to the total_epochs.(这个workflow具体是干什么的我不是很清楚orz)
work_dir = 'work_dir' # 保存模型的文件夹路径(checkpoints和log文件都会保存在其中)。
边栏推荐
猜你喜欢
随机推荐
拒绝碰运气,导师人品这样了解!
【selenium自动化】第四篇,结合testNg
【字符串】最小表示法
ContrstrainLayout的动画之ConstraintSet
函数柯里化详解
LAN技术-3iStack
专题讲座7 计算几何 学习心得
2022爱分析· 银行数字化厂商全景报告
MySQL外键(详解)
Produce definition 产品与行业分析 勤于思考 善于总结 强于表达
app逆向1某联
pycharm专业版使用
微信小程序实现活动倒计时
ERROR 2003 (HY000) Can‘t connect to MySQL server on ‘localhost3306‘ (10061)解决办法
错误记录:TypeError: object() takes no parameters
Redis非关系型数据库
MySQL BIGINT 数据类型
unity3d-Animation&&Animator接口(基本使用)
分布式计算实验2 线程池
LeetCode(剑指 Offer)- 18. 删除链表的节点