当前位置: 首页 > news >正文

建设本地网站关键词竞价排名

建设本地网站,关键词竞价排名,什么网站做h5不收费,荥阳做网站推广修改自:https://zhuanlan.zhihu.com/p/532511514我在刚接触pytorch的时候搜到了这个大佬的文章,当时最后天坑部分没有看的太明白,直到今天我也遇到的相同的问题,特来做一点点补充,方便大家理解。上述大佬文章的简版内容…

修改自:https://zhuanlan.zhihu.com/p/532511514

我在刚接触pytorch的时候搜到了这个大佬的文章,当时最后天坑部分没有看的太明白,直到今天我也遇到的相同的问题,特来做一点点补充,方便大家理解。

上述大佬文章的简版内容:

  1. 入门版本

Pytorch复现的入门版本就是官方指南,需要设定好各种随机种子。

https://pytorch.org/docs/stable/notes/randomness.html

import random
import numpy as np
import torchrandom.seed(0)  # Python 随机种子
np.random.seed(0)  # Numpy 随机种子
torch.manual_seed(0)  # Pytorch 随机种子
torch.cuda.manual_seed(0)  # CUDA 随机种子
torch.cuda.manual_seed_all(0)  # CUDA 随机种子

2. Dataloader的并行

DataLoader启用多线程时(并行的线程数num_workers 大于1)也会出现随机现象,解决办法:

1. 禁用多线程:num_workers 设置为0。

2. 固定好worker的初始化方式,代码如下:

def seed_worker(worker_id):worker_seed = torch.initial_seed() % 2 ** 32numpy.random.seed(worker_seed)random.seed(worker_seed)g = torch.Generator()g.manual_seed(0)DataLoader(train_dataset,batch_size=batch_size,num_workers=num_workers,worker_init_fn=seed_worker,generator=g,)

3:算法的随机性

有些并行算法带有随机性,比如LSTM或者注意力机制,RNN等。

尤其是使用 CUDA Toolkit 10.2 或更高版本构建 cuDNN 库时,cuBLAS 库中新的缓冲区管理和启发式算法会带来随机性。在默认配置中使用两种缓冲区大小(16 KB 和 4 MB)时会发生这种情况。

解决办法就是在代码头部设置环境变量:

os.environ['CUBLAS_WORKSPACE_CONFIG'] = ':4096:8'

如果是用到CNN的算法,同时要设置以下变量:

torch.backends.cudnn.benchmark = False  # 限制cuDNN算法选择的不确定性
torch.backends.cudnn.deterministic=True  # 固定cuDNN算法

设置完这些,基本99%的情况下都可以复现结果,如果无法复现,那就重启notebook 或者python。

天坑:for 循环内随机性

如果在一个for 循环内多次运行pytorch训练,就会出现随机性。

以下常见方式均无效

  • 强制每次train之前empty_cache;

  • 每次循环结束后,手动del 变量,并且用gc 回收;

  • 强制初始化模型的参数;

  • 强制设置set_rng_state;(https://discuss.pytorch.org/t/manual-seed-cannot-make-dropout-deterministic-on-cuda-for-pytorch-1-0-preview-version/27281/8)

  • 重启python文件和notebook;

知乎大佬的解决方案:

  1. 上面的随机种子设置最好在for 循环里面设置,否则可能白瞎。

  1. nn模型里面的dropout 在for 循环里面有随机性。解决办法是禁掉dropout或者显式的调用Dropout。

对于该天坑,本文作者的实验结果:

调用一次Dataloader就会影响下一个Dataloader的随机数生成。

解释:例如现在有两种模型的训练方式:

  1. 在train后面继续进行下一个Epoch的train。

  1. train后面进行val,再进行下一个Epoch的train。

这两种方式得到的训练结果从第二个Epoch开始就是不同的,且val前后模型的weights没变,那应该就是生成的随机数变了。因此,应该就是调用一次Dataloader就会有新的随机数。

总结

以上就是Pytorch代码的复现终极指南,保险起见的话,先把能加的都加上,然后看能否复现。

之后如果有强迫症的话,可以做减法,逐个筛检,直到保留必要的代码。

愿天下太平,代码无坑

http://www.ritt.cn/news/18428.html

相关文章:

  • 基础建设期刊在哪个网站可以查百度指数网址是多少
  • 潍坊网站建设价格百度搜索引擎优化的推广计划
  • 网站建设公司的网销好做吗百度推广有用吗
  • ie打不开建设企业网站企业文化的重要性和意义
  • 邮件服务器是不是网站服务器推广普通话内容
  • 门户网站建设招标网站模板购买
  • 上街做网站谷歌浏览器2021最新版
  • 网站做权重的方法广州seo外包
  • 可以通过哪些网站注册域名常州seo招聘
  • 阿里云ecs服务器怎么建设网站视频营销模式有哪些
  • 重庆网站维护制作百度网盘客服电话人工服务
  • 乌鲁木齐网站制作网络游戏推广公司
  • 网站开发技术助理要求seo排名优化教学
  • 湘潭做网站价格 d磐石网络搜狗站长平台验证不了
  • 广西人才网官方网站新产品宣传推广策划方案
  • 网站提供的服务网络开发
  • 天津高端模板建站营销推广内容
  • qq强制聊天网站源码软文发布公司
  • 如何推广自己网站网络推广工具
  • 大连哪家公司做网站深圳seo关键词优化
  • 网站后台管理系统模板seo是什么意思 职业
  • 柳市外贸网站建设网络推广怎么学
  • 大冶市规划建设局网站百度代发收录
  • 做阀门的网站中小企业网站优化
  • 做网站交互下拉关键词排名
  • 百度批量查询工具系统优化软件哪个最好的
  • 套路网站怎么做的广告优化师怎么学
  • 外贸营销网站推广在线生成个人网站app
  • 网站开发前端和后端的区别郑州seo代理商
  • php动态网站开发教程前言电商数据网站