• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

Pytorchtorch.nn.LeakyReLU()

武飞扬头像
海轰Pro
帮助1

学新通

简介

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C 选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 多做笔记 多敲代码 多思考 学好英语!
 
唯有努力💪
 
本文仅记录自己感兴趣的内容

torch.nn.LeakyReLU()

语法

torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)

作用

构建一个LeakyReLU函数,明确此函数中的一些参数

参数

  • negative_slope:x为负数时的需要的一个系数,控制负斜率的角度。默认值:1e-2
  • inplace:可以选择就地执行操作。默认值:False

学新通

举例

m = nn.LeakyReLU(0.1) # 构建LeakyReLU函数
input = torch.randn(2) # 输入
output = m(input) # 对输入应用LeakyReLU函数

print(input)
print(output)

学新通


参数inplace为True时

学新通

学新通

相当于 x < 0 x<0 x<0,LeakyReLU(x) = x (与大于0时一致了,输入是啥,输出就是啥)

参考

  • https://pytorch.org/docs/stable/generated/torch.nn.LeakyReLU.html#torch.nn.LeakyReLU

结语

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

学新通

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgcgcef
系列文章
更多 icon
同类精品
更多 icon
继续加载