(笔记)Pytorch 自定义 autograd function

在 Pytorch 中自定义 autograd function时,需要编写 forward 和 backward 函数,其中:

self.save_for_backward()方法用于存储在forward()期间生成的值,会保留input的全部信息(一个完整的外挂Autograd Function的Variable),并提供避免in-place操作导致的input在backward()时被修改的情况,稍后将在执行时需要此值backward()。

在backward()时可以通过self.saved_tensors属性访问forward()期间保存的值。

From:https://blog.csdn.net/jdzwanghao/article/details/80415654


版权声明:本文为qq_40728667原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。