多方搜索,才知出现这个问题是因为内存使用过多导致。我刚开始设置batch_size为5 迭代了137次出现了以上错误信息。按照网上说法将batch_size改为2迭代了3百多次停止。后来干脆设置为1,才没能出现以上错误信息。很是奇怪,觉得batch_size为1或者为2差别不大,应该不是根本原因,而是误打误撞解决了
再行搜索,得知原因是:loss或者网络的输出不断积累导致计算图不断扩张。解决方案:在训练的循环过程中,需要用到loss,则用loss.data[0]
转载于:https://www.cnblogs.com/dreamer123/p/7668234.html