PINN笔记:NaN的原因 Learning RateReLU:当确定并非Learning Rate问题后,可查看是否是activation函数的问题,比如应用LeakyReLU。Softmax:注意不要在此时除以0,除此以外,如果传入刀Softmax的数值过大也可能导致NaN的出现,可将数组以最大值shift至0,在matlab中的操作为softmax(lay1 - max(lay1))。