Deleting a branch is permanent. It CANNOT be undone. Continue?
Deleting a branch is permanent. It CANNOT be undone. Continue?
Dear OpenI User
Thank you for your continuous support to the Openl Qizhi Community AI Collaboration Platform. In order to protect your usage rights and ensure network security, we updated the Openl Qizhi Community AI Collaboration Platform Usage Agreement in January 2024. The updated agreement specifies that users are prohibited from using intranet penetration tools. After you click "Agree and continue", you can continue to use our services. Thank you for your cooperation and understanding.
For more agreement content, please refer to the《Openl Qizhi Community AI Collaboration Platform Usage Agreement》
autograd_v3to [WIP]autograd_v3 10 months ago如果没有配置 'ENABLE_BACKWARD', 'ENABLE_BACKWARD'是一个None值, 所以_BACKWARD_ENV != "0" 为真, 会默认使能。
当前这个代码是默认使能,方便验证
[WIP]autograd_v3to autograd_v3 10 months ago说明一下开关不打开的时候用mindspore的微分方案适配,给个链接
done
环境变量配置可以写在约束条件里面
done
重复代码,可以放到_out_assign_with_output公共函数里面去;另外图模式也不需要这些操作,统一放到_out_assign_with_output的pynative模式下
done
修改后对功能有没有影响?后续的parameter的赋值涉及到shape的变化,当前框架多次变更shape的parameter存在bug
该修改影响Lazy类接口确定shape前param的shape,但是一般不会去使用lazy状态下的param主要起占位作用。对实际场景影响较小,原本写法是空tensor的param转为具体shape的param,当前写法是(1,1)shape的param,转为具体shape的param,都涉及变更param的shape。多次变更shape的parameter的bug目前未识别
这个往后放的原因是什么?之前放前面是图模式下部分场景需要
只是为了属性赋值位置统一,目前没有识别到对图模式的影响。已改回去。
parameter.grad 现在是在哪一层定义?
parameter.grad 继承的tensor.grad函数。不过param._grad定义在parameter内
现在grad是挂在tensor上面,还是stubtensor上面?两个都会挂?
当前两个都会挂
如果没开开关,或者图模式下调用这个接口,预期是返回None还是会报错?
预期返回None
后面要验一下这个判断对性能的影响,backward会在每个step调用一次
好的
这个gradient如果直接给到框架C++处理,这里理论上可以不用做cast转换
done
zero_grad功能如果现在不支持,nn.Module.zero_grad接口的支持状态要同步刷新
这个适配在pr #890,等下个pr合入的时候这个用例就可以放开了
no_grad功能在新微分方案下是否可以正常使用?
不可兼容,当前no_grad 和 enable_grad均无法使能新微分方案,用例先注释
原来用例为什么也不能跑了?
可以跑,本来计划可以快速修复,所以就先注释,先已改回
同上,新增用例注释掉了,为什么原来用例不保留?
zero_grad 在#890已适配,在那个pr打开验证
原来用例为什么不能过了?
zero_grad 在#890已适配,在那个pr打开验证
2505e34fc8
.