lzh_multihead
master
用raise代替assert
已修改
这里为啥用ms.ops接口?
可以直接参考https://github.com/pytorch/pytorch/blob/master/test/test_nn.py里的test_multihead_attn_add_zero_attn等用例进行功能完备性测试
补充了test/nn/test_multihead_attention.py里的用例
这个todo是什么功能?
NonDynamicallyQuantizableLinear是torch引入用来规避一个不常见error的,ms没有实现过,直接用普通Linear替代了
如果上面调用的multi_head_attention_forward是mindspore接口,这里的attn_output是mindspore tensor吧?
supportedList里已有
aeae9881d5
No due date set.
This pull request currently doesn't have any dependencies.
Deleting a branch is permanent. It CANNOT be undone. Continue?
[WIP]nn.MultiheadAttentionto nn.MultiheadAttention 2 months ago用raise代替assert
已修改
这里为啥用ms.ops接口?
已修改
可以直接参考https://github.com/pytorch/pytorch/blob/master/test/test_nn.py里的test_multihead_attn_add_zero_attn等用例进行功能完备性测试
补充了test/nn/test_multihead_attention.py里的用例
这个todo是什么功能?
NonDynamicallyQuantizableLinear是torch引入用来规避一个不常见error的,ms没有实现过,直接用普通Linear替代了
如果上面调用的multi_head_attention_forward是mindspore接口,这里的attn_output是mindspore tensor吧?
supportedList里已有

aeae9881d5
.