Erpim 07974b7af3 | 5 months ago | |
---|---|---|
example/distributed | 6 months ago | |
official | 5 months ago | |
research | 10 months ago | |
tools | 10 months ago | |
.gitignore | 1 year ago | |
README.md | 8 months ago |
MSAdapterModelZoo 存放 MSAdapter 已适配的PyTorch网络结构。
MSAdapter是MindSpore适配PyTorch接口的工具,其目的是在不改变原有PyTorch用户的使用习惯情况下,使得PyTorch代码能在昇腾上获得高效性能。
MSAdapterModelZoo
├── official # official下放置MSAdapter适配的Torch-Code-Style可直接训练模型代码;
│ ├── cv # 机器视觉领域模型;
│ ├── nlp # 自然语言处理领域模型;
│ ├── recommend # 推荐领域模型;
├── research # research下放置MSAdapter适配的Torch-Code-Style可推理模型代码;
│ ├── cv # 机器视觉领域模型;
│ ├── nlp # 自然语言处理领域模型;
│ ├── audio # 音频领域模型;
├── example # example下放置MSAdapte适配的不同功能场景下的样例;
│ ├── distributed # 分布式并行训练样例;
└── README.md
official/
目录下放置MSAdapter适配的Torch-Code-Style可训练模型代码。
模型示例通用命名规则如下:
XX_torch/
或 XX_torch.py
是算法的Torch官方代码或者Github上高星项目源码。
XX_adapter/
或 XX_adapter.py
是适配后可以调用MindSpore框架在Ascend/GPU/CPU上train/eval的代码。
领域 | 子领域 | 网络 | Ascend | GPU | CPU |
---|---|---|---|---|---|
图像 | 图像分类 | alexnet | 支持 | 支持 | 支持 |
图像 | 图像分类 | mobilenet v2 | 支持 | 支持 | 支持 |
图像 | 图像分类 | tinydarknet | 支持 | 支持 | 支持 |
图像 | 图像分类 | resnet50 | 支持 | 支持 | 支持 |
图像 | 目标检测 | darknet53 | 支持 | 支持 | 支持 |
图像 | 目标检测 | ssd-vgg16 | 支持 | 支持 | 支持 |
图像 | 目标检测 | ssd_mobilenet | 支持 | 支持 | 支持 |
图像 | 语义分割 | unet2d | 支持 | 支持 | 支持 |
图像 | 语义分割 | unet3d | 支持 | 支持 | 支持 |
点云 | 质量评价 | PQA-Net | 支持 | 支持 | 支持 |
视频 | 视频分类 | C3D | 支持 | 支持 | 支持 |
视频 | 视频分类 | R3d | 支持 | 支持 | 支持 |
视频 | 视频分类 | R(2+1)D | 支持 | 支持 | 支持 |
文本 | 自然语言理解 | bert_base | 支持 | 支持 | 支持 |
文本 | 自然语言理解 | bert_squad | 支持 | 支持 | 支持 |
文本 | 自然语言理解 | gpt | 支持 | 支持 | 支持 |
文本 | 情绪分类 | lstm | 支持 | 支持 | 支持 |
推荐 | 点击率预测 | deepfm | 支持 | 支持 | 支持 |
research/
内放置MSAdapter适配的Torch-Code-Style可推理模型代码。
领域 | 子领域 | 网络 |
---|---|---|
图像 | 图像去噪 | brdnet |
图像 | 语义分割 | deeplabv3 |
图像 | 深度估计 | depthnet |
图像 | 图像分类 | efficientnet |
图像 | 目标检测 | FasterRCNN_VGG16 |
图像 | 目标检测 | FasterRCNN_ResNet50 |
图像 | 目标检测 | FasterRCNN_ResNet101 |
图像 | 目标检测 | FasterRCNN_ResNet152 |
图像 | 语义分割 | FCN8s |
图像 | 语义分割 | FCN16s |
图像 | 语义分割 | FCN32s |
图像 | 关键点检测 | openpose |
图像 | 姿态估计 | pvnet |
图像 | 目标检测 | retinanet |
图像 | 图像分类 | densenet121 |
图像 | 图像分类 | densenet161 |
图像 | 图像分类 | densenet169 |
图像 | 图像分类 | densenet201 |
图像 | 图像分类 | dpn |
图像 | 图像分类 | googlenet |
图像 | 图像分类 | inceptionv3 |
图像 | 图像分类 | inceptionv4 |
图像 | 图像分类 | inception_resnetv2 |
图像 | 图像分类 | lenet |
图像 | 图像分类 | mobilenetv1 |
图像 | 图像分类 | mobilenetv2 |
图像 | 图像分类 | nasnet |
图像 | 图像分类 | wideresnet |
图像 | 图像分类 | seresnet18 |
图像 | 图像分类 | seresnet34 |
图像 | 图像分类 | seresnet50 |
图像 | 图像分类 | seresnet101 |
图像 | 图像分类 | seresnet152 |
图像 | 图像分类 | preactresnet18 |
图像 | 图像分类 | preactresnet50 |
图像 | 图像分类 | preactresnet101 |
图像 | 图像分类 | preactresnet134 |
图像 | 图像分类 | preactresnet152 |
图像 | 图像分类 | resnet18 |
图像 | 图像分类 | resnet34 |
图像 | 图像分类 | resnet50 |
图像 | 图像分类 | resnet101 |
图像 | 图像分类 | resnet152 |
图像 | 图像分类 | resnext50 |
图像 | 图像分类 | resnext101 |
图像 | 图像分类 | resnext152 |
图像 | 图像分类 | shufflenetv1 |
图像 | 图像分类 | shufflenetv2 |
图像 | 图像分类 | squeezenet |
图像 | 图像分类 | attention56 |
图像 | 图像分类 | attention92 |
图像 | 图像分类 | vgg11 |
图像 | 图像分类 | vgg13 |
图像 | 图像分类 | vgg16 |
图像 | 图像分类 | vgg19 |
图像 | 图像分类 | vit |
图像 | 图像分类 | xception |
文本 | 自然语言理解 | transformer |
音频 | 智能外呼 | conformer |
MSAdapter版本 | ModelZoo commit_id |
---|---|
release_0.1 | c2a3bd3028 |
release_0.2 | a7bd0ef1c0 |
master | master |
注:ModelZoo master分支已适配MSAdapter最新master分支。MSAdapter中间版本导入包名进行过变更,ModelZoo中间版本(git checkout 0c41e4a764
),需配合MSAdapter中间版本(git checkout da13b6719c)之前的版本使用,否则可能产生导入包失败等报错。
No Description
Jupyter Notebook Text Python C++ Shell other
Dear OpenI User
Thank you for your continuous support to the Openl Qizhi Community AI Collaboration Platform. In order to protect your usage rights and ensure network security, we updated the Openl Qizhi Community AI Collaboration Platform Usage Agreement in January 2024. The updated agreement specifies that users are prohibited from using intranet penetration tools. After you click "Agree and continue", you can continue to use our services. Thank you for your cooperation and understanding.
For more agreement content, please refer to the《Openl Qizhi Community AI Collaboration Platform Usage Agreement》