PCLNLP Seminar
PCLNLP历次分享活动内容
-
Uncertainty in Deep Learning
分享人: 郭绪涛
哈尔滨工业大学(深圳)在读博士,主要研究方向:医学图像分割,不确定性建模,机器学习等。目前已在会议BIBM等发表多篇相关工作。
分享内容:《Uncertainty in deep learning》
主要介绍深度学习背景下的不确定性以及相应的建模方法。
PPT下载
时间:2022-10-28
-
Diffusion-LM Improves Controllable Text Generation
分享人: 潘囿丞
博士,毕业于哈尔滨工业大学,研究方向为自然语言处理、文本生成,在Applied Intelligence、ICASSP、COLING等期刊和会议上发表多篇学术论文。
分享内容:《Diffusion-LM Improves Controllable Text Generation》
论文提出了一种基于连续扩散的非自回归语言模型,通过对高斯向量进行循环去噪来获得文本序列,该方法在多种可控文本生成任务上验证了有效性。
PPT下载
时间:2022-10-14
-
Composable Sparse Fine-Tuning for Cross-Lingual Transfer
分享人: 朱田恬
哈尔滨工业大学(深圳)在读博士生,主要研究方向:自然语言处理,医学信息学,知识图谱等。目前已在国际会议及期刊IJCAI,JAMIA等发表相关成果。
分享内容:《Composable Sparse Fine-Tuning for Cross-Lingual Transfer》
论文提出了一种新方法来微调预训练模型,它既是模块化的(如适配器)又是表达性的(如稀疏微调)。 该方法基于彩票假设框架下的一种算法变体来寻找最优子网络。
PPT下载
时间:2022-09-23
分享人: 杨博
中山大学博士,目前负责 MindSpore 开源算法库建设及多语言机器翻译工作。
分享内容:《MindSpore迁移经验分享》
结合已迁移算法对NLP算法Pytorch代码往MindSpore迁移时如何选择候选算法、代码迁移的开发流程是什么样、迁移过程中应注意哪些问题、迁移代码如何调试方法等问题进行了详细介绍。
PPT下载
Pytorch模型转MindSpore例子
时间:2022-09-09
分享人: 杨延武
哈尔滨工业大学(深圳)博士生,主要研究方向为磁共振医学影像处理、脑网络图表征学习与泛化。期间率队取得腾讯觅影AI医学影像大赛、MICCAI-QUBIQ等多赛事冠军,世界智能医学大会AD诊断挑战赛第二名等,发表医学影像顶级会议MIDL-2022,神经影像期刊Human Brain Mapping、NeuroImage: clinical等。曾担任JBHI、Front. In. Neuroscience、Neurocomputing等期刊审稿。
分享内容:《Dynamic Graph》
介绍动态图的研究背景,研究现状,以及动态图在点云、电子病例等研究领域的效果。
PPT下载
时间:2022-08-26
-
Causal Representation Learning
分享人: 蒋硕然
哈尔滨工业大学(深圳)在读博士,主要研究方向:基于图神经网络的自然语言推理、因果推理、文本推理的分布外泛化问题、变分推理。目前在国际会议ACL、PAKDD、期刊PRL等发表相关工作。
分享内容:《Causal Representation Learning》
介绍因果推理在机器学习中的应用,以及基于因果推理的神经表示学习。
PPT下载
时间:2022-08-05
-
Element-guided Temporal Graph Representation Learning for Temporal Sets Prediction
分享人: 刘思岑
哈尔滨工业大学(深圳)在读博士,主要研究方向:医疗电子病历数据挖掘,多模态语义分析,机器学习等。目前已在会议ICME、期刊JBI等发表多篇相关工作。
分享内容: WWW2022论文《Element-guided Temporal Graph Representation Learning for Temporal Sets Prediction》
介绍一个做时序集合预测的模型,该模型采用构建用户与元素之间的时序图来建立不同用户的联系,并设计了一种新型的消息聚合机制,最后采用一个时序信息利用模块来捕捉用户行为序列中的时序语义以及周期性规律。
PPT下载
时间:2022-07-22
-
Transformer Quality in linear Time
分享人: 莫羡杰
2021级中国科学院大学~鹏城实验室联培博士生,目前的研究方向主要为:基于预训练模型的多模态表示学习方法和应用。
分享内容:《transformer quality in linear time》
FLASH——Google新出的一个高效Transformer工具,里边将Attention和FFN融合为一个新的GAU层,从而得到了Transformer变体FLASH-Quad,作者还进一步提出了一种“分块混合”线性化方案,得到了具有线性复杂度的FLASH。目前的实验结果显示,不管FLASH-Quad还是FLASH,跟标准Transformer相比都是更快、更省、更好。
PPT下载
时间:2022-07-08