学术资讯||信息学院研究生谢承志、陈漂洋受邀参加中国计算机学会并作报告
2023/3/8 8:48:26 阅读:179 发布者:
来源:
2022年12月18-20日,由四川大学计算机学院(软件学院)承办,由IEEE、IEEE计算机协会和IEEE TCSC可扩展计算技术委员会支持的中国计算机学会CCF-C类会议the 24th IEEE International Conference on High Performance Computing and Communications (IEEE HPCC-2022)在四川成都举行。我校信息学院院长邓明森教授指导的研究生谢承志和陈飘洋提交论文参会,并受邀作报告。
会议邀请函
会议安排
谢承志报告的论文题为A Few-Shot Image Classification Method Based on Information Entropy for First-Order Gradient Meta-Learning。
谢承志作报告
文章认为,目前传统的基于大规模数据训练的深度学习模型在大量领域取得了重要成果,然而在现实生活中,大量的标注且无污染的数据在大部分领域很难搜集,无法满足训练深度学习模型所需的数据量,此外,即便有大量的数据,为了训练模型,还需要大量的人力来进行数据标注,这会导致训练成本提高。因此,如何让深度学习模型能够从少量的数据中快速学习样本并提高模型的泛化性越来越引起人们的关注。该文在小样本算法Reptile的基础上提出了一种改进的元学习算法RE-Reptile,将信息熵任务无关正则项与一阶梯度元学习算法Reptile相结合,减少了Reptile算法在内循环阶段对小样本任务的过度关注;同时,由于现有的大规模特征提取网络不满足元学习训练范式,该论文提出分组卷积残差网络来作为元学习算法的特征提取网络,参数量相只有同规模网络的1/g(g为卷积的分组个数),减少了神经网络的参数量,更有利于模型在小样本情景下的训练。
实验结果表明,改进的元学习算法和元模型在mini-ImageNet数据集的5-way 1-shot和5-way 5-shot任务上的测试准确率分别比Reptile算法提高了6.3%和5.9%,在CUB-200-2011数据集上分别比Reptile算法提高了13.2%和14.3%,具体实验结果展示如下。
总的来说,该文提出的新算法和新结构为深度学习应用于有限数据领域做出了贡献。
陈飘洋报告的论文题目为The Influence-Maximizing Node Selection Algorithm Based on Local Isolated Centrality in Large-scale networks Implemented by Distributed Graph Computing.
陈漂洋作报告
该文使用公开的大规模社交网络数据集,将分布式并行计算作为工具,研究基于大规模社交网络中的影响力最大化问题。该文主要考虑到顶点之间的影响力重叠问题,提出一种具有较低复杂度的算法LIC(Local Isolated Centrality)。这一算法能契合如今主流的分布式图计算引擎,该工作将LIC在分布式图计算引擎Gemini上实现的同时测试了算法的性能和扩展性。实验结果表明,该方法具有较低复杂度易于并行加速的同时在扩散速度上优于DC、LC、K-shell、H-index和VoteRank等算法。
谢承志和陈漂洋的论文已被CCFC会议收录,将在相关会议论文集上发表。
来源:贵州财经大学“学术立校”办公室
转自:“贵财学术之声”微信公众号
如有侵权,请联系本站删除!