【微调打榜内测】【书生】端侧小模型论文分类微调练习打榜赛

[复制链接]
13 0

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 zhangjinnan 于 2025-5-9 12:01 编辑


练习赛内测

练习赛内测

在智算大语言模型蓬勃发展的浪潮中,书生・浦语(InternLM)脱颖而出。书生・浦语凭借出色的知识掌握、阅读理解、数学推理、多语翻译能力,在多个测试任务中成绩斐然,尤其在综合性考试中表现突出,在多项中文考试里超越了 ChatGPT 的成绩。其后续版本不断迭代升级,在数理、代码、对话、创作等各方面都取得长足进步,综合性能达到同量级开源模型的领先水平。
此次书生・浦语(internlm)端侧小模型论文分类微调练习打榜赛,为进一步挖掘书生・浦语在特定领域的应用潜力搭建了舞台。比赛将使用具有丰富学术资源的 arxiv 数据集,该数据集涵盖物理学、数学、计算机科学、定量生物学、定量金融等多个学科领域的海量论文。arxiv 作为全球知名的预印本论文平台,论文更新速度快,涵盖前沿研究成果,能为模型训练提供多元且专业的学术数据。同时,比赛还引入了采集的arixv数据(包括尖米近半年挂的两篇水文),这些数据来源广泛,与原 arxiv 数据集形成互补,进一步丰富了数据的多样性与全面性,确保模型在更广泛的论文样本上进行训练,提升对不同风格、主题论文的分类能力。
在模型使用方面,参赛者需使用 InternLM 系列模型进行微调。参赛者应依据比赛提供的数据特点,结合自身对模型的理解与技术能力,选择合适的 InternLM 系列模型版本开展微调工作,严格遵循相关的技术规范和道德准则,以确保模型在论文分类任务中的稳定性和可靠性。

内测文档链接:https://aicarrier.feishu.cn/wiki/I5ywwN1ZZi5m1pk5fhKcGL0Dn0j

沐曦算力
前 5 位使用沐曦算力微调 InternLM3-8B、InternLM2.5-7B 或者 InternLM2.5-1.8B 任何一模型超过其基线,并提交详细可复现文档,获得一个沐曦移动电源及 100 小时沐曦算力券(有效期到 6 月 30 日)




您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

©沐曦 沪ICP备2020031767号-1
快速回复 返回顶部 返回列表