C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少将

注册:2015-1-2873
发表于 2024-5-16 15:01:37 |显示全部楼层
站长之家(ChinaZ.com)5月16日 消息:UIUC与BigCode组织的研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显著突破。这款模型成功超越了CodeLlama-70B-Instruct,登上了代码生成性能榜单之巅。

StarCoder2-15B-Instruct的独特之处在于其纯自对齐策略,整个训练流程公开透明,且完全自主可控。通过自我生成数千个指令-响应对,直接对StarCoder-15B基座模型进行微调,无需依赖昂贵的人工标注数据,也无需从商业大模型中获取数据,避免了潜在的版权问题。

亚星游戏官网-yaxin222

在HumanEval测试中,StarCoder2-15B-Instruct以72.6%的Pass@1成绩脱颖而出,较CodeLlama-70B-Instruct的72.0%有所提升。在LiveCodeBench数据集的评估中,这一自对齐模型的表现甚至超越了基于GPT-4生成数据训练的同类模型,证明了通过自身数据训练的大模型同样能够有效地学习如何与人类偏好对齐。

StarCoder2-15B-Instruct的数据生成流程主要包括种子代码片段的采集、多样化指令的生成和高质量响应的生成三个核心步骤。种子代码片段的采集是通过从开源代码片段中选取高质量、多样化的种子函数开始的。然后,基于这些种子函数的不同编程概念,StarCoder2-15B-Instruct能够创建出多样化且真实的代码指令。最后,通过自我验证的方式确保生成的响应是准确且高质量的。

亚星游戏官网-yaxin222

StarCoder2-15B-Instruct在备受瞩目的EvalPlus基准测试中表现出色,超越了规模更大的Grok-1Command-R+和DBRX,并与Snowflake Arctic480B和Mixtral-8x22B-Instruct等业界翘楚性能相当。此外,在LiveCodeBench和DS-1000等评估平台上也展现出了强大的实力。
该项目的成功实施得到了美国东北大学Arjun Guha课题组、加州大学伯克利分校、ServiceNow和Hugging Face等机构的鼎力支撑。

StarCoder2-15B-Instruct-v0.1的发布标志着研究者们在代码模型自我调优领域迈出了重要一步。这款模型的成功实践展示了通过自我调优同样能够构建出性能卓越的代码模型。同时,该模型的开源数据集和训练流程为未来该领域的研究和发展奠定了坚实的基础。

模型地址:https://huggingface.co/bigcode/starcoder2-15b-instruct-v0.1

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-9-22 16:34 , Processed in 0.125181 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图