Stability AI 以其 Stable Diffusion 文本生成图像模型而闻名,但这并不是其感兴趣的唯一领域,该公司现在也开始涉足代码生成领域。今天,Stability AI 发布了其新的开放大型语言模型(LLM)StableCode ,该模型旨在帮助用户生成编程语言代码,基于 transformer 神经网络打造 。
StableCode 将提供三个不同级别:一个基础模型用于一般用途,一个指令模型,以及一个能够支持多达 16,000 个词元(token)的长上下文窗口模型。
StableCode 模型受益于开源 BigCode 项目的初始编程语言数据集,同时还经过了 Stability AI 的额外过滤和微调,StableCode 将首先支持 Python、Go、Java、Java、C、markdown 和 C 等编程语言的开发。
训练任何 LLM 都依赖于数据,StableCode 的数据来自 BigCode 项目。
HuggingFace 和 ServiceNow 在 5 月份也曾推出了基于 BigCode 的开放 StarCoder LLM。Stability AI 的首席研究科学家 Nathan Cooper 称,StableCode 的训练涉及了对 BigCode 数据进行大量的过滤和清理。
StableCode 的长上下文窗口版本具有 16,000 个词元的上下文窗口,Stability AI 声称比任何其他模型都要大,更长的上下文窗口使得可以使用更专业和复杂的代码生成提示,还意味着用户可以让 StableCode 查看一个包含多个文件的中等大小的代码库,以帮助理解和生成新代码。
StableCode 目前还处于早期阶段,现在官方的目标是看看开发者会如何接受和使用该模型。
声明:本文内容采编自互联网,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请点击举报,一经查实,本站将立刻删除。