大语言模型新时代:稳定AI推出开源语言模型-StableLM

发布时间:2024-06-26 19:06:29 浏览量:204次

大语言模型新时代:稳定AI推出开源语言模型-StableLM

近日,稳定AI宣布推出他们的第一个大语言模型——StableLM。这个模型是开源的,已经可以在GitHub上找到。模型从3B和7B参数版本开始,未来还会推出15B到65B的版本。此外,稳定AI还发布了用于研究的RLHF微调模型。

实测体验

现在,你可以在Hugging Face上体验StableLM微调聊天模型的demo。

StableLM能做到什么程度?

StableLM可以生成复杂且略显荒谬的食谱,或者创作神经网络与符号人工智能的史诗级对决,甚至可以生成「吉祥话邮件」和C语言代码来计算生命的意义。

在一些测试中,StableLM表现优异,但也存在一定的语义模糊。虽然不及前辈ChatGPT,但也算得上一款不错的模型。

StableLM的主要用途包括系统工程和体系结构的决策支持系统,以及统计学习、强化学习等领域。

StableLM的功能与特点

StableLM具有30亿和70亿个参数,未来还有150亿到650亿参数的版本。稳定AI表示,开发者可自由使用StableLM,只需遵守相关条款。该模型功能强大,不仅能生成文本和代码,还可为下游应用提供技术基础。

稳定AI从早期开始就与非营利性研究中心Eleuther AI合作,培养了深厚的积淀。后续开发的各种开源模型如GPT-J、GPT-NeoX等,都是这两家公司合作训练的产物。

总的来说,StableLM是建立在新数据集上的,模型的上下文长度为4096个token。

开源先驱:稳定AI

稳定AI从建立至今,一直秉承开源精神。他们不仅推出了基于语言模型的开源项目,还努力将人工智能的好处带给更多人。

稳定AI的开源模型Stable Diffusion展示了透明、开放、可扩展的专有AI替代方案。尽管会有一定的争议和挑战,但稳定AI坚信,开源是最正确的选择。

争议与反思:开源的利与弊

开源文本生成模型在近年大幅增长,虽然带来许多优势,但也会引发个别人滥用的担忧。然而,稳定AI坚信通过开源,可以提高透明度与信任。

稳定AI的模型开放、细粒度的访问,有利于研究人员开发更安全、更可靠的技术,这也是稳定AI长期坚持的价值观。

尽管开源模型需要更多努力来调整、修复后端,但稳定AI一直致力于开放、互助的发展道路,努力让人工智能造福于人类。

咨询更多关于数字艺术教育的信息,欢迎点击点击咨询

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定