Hi!请登陆

Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT

2023-4-28 314 4/28
Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT
由Stability.ai 发布的开源模型Stable Diffusion 可以说是目前最主流也是最重要的AI 绘画模型之一。

 

Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT

基于开放原始码的Stable Diffusion,开发者社区创作了许多有意思的外挂和模型,例如可以控制图形形状的Control Net 项目等,相关的开发项目超过1000 个。

现在,这家热衷于开放原始码的AI 公司又想搞一个大事情——发布一个类似ChatGPT 的开源大型语言模型。

人人都有LLM

2023 年可以说大型语言模型井喷的一年,这几个月以来,几乎每个星期都有一个新的大型语言模型面世。大型语言模型、小模型、文字生成的、多模态的、闭源的、开放原始码的……现在就是大型语言模型的春天,各家百花齐放。

这份热闹不仅属于微软、Google、百度、阿里等Internet大厂,也属于所有与AI 相关的科技公司。

和现有的大型语言模型相比,Stability.ai 发布的StableLM 大型语言模型有什么特别的呢?

Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT

根据Stability.ai 的介绍,目前StableLM 是一个开源且透明的模型,允许研究人员和开发者自由地检查、使用和修改程式码。就像Stable Diffusion 一样,使用者们都可以自由地组态Stable LM,打造专为自己需求而量身定制的大型语言模型。

目前Stable LM Alpha 版本模型的参数大小为30 亿和70 亿,未来Stability.ai 还会提供150 亿和650 亿参数大小的模型版本。

尽管和GPT-3 模型的1750 亿参数相比,StableLM 的模型大小要小得多,但Stability.ai 表示StableLM 是基于一个比The Pile 资料集还要大3 倍的扩展资料集训练而成,在编码和自然语言对话方面都有不错的表现。

The Pile 资料集本身已经包括了大量书籍、Github 知识库、网页、聊天记录等资料,还收集了医学、物理、数学、电脑科学和哲学学科的论文,可以为通用大型语言模型、跨领域文字生成训练提供很好的基准。

因此在实际使用时,StableLM 与GPT-3 的差距并不像纸面参数资料的差异那样明显。

Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT

Stability.ai 在公告中展示了StableLM 处理三个不同任务的实际表现,包括写邮件、写Rap 歌词(问题:写一首深度学习网路与符号人工智慧互呛的史诗级Battle 歌词。只能说这极客味太重了)和写程式码。

Stability.ai 还把StableLM 托管在了HuggingFace 的社区网站上,想抢先体验的朋友可以到以下地址调戏它⬇️

https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat

从我们做的简短测试来看,StableLM 的中文水准还不怎么好,更不用说和ChatGPT 这样的优等生对比,因此在对话时尽量使用选择英语。

 

开源还是闭源之争

和包括史丹佛大学的Alpaca 在内的众多开源大型语言模型一样,StableLM 给了很多开发者在本地或者伺服器亲手定制大型语言模型的机会,不用再担心你的资料泄漏给了模型后台。

Stable Diffusion 推出「开源版ChatGPT」, StableLM想让人人都能做自己的GPT

ChatGPT 爆火后,关于AI 模型的资料隐私问题层出不穷,前不久三星还被爆出有多名员工向ChatGPT 泄漏机密资料的事件,以致三星的半导体部门决定自己开发内部AI 工具,避免类似的问题再次发生。

开源模型除了有高透明度的优势,开发者们也更容易利用开源模型开发出更具有创造力的应用。例如你可以对StableLM 做定制化的侦错,让它变成一个不会停歇的网文作家,或者是非常熟悉公司项目的资深程式设计师或文案写手,甚至可以侦错成微博上的星座运程大师。

开源模型给了开发者更大的想像力空间,但与此同时,也会给作恶者更先进的手段。

对别有用心者来说,开源大型语言模型可能就是做电信诈骗的神器,他们可以逼真的对话把人们骗的团团转。

开源总是会伴随争议,这一点Stability.ai 早有预料。此前因为开源Stable Diffusion,Stability.ai 已经遭到了许多涉嫌侵犯艺术家权利的法律诉讼,以及因使用者使用其工具生成色情内容而引起的争议。

Stability.ai 的CEO Emad Mostaque 在此前的采访中提到,大型语言模型需要接受更多监督,而不是被大公司锁在小黑盒里,因此大型语言模型的社区开放性也非常重要。Stability.ai 坚持开源,是想把技术带给更多的人,引发人们的思考。

StableLM 是对Stability.ai 的承诺最新验证,一个人人都有专属语言模型的未来或许就此展开。

 

相关推荐