[星外云多多]--云服务器购买交流   星外教多多  星外智问chatGPT  星外爱多多 客服QQ:2703866041 收藏 加入QQ群279052071 认领网站或企业请登陆/注册
  身份证查询核验
ChatGPT信息 云服务器提供商 拨号服务器商 小程序公众号 海外商家 云安全等保 行业资讯 中美断网 新手上路 商家排行榜 常用软件下载 PHP最新文档 ASP.Net ASP  
当前位置:星外智问>>chatGPT相关>>chatGPT新闻

QLoRA 的新方法可以在单个 GPU 上微调大型语言模型

发表于:2023年6月2日 阅读 1535 次 文章来源:广州星外科技版权所有 添加 修改 删除

有一种名为 QLoRA 的新方法可以在单个 GPU 上微调大型语言模型。目前已经有研究人员用它来训练 Guanaco,这是一个性能效果99% 接近ChatGPT的聊天机器人。

华盛顿大学的研究人员提出了微调大型语言模型的方法 QLoRA。该团队利用 QLoRA 发布了 Guanaco,这是一个基于Meta 的 LLaMA模型的聊天机器人系列。最大的 Guanaco 变体具有650亿个参数,在与GPT-4的基准测试中实现了ChatGPT ( GPT-3.5-turbo )99% 以上的性能。

微调大型语言模型是提高其性能和训练的最重要技术之一。然而,这个过程对于大型模型来说计算量非常大,例如 LLaMA65B ,在这种情况下需要超过780GB 的 GPU RAM。虽然开源社区使用各种量化方法将16位模型简化为4位模型,从而大大减少了推理所需的内存,但类似的方法还没有用于微调。

通过 QLoRA,该团队展示了一种方法,允许将 LLaMA 等模型量化为4位,并添加LORA模型,然后通过反向传播进行训练。通过这种方式,该方法可以实现4位模型的微调,并将650亿参数模型的内存需求从超过780


相关文章
刘慈欣用 ChatGPT 写稿
OpenAI创始人Sam Altman在一次访谈中讨....

热门点击排行
再创新高!chat.openai..... 2330
ChatGPT大升级! 2051
chatgpt可以代替真正的搜索引.... 1657
华为版ChatGPT可能于7月7日.... 1652
Opera浏览器正在测试名为Ari.... 1643
ChatGPT高三考试仅物理得零分.... 1640
识别并使用真正的chatGPT-4 1634
ChatGPT能写长篇小说了,ET.... 1591
刘慈欣用 ChatGPT 写稿 1586
日本政府裁定,所有用于AI训练的材.... 1560
用ChatGPT生成虚拟朋友 定制.... 1547
AI辅助家教,20美元/月定制虚拟.... 1541
QLoRA 的新方法可以在单个 G.... 1536
应用ChatGPTApp已经在更多.... 1517
2.5万名投资者跟着ChatGPT.... 1509
OpenAI创始人Sam Altm.... 1480
“ChatGPT之父”警告:减轻A.... 1456
教人使用ChatGPT成最火副业:.... 1454

  返回顶部
星外云多多,让天下没有难找的服务器,VPS!
[星外云多多] 订阅号 [星外云多多]微信群 [星外云多多] 客服
【星外云多多】由 星外科技 提供支持 《用户服务协议》和《隐私政策》[星外爱多多] [美多多] [星外工多多] [星外智问] [赚多多]
Copyright © 2004-2022 7i24.Com Corp., All rights reserved.
广州市星外信息科技有限公司保留所有权利 本网站为星外(注册商标如左示)期下网站之一。国家工业和信息化部粤ICP备05000912号-1