蚂蚁集团开源代码大模型 CodeFuse-CodeLlama-34B 4bits 量化版本

据站长之家 9 月 27 日消息,近日,蚂蚁集团代码大模型 CodeFuse-CodeLlama-34B 4bits 量化版本发布。据悉,该模型是 CodeFuse-CodeLlama-34B 模型的 4bits 量化版本,后者是通过 QLoRA 对基座模型 CodeLlama-34b-Python 进行多代码任务微调而得到的代码大模型,模型输入长度为 4K。

经 4bits 量化后,CodeFuse-CodeLlama-34B-4bits 可用单张 A10(24 GB 显存)或者 RTX4090 (24 GB 显存)加载,同时,量化后的模型在 Humaneval pass@1 指标上仍取得了 73.8% 的表现。

本文链接:https://www.8btc.com/article/6834152
转载请注明文章出处

原创文章,作者:惊蛰财经,如若转载,请注明出处:http://www.xmlm.net/bhq/26844.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注