English | HuggingFace | 魔搭社区 | WiseModel | 产品主页
本仓库索引了CodeFuse项目的关键仓库、模型和演示例子.
CodeFuse的使命是开发专门设计用于支持整个软件开发生命周期的大型代码语言模型(Code LLMs),涵盖设计、需求、编码、测试、部署、运维等关键阶段。 我们致力于打造创新的解决方案,让软件开发者们在研发的过程中如丝般顺滑。下面是CodeFuse的整个框架。
** 2024.07 ** CGE : 基于D2LLM 开源 D2Coder-v1 模型用于代码向量检索; codefuse-ide: 一款云端的IDE,支持codefuse代码开发、分析、测例生成
** 2024.07 ** D2LLM : 基于D2LLM 开源 D2Coder-v1 模型用于代码向量检索, RepoFuse : 多仓库级别的代码补全
** 2024.06 ** Codefuse-ai 官方主页上线, D2LLM 新增能力关于分解和蒸馏的大型语言模型用于语义搜索, MFTCoder 放出 V0.4.2 版本. 更多内容见Release & Next Release
** 2024.05 ** 大模型语义缓存ModelCache v0.2.1版本支持多模态, 见 CodeFuse-ModelCache. DevOps-Model 支持function call能力,见 CodeFuse-DevOps-Model. , 更多内容见 Release & Next Release
** 2024.04 ** CodeFuse-muAgent: 多智能体框架, 更多内容见 Release & Next Release
我们按照上图软件生命周期的划分对仓库进行了组织.
生命周期阶段 | 仓库名 | 仓库简介 | 技术路线 |
---|---|---|---|
项目Copilot | NA | NA | |
数据Copilot | MFTCoder | CodeFuse独有的指令微调框架 | |
FastTransformer4CodeFuse | 推理引擎 | ||
CodeFuse-Eval | 代码评估框架 | ||
测试和构建Copilot | TestAgent | TestGPT示例前端 | |
运维Copilot | DevOps-Eval | DevOps评测集和框架 | |
DevOps-Model | DevOps模型列表介绍 | ||
数据Copilot | NA | NA | |
其他模块 | ChatBot | 通用chatbot前端 | |
muAgent | multi-agent框架 | ||
CoCA | 共线约束注意力算法 | ||
Awesine-Code-LLM | 代码大模型survey主页 | ||
CodeFuse-Query | 基于查询的代码分析引擎 | ||
你正在看的仓库 | CodeFuse通用介绍和索引 |
ModelName | Short Description | Modele Linls |
---|---|---|
CodeFuse-13B | Training from scratch by CodeFuse | HF ; MS |
CodeFuse-CodeLLaMA-34B | Finetuning on CodeLLaMA-34B | HF ; MS |
** CodeFuse-CodeLLaMA-34B-4bits | 4bits quantized 34B model | HF ; MS |
CodeFuse-DeepSeek-33B | FineTuning on DeepSeek-Coder-33b | HF ; MS |
** CodeFuse-DeepSeek-33B-4bits | 4-bit quantized 33B model | HF ; MS |
CodeFuse-VLM-14B | SoTA vision-language model | HF ; MS |
-
视频Demo: 下面是中文版本, 英文版准备中 https://user-images.githubusercontent.com/103973989/267514150-21012a5d-652d-4aea-bcea-582e67855ad7.mp4
-
在线版本: 你可以在魔搭社区尝试我们的34B模型: CodeFuse-CodeLlama34B-MFT-Demo
- 离线版本:你也可以安装CodeFuse-Chatbot在本地尝试我们的模型.
- HF模型社区HuggingFace.
- 魔搭社区ModelScope.
- WiseModel社区WiseModel.
- 对于自有或者自己感兴趣的模型,可以使用我们的MFTCoder框架微调训练,它是一个支持多模型、多任务、多训练平台的微调框架.
如果你觉得本项目对你有帮助,请引用下述论文:
@article{mftcoder2023,
title={MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning},
author={Bingchang Liu and Chaoyu Chen and Cong Liao and Zi Gong and Huan Wang and Zhichao Lei and Ming Liang and Dajun Chen and Min Shen and Hailian Zhou and Hang Yu and Jianguo Li},
year={2023},
journal={arXiv preprint arXiv},
archivePrefix={arXiv},
eprint={2311.02303}
}