Skip to content

Latest commit

 

History

History
100 lines (73 loc) · 6.99 KB

README_CN.md

File metadata and controls

100 lines (73 loc) · 6.99 KB

CodeFuse中文索引

关于本仓库

本仓库索引了CodeFuse项目的关键仓库、模型和演示例子.

关于CodeFuse

CodeFuse的使命是开发专门设计用于支持整个软件开发生命周期的大型代码语言模型(Code LLMs),涵盖设计、需求、编码、测试、部署、运维等关键阶段。 我们致力于打造创新的解决方案,让软件开发者们在研发的过程中如丝般顺滑。下面是CodeFuse的整个框架。


版本更新

** 2024.07 ** CGE : 基于D2LLM 开源 D2Coder-v1 模型用于代码向量检索; codefuse-ide: 一款云端的IDE,支持codefuse代码开发、分析、测例生成

** 2024.07 ** D2LLM : 基于D2LLM 开源 D2Coder-v1 模型用于代码向量检索, RepoFuse : 多仓库级别的代码补全

** 2024.06 ** Codefuse-ai 官方主页上线, D2LLM 新增能力关于分解和蒸馏的大型语言模型用于语义搜索, MFTCoder 放出 V0.4.2 版本. 更多内容见Release & Next Release

** 2024.05 ** 大模型语义缓存ModelCache v0.2.1版本支持多模态, 见 CodeFuse-ModelCache. DevOps-Model 支持function call能力,见 CodeFuse-DevOps-Model. , 更多内容见 Release & Next Release

** 2024.04 ** CodeFuse-muAgent: 多智能体框架, 更多内容见 Release & Next Release

CodeFuse仓库列表

我们按照上图软件生命周期的划分对仓库进行了组织.

生命周期阶段 仓库名 仓库简介 技术路线
项目Copilot NA NA
数据Copilot MFTCoder CodeFuse独有的指令微调框架
FastTransformer4CodeFuse 推理引擎
CodeFuse-Eval 代码评估框架
测试和构建Copilot TestAgent TestGPT示例前端
运维Copilot DevOps-Eval DevOps评测集和框架
DevOps-Model DevOps模型列表介绍
数据Copilot NA NA
其他模块 ChatBot 通用chatbot前端
muAgent multi-agent框架
CoCA 共线约束注意力算法
Awesine-Code-LLM 代码大模型survey主页
CodeFuse-Query 基于查询的代码分析引擎
你正在看的仓库 CodeFuse通用介绍和索引

CodeFuse已发布主要模型索引

ModelName Short Description Modele Linls
CodeFuse-13B Training from scratch by CodeFuse HF ; MS
CodeFuse-CodeLLaMA-34B Finetuning on CodeLLaMA-34B HF ; MS
** CodeFuse-CodeLLaMA-34B-4bits 4bits quantized 34B model HF ; MS
CodeFuse-DeepSeek-33B FineTuning on DeepSeek-Coder-33b HF ; MS
** CodeFuse-DeepSeek-33B-4bits 4-bit quantized 33B model HF ; MS
CodeFuse-VLM-14B SoTA vision-language model HF ; MS

演示

Online Demo Snapshot

  • 离线版本:你也可以安装CodeFuse-Chatbot在本地尝试我们的模型.

如何获得

  • HF模型社区HuggingFace.
  • 魔搭社区ModelScope.
  • WiseModel社区WiseModel.
  • 对于自有或者自己感兴趣的模型,可以使用我们的MFTCoder框架微调训练,它是一个支持多模型、多任务、多训练平台的微调框架.

参考文献

如果你觉得本项目对你有帮助,请引用下述论文:

@article{mftcoder2023,
      title={MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning}, 
      author={Bingchang Liu and Chaoyu Chen and Cong Liao and Zi Gong and Huan Wang and Zhichao Lei and Ming Liang and Dajun Chen and Min Shen and Hailian Zhou and Hang Yu and Jianguo Li},
      year={2023},
      journal={arXiv preprint arXiv},
      archivePrefix={arXiv},
      eprint={2311.02303}
}