模型专题
AI 编程
欢迎大家来社区探索学习及开源分享 AI 编程大模型,本专题我们为大家呈现最新、最强、最典型的开源 AI 编程大模型,旨在帮助大家更深入地了解 AI 编程领域的最新技术进展,希望各位社区的开发者能在这些模型的基础之上做更多的尝试和创新,也欢迎大家贡献更多的 AI 编程大模型,共同推动人工智能技术的发展和应用。
CodeFuse AI
CodeFuse
CodeFuse的使命是开发专门设计用于支持整个软件开发周期的大型语言代码模型(Code LLM),涵盖设计、需求、编码、测试、部署、维护等关键阶段。我们致力于打造创新的生命解决方案,让软件开发者们在研发的过程中如丝顺滑。
codefuse-ai/CodeFuse-CodeLlama-34B
文本生成
PyTorch
Transformers
CodeFuse-CodeLlama34B-MFT是一个通过QLoRA对基座模型CodeLlama-34b-Python进行多代码任务微调的代码大模型。模型微调采用了4k上下文。如果有必要,可以扩展到16k。
codefuse-ai
34
4
codefuse-ai/CodeFuse-CodeLlama-34B-4bits
CodeFuse-CodeLlama-34B-4bits是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通过QLoRA对基座模型CodeLlama-34b-Python进行多代码任务微调而得到的代码大模型,模型输入长度为4K。
codefuse-ai
25
2
codefuse-ai/CodeFuse-CodeGeeX2-6B
CodeFuse-CodeGeeX2-6B是在基本模型 CodeGeeX2 上通过 LoRA 对多个代码任务进行微调的 6B Code-LLM。
codefuse-ai
22
1
codefuse-ai/CodeFuse-13B
CodeFuse-13B是基于GPT-NeoX框架训练的13B参数代码生成模型,能够处理4096个字符的代码序列。该模型在1000B Token的代码、中文、英文数据数据集上进行预训练,覆盖超过40种编程语言。
codefuse-ai
20
0
codefuse-ai/CodeFuse-StarCoder-15B
CodeFuse-StarCoder-15B是一个通过QLoRA对基座模型StarCoder进行多代码任务微调的代码大模型。模型微调采用了4k上下文。采用了MQA技术,推理速度比较快。
codefuse-ai
18
0
智谱AI
CodeGeeX2
CodeGeeX2 由智谱 AI 团队发布,支持中英文对话解决各种编程问题,包括且不限于代码解释、代码翻译、代码纠错、文档生成等,帮助程序员更高效开发。
THUDM/codegeex2-6b
PyTorch
Transformers
CodeGeeX2 是多语言代码生成模型 CodeGeeX 的第二代模型。CodeGeeX2 基于 ChatGLM2 架构加入代码预训练实现,得益于 ChatGLM2 的更优性能,CodeGeeX2 在多项指标上取得性能提升(+107% > CodeGeeX;仅60亿参数即超过150亿参数的 StarCoder-15B 近10%)更多特性包括更强大的代码能力、更优秀的模型特性、更全面的AI编程助手、更开放的协议。
THUDM
104
0
THUDM/codegeex2-6b-int4
特征抽取
PyTorch
Transformers
在CodeGeeX2 的基础上采用了int4 量化推理,加快推理速度。
THUDM
36
0
Code Llama
Code Llama
Code Llama 是 Llama 2 的代码专用版本,是通过在其特定于代码的数据集上进一步训练 Llama 2 来创建的,从同一数据集中采样更多数据的时间更长。 从本质上讲,Code Llama 具有增强的编码功能。
codellama/CodeLlama-7b-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 7B基本版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
75
1
codellama/CodeLlama-13b-Instruct-hf
文本生成
对话生成
PyTorch
Transformers
Safetensors
Code Llama 13B指令调整版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
70
0
codellama/CodeLlama-7b-Instruct-hf
文本生成
对话生成
PyTorch
Transformers
Safetensors
Code Llama 7B指令调整版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
61
0
codellama/CodeLlama-34b-Instruct-hf
文本生成
对话生成
PyTorch
Transformers
Safetensors
Code Llama 34B指令调整版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
54
0
codellama/CodeLlama-34b-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 34B基本版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
39
0
codellama/CodeLlama-13b-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 13B基本版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
38
0
codellama/CodeLlama-7b-Python-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 7B Python专业版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
28
0
codellama/CodeLlama-13b-Python-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 13B Python专业版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
23
0
codellama/CodeLlama-34b-Python-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 34B Python专业版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
23
0
MetaAI
InCode
InCoder是MetaAI在2022年4月发布的一个编程大模型,其中重点是Python和JavaScript。
Replit
Replit Code
Replit Code 是Replit发布的一个大模型,用以生成代码的工具。
Salesforce
CodeGen
CodeT5+
CodeGen 由Salesforce发布的一系列模型,旨在根据开发人员的提示编写代码,并减轻编写代码本身的需要。
CodeT5+ 是代码大语言模型系列,采用编码器-解码器架构,可灵活地以不同模式(即仅编码器、仅解码器和编码器-解码器)运行,以支持各种代码理解和生成任务。
Salesforce/codegen25-7b-instruct
文本生成
CodeGen2.5是一系列用于程序综合的自回归语言模型,该模型以CodeGen2为基础,在StarCoderData上针对 1.4T 代币进行训练,与 StarCoderBase-15.5B 相比,其大小不到一半,取得了有竞争力的结果。
Salesforce
28
0
Salesforce/codet5p-220m-bimodal
特征抽取
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
28
0
Salesforce/codegen25-7b-multi
文本生成
PyTorch
Transformers
该模型以CodeGen2为基础,在StarCoderData上针对 1.4T tokens进行训练,与 StarCoderBase-15.5B 相比,其大小不到一半,取得了有竞争力的结果。该模型具有填充能力,并且支持多种编程语言。
Salesforce
24
0
Salesforce/codet5-small
端到端文本生成
PyTorch
Transformers
CodeT5是一个统一的预训练编码器-解码器 Transformer 模型,可以更好地利用开发人员分配的标识符传达的代码语义
Salesforce
23
0
Salesforce/codegen25-7b-mono
文本生成
该模型以CodeGen2为基础,在StarCoderData上针对 1.4T tokens进行训练,与 StarCoderBase-15.5B 相比,其大小不到一半,取得了有竞争力的结果。该模型具有填充能力,并且支持多种编程语言。
Salesforce
22
0
Salesforce/codet5p-2b
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
21
0
Salesforce/codet5p-770m
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
19
0
Salesforce/codet5p-6b
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
19
0
Salesforce/codegen-2B-mono
CodeGen 是一系列用于程序综合的自回归语言模型
Salesforce
18
0
Salesforce/codet5p-110m-embedding
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
18
0
Salesforce/codet5p-220m-py
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务,codet5p-220m-py 是在Python上进一步调优。
Salesforce
18
0
Salesforce/codegen-6B-nl
CodeGen 是一系列用于程序综合的自回归语言模型,其中“NL”表示它是在 Pile 上预训练的,“6B”指的是可训练参数的数量
Salesforce
18
0
Salesforce/codegen2-3_7B
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
18
0
Salesforce/codegen-16B-nl
CodeGen 是一系列用于程序综合的自回归语言模型,其中“NL”表示它是在 Pile 上预训练的,“16B”指的是可训练参数的数量
Salesforce
17
0
Salesforce/codet5p-16b
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
17
0
Salesforce/codet5p-770m-py
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务,codet5p-770m-py 是在Python上进一步调优。
Salesforce
17
0
Salesforce/codegen-2B-nl
CodeGen 是一系列用于程序综合的自回归语言模型,其中“NL”表示它是在 Pile 上预训练的,“2B”指的是可训练参数的数量。
Salesforce
16
0
Salesforce/codegen2-1B
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
16
0
Salesforce/codegen2-7B
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
15
0
Salesforce/codegen-16B-multi
文本生成
PyTorch
Transformers
其中“Multi”表示模型使用CodeGen-NL 16B进行初始化,并在多种编程语言的数据集上进一步进行预训练,“16B”指的是可训练参数的数量。
Salesforce
14
0
Salesforce/codegen2-16B
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
12
0
Stability AI
Stable Code
Stability AI 是 Stable Diffusion 图像生成工具背后的公司,如今他们不再局限于图像 / 视频生成领域。
BigCode
StarCoder
BigCode 是由 Hugging Face 和 ServiceNow 共同领导的开放式科学合作项目,该项目致力于开发负责任的代码大模型。
bigcode/starcoder
文本生成
PyTorch
Transformers
StarCoder模型是15.5亿参数的模型,训练于The Stack中的80多种编程语言,排除了选择退出的请求。该模型使用多查询注意力机制,拥有8192个令牌的上下文窗口,并采用了Fill-in-the-Middle目标在1万亿令牌上进行训练。
bigcode
34
0
bigcode/starcoderplus
文本生成
PyTorch
Transformers
StarCoderPlus是对StarCoderBase的微调版本,其训练数据混合了:英文网络数据集RefinedWeb (1x)、来自Stack的StarCoderData数据集 (v1.2) (1x)、已上采样 5 倍 (5x) 的维基百科数据集。
bigcode
25
0
bigcode/starcoderbase
文本生成
PyTorch
Transformers
StarCoderBase模型是15.5亿参数的模型,针对来自The Stack (v1.2)的80多种编程语言进行训练,排除了选择退出的请求。该模型采用多查询注意力机制,具有8192个令牌的上下文窗口,并使用填充中间(Fill-in-the-Middle)目标在1万亿令牌上进行了训练。
bigcode
24
0
封神榜
Ziya-Coding
Ziya-Coding 系列由 IDEA 研究院“封神榜”团队发布,可以根据指令完成生成和修改代码、代码解释、代码续写、NL2SQL 等一系列的代码相关任务。
IDEA-CCNL/Ziya-Coding-34B-v1.0
文本生成
基于训练Ziya-Coding-15B-v1积累的训练经验,发布了大模型Ziya-Coding-34B-v1.0,并在HumanEval Pass@1的评测上,取得了75.5的好成绩,超过了GPT-4(67.0)的得分,也成为目前已知开源模型新高。
IDEA-CCNL
45
1
IDEA-CCNL/Ziya-Coding-15B-v1
文本生成
Ziya-Coding-15B-v1是基于StarCoderBase的155亿参数预训练模型。它可以根据指令完成生成和修改代码、代码解释、代码延续、NL2SQL等一系列与代码相关的任务。目前,Ziya-Writing-LLaMa-13B-v1已完成大规模预训练(PT)和监督微调(SFT)训练过程。
IDEA-CCNL
37
0
注:此顺序按字母排序仅用于方便查阅,并不代表任何形式的优先级或评价。