在最近的人工智慧領域,中國新創公司 DeepSeek 引發了業界的廣泛關注。該公司剛剛發布了其最新版本的開源混合專家(MoE)編碼語言模型 DeepSeek Coder V2,成功超越了包括 GPT-4 Turbo、Claude 3 Opus 和 Gemini 1.5 Pro 在內的多個封閉來源模型。DeepSeek Coder V2 支援超過 300 種編程語言,並在編碼和數學任務上表現出色,這是首次有開源模型在此領域取得如此成就。
DeepSeek 公司成立於去年,致力於以好奇心“解開通用人工智慧(AGI)的神秘面紗”。在短短一年內,DeepSeek 不僅推出了 DeepSeek Coder 系列,還開源了多個模型。DeepSeek Coder V2 的前身,最初僅支援 86 種編程語言和 16K 的上下文窗口,而新版本則擴展到了 338 種語言和 128K 的上下文窗口,大幅提升了處理更複雜和廣泛編碼任務的能力。
在多個行業標準基準測試中,如 MBPP+、HumanEval 和 Aider 等,DeepSeek Coder V2 的得分均領先於大多數開源和封閉源碼模型。此外,DeepSeek Coder V2 基於混合專家架構的 DeepSeek V2 模型,通過在 GitHub 和 CommonCrawl 獲取的 6 萬億代碼和數學相關數據上預訓練,進一步強化了其性能。DeepSeek Coder V2 不僅在編碼和數學相關任務上表現出色,它在一般性推理和語言理解任務上也有不錯的表現。在 MMLU 多任務語言理解基準測試中,DeepSeek Coder V2 的得分遠高於其他特定於代碼的模型。目前,DeepSeek Coder V2 已經在 Hugging Face 平台提供了 16B 和 236B 兩種規模的模型下載,並支援透過其平台 API 進行訪問。