1月27日,北京人工智能創(chuàng)新企業(yè)月之暗面正式發(fā)布了新一代開源模型——Kimi K2.5。

該模型基于萬億參數(shù)混合專家(MoE)架構,采用15萬億視覺與文本混合Token進行原生多模態(tài)訓練,在Agent智能體、代碼生成、視覺理解等領域?qū)崿F(xiàn)重要進展。相關評測數(shù)據(jù)顯示,其多項成績達到或超過GPT-5.2、Claude Opus 4.5等國際主流閉源模型,體現(xiàn)了北京在通用人工智能領域的持續(xù)創(chuàng)新能力。

Kimi K2.5在代碼生成方面實現(xiàn)了功能與視覺設計的結合。該模型引入“視覺即代碼”開發(fā)方式,可根據(jù)界面截圖或錄屏視頻自動解析交互邏輯,并生成相應前端代碼,支持動態(tài)布局、滾動觸發(fā)等交互效果。用戶可通過圈選等方式在截圖上標注修改意圖,模型可據(jù)此進行調(diào)整,提升了開發(fā)效率。
在自主決策能力方面,Kimi K2.5在HLE,BrowseComp等Agent相關評測中取得當前開源模型中的較好結果。這一突破得益于K2.5原創(chuàng)的“Agent智能體集群”架構。區(qū)別于傳統(tǒng)單體AI的串行處理模式,K2.5采用橫向擴展策略,可動態(tài)調(diào)度最多100個專業(yè)子Agent并行作戰(zhàn),支持1500次工具調(diào)用。在跨領域市場調(diào)研、多語種文獻翻譯、復雜財務建模等場景中,任務執(zhí)行效率較單一Agent模式提升4.5倍以上。任務分配與拆解由模型自主完成,無需預先設置工作流程。
在視覺理解領域,K2.5模型支持直接處理視頻內(nèi)容,能夠識別動作邏輯與視覺信息,可用于視頻分析與智能剪輯等場景。在性能相當?shù)那闆r下,K2.5的運行成本僅為GPT-5.2-xhigh的幾分之一。在軟件開發(fā)領域,該模型的視覺與代碼結合能力有助于降低前端開發(fā)門檻,非專業(yè)用戶也能通過自然語言或視覺交互創(chuàng)建高品質(zhì)網(wǎng)頁應用。在辦公自動化領域,K2.5深度掌握Word、Excel、PPT等全系列辦公軟件,可獨立完成從3萬字論文轉制PPT到復雜財務模型搭建的高難度任務。在創(chuàng)意產(chǎn)業(yè)領域,K2.5的審美級代碼生成能力有望催生新一代"氛圍編程"工具,讓創(chuàng)意表達不再受限于技術壁壘。
目前,Kimi K2.5已全面上線kimi.com、Kimi App、Kimi API開放平臺及編程助手產(chǎn)品Kimi Code,開發(fā)者可通過終端直接調(diào)用或集成至VSCode、Cursor等主流開發(fā)環(huán)境。
下一步,市科委、中關村管委會將繼續(xù)支持相關創(chuàng)新主體開展大模型及智能體技術研發(fā),推動技術應用與產(chǎn)業(yè)落地,培育人工智能領域創(chuàng)新企業(yè)集群。
(審核編輯: 光光)
分享