北京深度求索公司推出首個國產開源MoE大模型
1月15日訊,北京深度求索公司推出首個國產開源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,計算量降低60%。DeepSeek MoE目前推出的版本參數量爲160億,實際激活參數量大約是28億。此外,深度求索團隊還透露,DeepSeek MoE模型還有145 B版本正在研發。階段性的初步試驗顯示,145 B的DeepSeek MoE對GShard 137 B具有極大的領先優勢,同時能夠以28.5%的計算量達到與密集版DeepSeek 67 B模型相當的性能。(量子位)
相關資訊
- ▣ 阿里通義千問開源首個MoE模型
- ▣ 第一個100%開源的MoE大模型,7B的參數,1B的推理成本
- ▣ 大模型初創企業MiniMax將發佈國內首個MoE大模型
- ▣ 科大訊飛發佈首個基於純國產算力的深度推理大模型
- ▣ 中國銀河維持計算機推薦評級:國產開源MoE模型DeepSeek-V2性能媲美GPT-4,大模型價格戰拉開帷幕
- ▣ 騰訊混元又來開源,一出手就是最大MoE大模型
- ▣ 科大訊飛發佈首個基於全國產算力的深度推理大模型X1
- ▣ 國內最大MoE開源大模型來了,還基於此搞出個火遍港臺的AI聊天應用
- ▣ 騰訊開源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK
- 海納百川》深度求索公開源碼的震撼(張智北)
- ▣ 對標 OpenAI GPT-4,MiniMax 國內首個 MoE 大語言模型全量上線
- ▣ 廣汽昊鉑HL將搭載深度求索大模型
- ▣ AI早知道|全球首個開源的多模態混合AI模型;智譜科技推出AI搜索工具
- ▣ 稀宇科技推出萬億MoE模型abab 6.5
- ▣ 中京電子:公司暫未與深度求索直接合作
- ▣ 北京將建設全球“開源之都” 推動人工智能大模型開源開放
- ▣ AI早知道|阿里通義將發佈視頻大模型;元象發佈MoE開源大模型
- ▣ 北京君正:公司沒有開發MOE架構計算芯片
- ▣ 阿里雲通義開源首個多模態推理模型QVQ
- ▣ 獵戶星空發佈MoE大模型,推出AI數據寶AirDS
- ▣ 格靈深瞳:公司推出全國產化超融合一體機,搭載DeepSeek-R1671B模型和自研的靈感多模態大模型
- ▣ AI早知道|LG開源韓國首個自研推理AI模型;中國首個面向製造業的城市級AI大模型中心
- 國產模型首開Hugging Face月度下載全球第一,智源B
- ▣ MiniMax 國內首個 MoE 大語言模型上線 擁有處理複雜任務能力
- ▣ 騰訊發佈最大開源MoE模型,3890億參數免費可商用
- ▣ AI早知道|全球首個多模態配樂大模型;智譜正式發佈深度推理模型
- ▣ 科大訊飛:首發國產算力平臺訓練的深度推理大模型星火X1
- ▣ 蘋果推出開放語言模型 OpenELM;微軟、清華團隊提出多頭混合專家 MH-MoE|大模型論文
- ▣ 科大訊飛攜手華爲,實現基於國產算力的MoE模型推理方案