资讯

DeepSeek-V3-0324 采用混合专家(MoE,mixture-of-experts)架构。传统模型在执行每项任务时都会激活全部参数,但 DeepSeek 的方法在特定任务中仅激活其 6850 亿个参数中的大约 370 亿个参数。
Hugging Face近日公布了2025年4月第二周 最受欢迎 模型榜单,涵盖文本生成、图像生成到视频生成等多模态领域,凸显了AI技术的快速迭代与多元化应用。据AIbase了解,本次榜单中的模型不仅展示了开源社区的创新活力,还反映了从低精度训练到多模态生成的技术趋势。以下为榜单亮点解析,AIbase编辑团队为您带来专业解读。
机器之心报道。 昨夜,DeepSeek V3 毫无征兆地来了一波更新,升级到了「DeepSeek-V3-0324」版本。 目前,新版本在 Hugging Face 上可以下载并部署。 Hugging Face ...
昨夜,DeepSeek V3 毫无征兆地来了一波更新,升级到了「DeepSeek-V3-0324」版本。 目前,新版本在 Hugging Face 上可以下载并部署 ...
没有任何公告和宣发,DeepSeek在开源平台hugging face默默上新的V3迭代版本模型仍在今日引起了不小的关注。 3月25日晚,官方终于在海内外官方账号上 ...
就在昨天晚上, DeepSeek 一声不吭往 Hugging Face 上扔了个 DeepSeek -V3-0324 模型。 模型参数 6850 亿,跟上一个版本的 V3 ( 6710 亿 )相差不大,采用 MoE ...
自DeepSeek掀起新一轮大模型热潮来,全球科技巨头的AI军备赛依旧热火朝天。经历多次延期之后,Meta最新推出超级“王炸”,开源王座一夜易主。Llama 4 系列登场当地时间周六(4月5日),Meta推出了其最强大的开源AI大模型Llama 4。据Meta介绍,Llama4 ...
近期,在全球人工智能领域,技术突破与资本动态的交融引发了行业的巨大关注。在这场 AI 竞赛的巅峰对决中,阿里巴巴通义千问团队的 Qwen2.5-Omni 大模型一举夺下 Hugging Face 全球开源榜单的冠军,展现出了杭州企业在科技前沿的坚持与创新,而 DeepSeek 则以其全新的 V3-0324 版本向市场展示了强大的技术实力。
DeepSeek 悄然发布一款新的大语言模型——DeepSeek-V3-0324。 这款 641GB 大小的模型在 Hugging Face 上亮相,只有一个空的 README 文件和模型权重,依旧是几乎 ...
DeepSeek-V3-0324这波进化,实属有亿点点厉害。目前在榜单排行中,它的实力与Gemini 2.0 Pro、GPT-4.5 preview、Gemini 2.0 Flash Thinking并驾齐驱。也就是说,当前闭源模型最强三款——Gemini 2.5 Pro、GROK 3、GPT-4o之后,开源模型之光便是DeepSeek-V3了!
3月25日晚,官方终于在海内外官方账号上正式宣布V3模型完成小版本升级的消息,并介绍了新版本DeepSeek-V3-0324模型的提升细节,包括推理、前端开发、中文写作、中文搜索几个方面的能力优化。
点击上方蓝字关注我们,不错过任何一篇干货文章! 近日,中国人工智能初创公司深度求索(DeepSeek)在AI开源平台Hugging Face ...