Google 发布了新的多模模型 Gemma 3,开放权重,允许负责任的商业用途,128K 个令牌上下文,支持超过 140 种语言,提供了 10 亿、40 亿、120 亿、270 亿参数规模的模型可供选项。Google 称,Gemma 3 的 Elo ...
近日,Google发布的新一代多模模型Gemma3引发了广泛关注。这款模型不仅支持140多种语言,还在性能上实现了重大突破——仅需一张NVIDIA H100 GPU即可达到DeepSeek ...
IT之家 3 月 14 日消息,加拿大 AI 初创公司 Cohere 昨日发布了一款名为“Command A”的 AI 模型,该模型主打轻量化应用,号称只需要两块英伟达 A100 或 H100 GPU 即可轻松部署,号称“表现能和 GPT-4o 相媲美”,实现“用最少的硬件发挥最大的性能”。
IT之家 3 月 14 日消息,加拿大 AI 初创公司 Cohere 昨日发布了一款名为“Command A”的 AI 模型,该模型主打轻量化应用,号称只需要两块英伟达 A100 或 H100 GPU 即可轻松部署,号称“表现能和 GPT-4o ...
“残差神经网络发明人”、麻省理工学院副教授何恺明与图灵奖得主、“卷积网络之父”Yann LeCun的最新合作论文提出“无需归一化的Transformer”,目前已入选CVPR 2025,该发现有望进一步改进AI模型性能,给开发者们带来新思路。
加拿大AI新兴企业Cohere近日震撼发布了一款名为Command A的人工智能模型,该模型以其轻量级部署和高效性能为核心卖点,引起了业界的广泛关注。据悉,Command A仅需两块英伟达A100或H100 GPU便能轻松运作,其表现被赞誉可与GPT-4o相抗衡,实现了硬件资源最小化与性能最大化的完美结合。
DeepSeek带动推理需求爆发,英伟达的“算力霸权”被撕开一道口子,一个新世界的大门逐渐打开—— 由ASIC芯片主导的算力革命,正从静默走向喧嚣。
来自Meta AI的华人科学家刘壮团队,联合AI大神何恺明, 图灵奖得住Yann LeCun等大牛搞了个大新闻——他们的最新论文证明了:Transformer ...
AI晶片是现在最火热的商机,但AI用记忆体却一直是韩厂天下。根据《财讯》双周刊报导,2024年,台湾工研院推出的MOSAIC 3D AI晶片技术,企图打破这个局面,让台湾的成熟制程和记忆体厂也能参与边缘AI的大商机,目前已 ...
【文/观察者网 熊超然】上个月,全球计算机存储领域的顶级学术会议——第23届USENIX文件与存储技术会议(USENIX Conference on File and Storage Technologies,简称FAST),在美国加利福尼亚州圣克拉拉举行。 本届大会上,来自中国的人工智能(AI)初创公司月之暗面(Moonshot AI)和清华大学团队合作发表论文并在其中提出一个名为Mooncak ...
上个月,马斯克带着号称“地表最聪明人工智能”Grok 3亮相。仅40分钟的发布会,不仅展示了Grok 3的强大计算推理能力,也透露了马斯克在人工智能领域的野心。Grok ...
3月13日,据外媒wccftech报道,苹果公司在本周早些时候苹果推出了新款Mac Studio,搭载其最强大的M3 Ultra芯片,刷新了该公司自己的PC处理器性能巅峰,可以运行满血版DeepSeek R1模型。据介绍,M3 ...