在AI技术日新月异的今天,开源社区再次展现出了其强大的创新力和推动力。近日,开源AI巨头Hugging Face宣布成功复现了OpenAI的Deep Research功能,并将其以开源形式提供给全球用户,此举在AI界引发了广泛关注和热烈讨论。
2025年1月28日,DeepSeek在GitHub和Hugging Face平台重磅发布Janus-Pro多模态AI模型,这一消息在AI领域引发广 ...
据悉,相应模型主要基于 Hugging Face 团队去年训练的 80B 参数模型蒸馏而成,号称在性能和资源需求之间实现了平衡,官方称 SmolVLM-256M / 500M 两款模型均可“开箱即用”,可以直接部署在 transformer MLX 和 ONNX 平台上。 具体技术层面,SmolVLM-256M / 500M 两款模型均采用 ...
1月26日,HuggingFace发布了两款全新多模态模型:SmolVLM-256M和SmolVLM-500M。据悉,这两款模型都是基于去年训练的80B参数模型进行提炼而成,实现了性能与资源需求之间的平衡。官方表示,这两款模型可以直接部署在t ...
近日,人工智能领域的领导者Hugging ...
IT之家 1 月 26 日消息,Hugging Face 发布了两款全新多模态模型 SmolVLM-256M 和 SmolVLM-500M, 其中 SmolVLM-256M 号称是世界上最小的视觉语言模型(Video Language Model) 。
Hugging Face 平台1 月 23 日发布博文,宣布推出 SmolVLM-256M-Instruct 和 SmolVLM-500M-Instruct 两款轻量级 AI 模型,在 AI 算力有限的设备上,最大限度发挥其算力性能。 1 月 24 日消息,Hugging Face 平台昨日(1 月 23 日)发布博文,宣布推出 SmolVLM-256M-Instruct 和 ...
Sakana AI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过 ...
目前领先的 LLM 大都基于 Transformer,而 Transformer 核心的自注意力机制是其计算成本的重要来源。为了优化,研究社区可以说是绞尽脑汁,提出了稀疏 ...
此外,我们也将探讨Hugging Face的Transformers库,一个强大的Python工具,助你快速调用、训练、应用与分享各种预训练的Transformer模型,包括BERT和GPT系列。