登录社区云,与社区用户共同成长
邀请您加入社区
暂无图片
MindSpeed LLM框架与Qwen3-Coder-Next的同步发布并立刻支持跑通,标志着昇腾平台在大语言模型领域的技术实力再次提升。开发者可以在第一时间内,借助强大的昇腾计算能力,快速将 Qwen3-Coder-Next应用于实际项目,进一步加速智能应用的落地。我们提供详细的步骤说明,帮助您在MindSpeed框架下实现 Qwen3-Coder-Next模型的无缝运行。MindSpeed
OpenClaw(原 Clawdbot/Moltbot)凭借强大的本地化自动化能力,正在吸引越来越多开发者尝试部署与体验。为了让开发者能够快速上手、降低部署门槛,魔乐社区现已将OpenClaw打包为开箱即用的镜像,并正式上线社区工具中心。无需源码克隆、无需本地构建、无需复杂配置、全系统兼容,打开魔乐社区即可一键获取,即下即用!👉。
TeleChat3-Coder-36B-Thinking则基于TeleChat3基础模型打造,在代码综合能力上有优异表现。近日,中国电信人工智能研究院(TeleAI)与中电信人工智能科技有限公司正式开源星辰语义大模型首个代码模型 TeleChat3-Coder-36B-Thinking,根据自然语言描述就能快速生成各类应用程序。例如上面“大鱼吃小鱼”的游戏,只要给出游戏界面的风格、交互规则、玩法说
1月29日,百度正式发布并开源新一代文档解析模型PaddleOCR-VL-1.5。该模型以仅0.9B参数的轻量架构,在全球权威文档解析评测榜单OmniDocBench V1.5中取得全球综合性能SOTA,整体精度达到94.5%,不仅超过Gemini-3-Pro、Qwen3-VL-235B-A22B、GPT-5.2等模型,也超过了1月27日DeepSeek刚刚发布和开源的DeepSeek-OCR2模
在人工智能浪潮中,大模型的快速发展正深刻重塑千行百业,但同时也带来了前所未有的技术挑战与性能瓶颈。一方面,模型规模激增使得底层算子性能成为制约训练推理效率的关键因素;另一方面,面对有限的算力资源,如何实现极致推理吞吐,降低部署成本,已成为产业落地的核心难题。此外,模型进化严重依赖高质量数据,而传统长上下文、复杂场景的数据标注工作成本高昂、效率低下,阻碍了技术的敏捷迭代与应用深化。为了系统应对这些挑
TeleChat3-105B-A4.7-Thinking是 TeleChat系列国内首个开源的全自主创新千亿参数细粒度MoE语义大模型,由中国电信人工智能研究院(TeleAI)研发训练,在问答、写作、数学、代码、Agent等多维度,与业内头部模型比肩,特别在代码能力、复杂任务通用问答、细粒度MoE等维度上有显著的效果提升,同时采用创新训练方式,加快模型在训练初期的收敛速度,增强模型在训练中的稳定性
1月20日,由清华大学自然语言处理实验室、中国人民大学、面壁智能与OpenBMB开源社区联合研发的AgentCPM-Report开源。这是一个本地化、私有化、却拥有SOTA性能的深度调研智能体,它以端侧模型为核心,实现了比肩顶级闭源系统的报告写作能力。
01 模型介绍 Emu3.5: Native Multimodal Models are World Learners Emu3.5 Team, BAAI Project Page | 珞HF Models | Paper Core ConceptDescription易Unified World ModelingPredicts the next state jointly across vi
随着 LLM(大语言模型)的狂飙突进,我们早已习惯了与 AI 进行文字这种“神交”。但你是否畅想过,下一代的AI交互不再是冰冷的字符流,而是一个看着你、听得懂你、甚至能用微表情和肢体语言回应你的超写实3D数字人?今天,魔珐科技(XMOV)携手魔乐社区,正式上线了 「魔珐星云智能客服Demo」!🚀 无需复杂的本地环境配置,点击网页即可体验“有形象、有思想、能表达”的企业级3D AI交互。👇 点击
1月14日,智谱联合华为开源新一代图像生成模型GLM-Image,模型基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的SOTA多模态模型。GLM-Image采用自主创新的「自回归+扩散解码器」混合架构,实现了图像生成与语言模型的联合,是智谱面向以Nano Banana Pro为代表的新一代「认知型生成」技术范式的一次