type
status
date
slug
summary
tags
category
icon
password
📎
最近开源社区简直是疯球了
一会不看就全是大新闻,赶紧汇总一下
模型名称
详细介绍
链接
模型大小(B)
架构
上下文长度
是否为多模态
技术博客
Qwen3-235B-A22B-Thinking-2507
Qwen3-235B-A22B-Thinking-2507是Qwen3大型语言模型系列的一员...
总参数量:235B, 激活参数量:22B
混合专家模型 (Mixture-of-Experts, MoE)
262,144
Qwen3-235B-A22B-Instruct-2507
我们推出了Qwen3-235B-A22B非思考模式的更新版本...
总参数量:235B, 激活参数量:22B
混合专家模型 (Mixture-of-Experts, MoE)
262,144
Qwen3-Coder-480B-A35B-Instruct
Qwen3-Coder是迄今为止我们最具代理性的代码模型...
总参数量:480B, 激活参数量:35B
混合专家模型 (Mixture-of-Experts, MoE)
原生支持 262,144 个 token, 可扩展至 100 万个 token
Kimi-K2-Instruct
Kimi K2 是由 Moonshot AI 构建的先进的开源大型语言模型...
总参数量:1T, 激活参数量:32B
混合专家模型 (Mixture-of-Experts, MoE)
128K
ZhipuAI/GLM-4.5
复杂推理和工具使用的思考模式,以及用于即时响应的非思考模式。
总参数量:355B, 激活参数量:32B
混合专家模型 (Mixture-of-Experts, MoE)
128k
ZhipuAI/GLM-4.5-Air
拥有 1060 亿总参数量,其中 120 亿活跃参数
总参数量:106B, 激活参数量:12B
混合专家模型 (Mixture-of-Experts, MoE)
128k
Intern-S1
一个开源的多模态科学推理大模型,旨在成为真实世界科学应用的研究助手。
语言模型: 235B (Qwen3 MoE), 视觉编码器: 6B(InternViT)
多模态推理模型 (MoE语言模型 + 视觉编码器)
40K
MiniMax/MiniMax-M1-80k
MiniMax-M1-80k是MiniMax自研的,基于混合专家架构(MoE)的,支持100万上下文长度的,可商用的大语言模型。
总参数量:456B,激活参数量:45.9B
混合专家模型 (Mixture-of-Experts, MoE)
1,000,000
未找到
MiniMax/MiniMax-M1-40k
MiniMax-M1-40k是MiniMax自研的,基于混合专家架构(MoE)的,支持40k上下文长度的,可商用的大语言模型。
总参数量:456B,激活参数量:45.9B
混合专家模型 (Mixture-of-Experts, MoE)
40,000
未找到
HunyuanWorld-1
业界首个开源的3D世界生成模型,可实现沉浸式、可探索、可交互的3D世界生成。
基于FLux,479Mb
3D世界生成模型
图片生成
百度云4机A800测试RAG技术汇总(4)高级检索方法
Loading...