标签专题 · 共 1 篇文章

# MoE架构

关于「MoE架构」的技术文章、设计资料与工程师讨论,持续更新。

1
篇文章
4
人关注
86
次浏览
DeepSeek V4发布:1M上下文白送,华为芯片直供

DeepSeek V4发布:1M上下文白送,华为芯片直供

4月24日,中国人工智能公司DeepSeek正式发布并开源全新系列模型DeepSeek-V4预览版。 该系列包含Pro与Flash两个版本,均支持百万字(1M)超长上下文。官方表示,V4在Agent能力、世界知识和推理性能三大维度上达到国内与开源领域领先水平,其中Pro版本性能可比肩世界顶级闭源模型。 双版本矩阵:旗舰对标顶尖,Flash普惠经济 DeepSeek-V4采用MoE(混合专家)架构