标签
大模型
共 3 篇文章
2026-03-25
AI原理图解
图解 KV Cache 优化:大模型推理加速的核心技术
深入理解 Transformer 推理中的 KV Cache 机制,掌握 PagedAttention、Prefix Caching 等 2026 年最新优化技术,实现 2-5 倍推理加速。实战演示 vLLM、Continuous Batching、KV 量化等核心技术。
2026-03-22
国内AI日报
国内 AI 日报 | 华为昇腾 950PR 重塑算力格局,DeepSeek V4 倒计时
华为昇腾 950PR 发布,DeepSeek V4 倒计时,BAT 加码 AI 超级入口,小鹏跳过 L3 直攻 L4,AI 机器人新赛道 2000 亿
2026-03-03
国内AI日报
国内 AI 日报 | 2026 年 3 月 3 日
国产大模型竞争白热化,BAT 大厂 AI 战略落地,昇腾芯片生态扩张,自动驾驶商业化提速,AI 应用多领域开花。