搜索
APP下载
扫码下载APP
关注我们
XHS
小红书
抖音
Facebook
X
YouTube
登录
注册
首页
热点资讯
互动论坛
同城服务
人才网
实用工具
搜索
每日签到
本地新闻
时事评论
华人世界
斯里兰卡资讯
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
本地新闻
全网热搜
华人世界
时事评论
中外新闻
斯里兰卡资讯
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
支票转换
便民电话
话费充值
实时汇率
每日签到
我的任务
道具商店
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
DeepSeek突破H800性能上限,FlashMLA重磅开源,算力成本 ...
菲龙网编辑部7
有 745 人收听 TA
158105
主题
158122
回复
184820
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/523
白宫宣布有“两个国王”?尴尬的远不止英国国王查尔斯
0/517
欧佩克“大群”,阿联酋为何想退就退?
0/468
“长期封锁”伊朗,美国的财政扛得住吗?
0/500
外媒:土耳其拒绝以色列总统专机飞越其领空
0/442
东西问丨田轩:不抄硅谷、不仿德国,中国金融支持创新如何走出“第三条路”?
0/445
东西问|王彩玲:将制度优势转化为治理效能,中国如何在长江书写“答卷”?
0/430
三亚亚沙会:中国体育代表团已创参赛历史最好成绩
0/471
中新人物丨“网红”导游迪丽努尔:想做一个小小而结实的桥梁
0/412
万万没想到,高德地图被民进党捧红了
查看TA的全部帖子>>
DeepSeek突破H800性能上限,FlashMLA重磅开源,算力成本还能降
时间:2025-2-25 09:22
0
902
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
白交 发自 凹非寺
量子位 | 公众号 QbitAI
DeepSeek开源周第一天,降本大法公开——
FlashMLA
,直接突破H800计算上限。
它是为Hopper GPU开发的高效MLA解码内核,专门针对可变长度序列进行了优化,目前已经投入生产。
MLA
,正是DeepSeek提出的创新注意力架构。从V2开始,MLA使得DeepSeek在系列模型中实现成本大幅降低,但是计算、推理性能仍能与顶尖模型持平。
按照官方介绍来说,FlashMLA使用之后,
H800可以达到3000GB/s内存,实现580TFLOPS计算性能
。
网友们纷纷点赞:向工程团队致以崇高的敬意,从Hopper的张量核中挤出了每一个FLOP。这就是我们将 LLM 服务推向新前沿的方式!
已经有网友用上了。
开源第一天:FlashMLA
目前GitHub页面已经更新。短短一小时,Star星数已经超过1.2k。
此次已经发布:
支持BF16;分页KV缓存,块大小为 64
快速启动:
环境要求:
Hopper GPUCUDA 12.3 及以上版本PyTorch 2.0 及以上版本
在项目的最后,它还表示,这是受到了
FlashAttention 2&3
和
英伟达CUTLASS项目
的启发。
FlashAttention是能实现快速且内存高效的精确注意力,主流大模型都有在用。最新的第三代,可以
让H100利用率飙升至75%
。
训练速度提升1.5-2倍
,FP16下计算吞吐量高达740TFLOPs/s,达理论最大吞吐量
75%
,更充分利用计算资源,此前只能做到35%。
核心作者是Tri Dao,普林斯顿大牛,Together AI的首席科学家。
而英伟达CUTLASS是CUDA C++ 模板抽象的集合,用于在 CUDA 内实现高性能矩阵-矩阵乘法 (GEMM) 和所有级别和规模的相关计算。
MLA,DeepSeek基本架构
最后再来说说,MLA,多头潜在注意力机制,DeepSeek系列模型的基本架构,旨在优化Transformer模型的推理效率与内存使用,同时保持模型性能。
它通过
低秩联合压缩技术
,将多头注意力中的键(Key)和值(Value)矩阵投影到低维潜在空间,从而显著减少键值缓存(KV Cache)的存储需求。这种方法在长序列处理中尤为重要,因为传统方法需要存储完整的KV矩阵,而MLA通过压缩仅保留关键信息。
V2版本中,这一创新性架构把显存占用降到了过去最常用的MHA架构的5%-13%,实现了成本大幅降低。它的推理成本仅为Llama 370B的1/7、GPT-4 Turbo的1/70。
而在V3,这一降本提速就更为明显,直接让DeepSeek吸引全球目光。
也就在今天,DeepSeek-R1 在HuggingFace上获得了超过10000个赞,成为该平台近150万个模型之中最受欢迎的大模型。
HuggingFace CEO发文公布了这一喜讯。
The whale is making waves!鲸鱼正在掀起波浪!
好了期待一下,接下来的四天会发些什么呢?
GitHub链接:
https://github.com/deepseek-ai/FlashMLA
参考链接:
https://x.com/deepseek_ai/status/1893836827574030466
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
浏览过的版块
菲龙广场
吃货天地
扫码添加微信客服
快速回复
返回列表
返回顶部