刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中

DDD
发布: 2025-02-24 20:24:01
原创
274人浏览过

deepseek开源高效型mla解码核flashmla,助力hopper gpu推理加速!上周五deepseek预告开源周计划,并于北京时间周一上午9点开源了首个项目——flashmla,一款针对hopper gpu优化的高效mla解码内核,仅上线45分钟便收获400+star!

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

image.png

该项目Star数量持续飙升!

image.png

项目地址:https://www.php.cn/link/a588b762d68fe60225d3de3c647a52b9

FlashMLA的核心在于优化可变长度序列处理,减少推理过程中的KV Cache,从而在有限硬件资源下实现更长上下文推理,显著降低推理成本。 目前已发布的版本支持BF16精度和64大小的分页kvcache,在H800 SXM5 GPU上内存速度上限达3000 GB/s,计算上限达580 TFLOPS。

使用条件:

  • Hopper GPU
  • CUDA 12.3及以上版本
  • PyTorch 2.0及以上版本

快速上手:

安装:

影像之匠PixPretty
影像之匠PixPretty

商业级AI人像后期软件,专注于人像精修,色彩调节及批量图片编辑,支持Windows、Mac多平台使用。适用于写真、婚纱、旅拍、外景等批量修图场景。

影像之匠PixPretty 299
查看详情 影像之匠PixPretty
<code class="bash">python setup.py install</code>
登录后复制

基准测试:

<code class="bash">python tests/test_flash_mla.py</code>
登录后复制

在H800 SXM5上使用CUDA 12.6,内存绑定配置下可达3000 GB/s,计算绑定配置下可达580 TFLOPS。

使用方法示例:

<code class="python">from flash_mla import get_mla_metadata, flash_mla_with_kvcache

tile_scheduler_metadata, num_splits = get_mla_metadata(cache_seqlens, s_q * h_q // h_kv, h_kv)

for i in range(num_layers):
    ...
    o_i, lse_i = flash_mla_with_kvcache(
        q_i, kvcache_i, block_table, cache_seqlens, dv,
        tile_scheduler_metadata, num_splits, causal=True,
    )
    ...</code>
登录后复制

FlashMLA开源后获得广泛好评,甚至有网友调侃“第五天会是AGI”。

image.pngimage.pngimage.png

这无疑是真正的开源精神的体现!

以上就是刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中的详细内容,更多请关注php中文网其它相关文章!

AI工具
AI工具

AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型,支持联网搜索。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号