Posted in

【回顾】微软开源专注加快大模型推断速度_AI阅读总结 — 包阅AI

包阅导读总结

1. 关键词:

– 微软

– 大模型推断

– LLMLingua

– 开源项目

– 语言模型

2. 总结:

本文介绍了微软开源的 LLMLingua 项目,该项目专注于加快大模型推断速度和增强关键信息感知,能压缩提示和 KV-Cache,达 20 倍压缩效果且性能损失小,可通过 pip 安装,项目有活跃的开发团队和显著成果。

3. 主要内容:

– 背景介绍

– 大规模语言模型推理面临加快速度、增强关键信息感知、压缩 prompt 提示和 KV-Cache 等问题。

– 项目介绍

– LLMLingua 由微软开发,能加快大模型推断速度和增强关键信息感知,压缩提示和 KV-Cache 效果显著。

– 推出 LongLLMLingua 工具解决模型迷失问题,提高长上下文信息处理能力。

– 如何使用

– 通过 pip 安装,示例代码展示压缩提示的操作。

– 项目推介

– 由经验丰富团队开发维护,在相关方面成果显著,提供项目地址和成员信息。

思维导图:

文章地址:https://mp.weixin.qq.com/s/3ZGMnvTF-RnQZAHyBJptmA

文章来源:mp.weixin.qq.com

作者:精选君

发布时间:2024/6/14 4:34

语言:中文

总字数:926字

预计阅读时间:4分钟

评分:81分

标签:微软,开源,大规模语言模型,推断速度,提示压缩


以下为原文内容

本内容来源于用户推荐转载,旨在分享知识与观点,如有侵权请联系删除 联系邮箱 media@ilingban.com

大家好,又见面了,我是 GitHub 精选君!

背景介绍

在大规模语言模型推理过程中,我们经常会面临几个问题:如何加快语言模型的推理速度;如何增强语言模型对关键信息的感知;如何压缩 prompt 提示和 KV-Cache。这些问题让人头痛,很多解决起来需要很多人力和资源投入。

今天要给大家推荐一个微软开源的项目 LLMLingua,该项目在 GitHub 有超过 1.2k Star,用一句话介绍该项目就是:“To speed up LLMs’ inference and enhance LLM’s perceive of key information, compress the prompt and KV-Cache, which achieves up to 20x compression with minimal performance loss. ”。

项目介绍

LLMLingua 是一个由微软开发的专注于加快大规模语言模型 ( LLMs ) 的推断速度和增强模型对关键信息感知的开源项目。通过创新的方式压缩提示和 KV-Cache,LLMLingua 能达到高达 20 倍的压缩效果,而且性能损失微乎其微。无论是 GPT2-samll,还是 LLaMA-7B,LLMLingua 都能有效地识别并移除非必需的提示字符串,从而实现高效的大规模语言模型推断。在微软的 LLMLingua 项目中,还推出了 LongLLMLingua 工具,它专门解决 LLMs 中在交流的中部模型迷失的问题,增强了长上下文信息处理的能力。只使用 1/4 的 Token,就可以提高达 21.4% 的 RAG 性能。

当前大模型的应用现状:

LLMLingua 的架构:

LLMLingua 的效果:

如何使用

使用 LLMLingua 的过程非常简单,通过 pip 即可快速安装,运行pip install llmlingua。然后,你就可以使用(Long)LLMLingua 来压缩你的提示了,代码如下:

fromllmlinguaimportPromptCompressor
llm_lingua=PromptCompressor()
compressed_prompt=llm_lingua.compress_prompt(prompt,instruction="",question="",target_token=200)

#>{'compressed_prompt':'Question:Samboughtadozenboxes,eachwith30highlighterpensinside,for$10eachbox.Hereangedfiveofboxesintopackagesofsixlterseachandsoldthem$3per.Hesoldtherestthetersseparatelyattheofthreepens$2.Howmuchdidmakeintotal,dollars?\nLetsthinkstepstep\nSambought1boxesx00oflters.\nHebought12*300tersintotal\nSamthentook5boxes6ters0ters.\nHesoldtheseboxesfor5*5\nAfterellingtheseboxestherewere3030highlightersremaining.\nTheseform330/3=110groupsofthreepens.\nHesoldeachofthesegroupsfor$2each,somade110*2=$220fromthem.\nIntotal,then,heearned$220+$15=$235.\nSincehisoriginalcostwas$120,heearned$235-$120=$115inprofit.\nTheansweris115',
#'origin_tokens':2365,
#'compressed_tokens':211,
#'ratio':'11.2x',
#'saving':',Saving$0.1inGPT-4.'}

##Orusethephi-2model,
##Beforethat,youneedtoupdatethetransformerstothegithubversion,likepipinstall-Ugit+https://github.com/huggingface/transformers.git
llm_lingua=PromptCompressor("microsoft/phi-2")

##Orusethequantationmodel,likeTheBloke/Llama-2-7b-Chat-GPTQ,onlyneed<8GBGPUmemory.
##Beforethat,youneedtopipinstalloptimumauto-gptq
llm_lingua=PromptCompressor("TheBloke/Llama-2-7b-Chat-GPTQ",model_config={"revision":"main"})

项目推介

作为微软发布的开源项目,LLMLingua 是由经验丰富的开发者团队开发的,他们定期更新和维护此项目,致力于为 LLMLingua 提供最新的功能和改进。根据多篇学术论文的研究表明,LLMLingua 在压缩提示、加速推断、增强大规模语言模型的信息处理能力等方面取得了显著的成果。

以下是该项目 Star 趋势图(代表项目的活跃程度):

更多项目详情请查看如下链接。

开源项目地址:https://github.com/microsoft/LLMLingua

开源项目作者:microsoft

以下是参与项目建设的所有成员:

关注我们,一起探索有意思的开源项目。

点击如下卡片后台回复:加群与技术极客们一起交流人工智能、开源项目,一起成长。如果你正在寻求开源项目推广、DevOps、AIGC 大模型、软件开发等领域的付费服务,可参考推文了解详情。