包阅导读总结
1. 异构集群、Llama 3、Cake 框架、硬件设备、能耗问题
2. 老旧的 iPhone、iPad、MacBook 等设备能组成异构集群运行 Llama 3 模型,该集群支持多种系统,Cake 框架助力实现,代码已上传 GitHub,不过能耗问题引发网友担忧。
3.
– 异构集群
– 由 iPhone、iPad、MacBook 等老旧设备组成
– 支持 Windows、Linux、iOS 等系统,Android 支持即将到来
– Llama 3 模型
– 可在异构集群上顺畅运行
– Cake 框架
– Rust 框架,用于大模型分布式推理
– 将消费级硬件组合成异构集群
– 支持多种操作系统
– 思路是将 transformer 块分片到多个设备
– 分批进行推理以减少数据传输延迟
– 操作与优化
– 编译安装 Rust 后运行相关代码
– 可使用 cake-split-model 优化内存和磁盘空间
– 网友反馈
– 称赞项目作者不简单
– 担心能耗和数据损耗问题
思维导图:
文章地址:https://www.jiqizhixin.com/articles/2024-07-16-5
文章来源:jiqizhixin.com
作者:机器之心
发布时间:2024/7/16 7:16
语言:中文
总字数:876字
预计阅读时间:4分钟
评分:83分
标签:异构集群,AI 推理,消费级硬件,Rust 框架,Cake
以下为原文内容
本内容来源于用户推荐转载,旨在分享知识与观点,如有侵权请联系删除 联系邮箱 media@ilingban.com
这次,你手里的硬件设备也能在 AI 领域大展拳脚了。
将 iPhone、iPad、Macbook 进行组合,就能组装成「异构集群推理方案」, 然后顺畅的运行 Llama3 模型。
值得一提的是,这个异构集群可以是 Windows 系统,也可以是Linux、iOS 系统,并且对 Android 的支持很快到来。
异构集群正在运行中。
根据项目作者 @evilsocket 的介绍,这个异构集群包括 iPhone 15 Pro Max、iPad Pro、MacBook Pro (M1 Max)、NVIDIA GeForce 3080、2x NVIDIA Titan X Pascal。所有代码都已经上传到 GitHub。
看到这,网友纷纷表示,这位老哥确实不简单。
不过也有网友开始担心能耗问题,暂且不管速度,电费都耗不起。来回搬数据,损耗太大了。
项目介绍
上述功能的实现,离不开一个名为 Cake 的 Rust 框架。Cake 可以完成大模型(例如 Llama3)的分布式推理,旨在将消费级硬件组合成异构集群,其中消费级硬件采用多种操作系统,包括:iOS、Android、macOS、Linux 和 Windows,从而使 AI 更易于访问。
项目地址:https://github.com/evilsocket/cake
Cake 的主要思路是将 transformer 块分片到多个设备,以便能够让通常不适合单个设备 GPU 内存的模型运行推理。对同一工作线程上的连续 transformer 块的推理是分批进行的,以便最大限度地减少数据传输造成的延迟。
Cake 目前支持的系统和设备如下:
编译
安装 Rust 后,运行下列代码:
假如用户想要在应用程序中生成 iOS 绑定,可以进行下述操作:
使用
运行 worker 节点:
cake-cli --model /path/to/Meta-Llama-3-8B \ # model path, read below on how to optimize model size for workers
--mode worker \ # run as worker
--name worker0 \ # worker name in topology file
--topology topology.yml \ # topology
--address 0.0.0.0:10128 # bind address
运行 master 节点:
cake-cli --model /path/to/Meta-Llama-3-8B \
--topology topology.yml
其中 topology.yml 确定哪些层由哪个 worker 提供服务:
linux_server_1:
host: 'linux_server.host:10128'
description: 'NVIDIA Titan X Pascal (12GB)'
layers:
- 'model.layers.0-5'
linux_server_2:
host: 'linux_server2.host:10128'
description: 'NVIDIA GeForce 3080 (10GB)'
layers:
- 'model.layers.6-16'
iphone:
host: 'iphone.host:10128'
description: 'iPhone 15 Pro Max'
layers:
- 'model.layers.17'
ipad:
host: 'ipad.host:10128'
description: 'iPad'
layers:
- 'model.layers.18-19'
macbook:
host: 'macbook.host:10128'
description: 'M1 Max'
layers:
- 'model.layers.20-31'
关于内存和磁盘空间优化问题,用户可能希望只向 worker 提供模型中实际需要的数据,而不是整个文件夹,在这种情况下,可以使用 cake-split-model 。例如,要生成较小版本的 llama3 safetensors,可以采用如下代码:
cake-split-model --model-path path/to/Meta-Llama-3-8B \ # source model to split
--topology path/to/topology.yml \ # topology file
--output output-folder-name
参考链接:https://x.com/tuturetom/status/1812654489972973643