1 Star 2 Fork 1

fly-llm / candle-run-llm

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
贡献代码
同步代码
取消
提示: 由于 Git 不支持空文件夾,创建文件夹后会生成空的 .keep 文件
Loading...
README

使用平台

在autodl 上面使用。 https://www.autodl.com/create

选择 pytroch 2.1 版本,python3.10

先创建相关配置的容器,然后克隆本项目,执行运行某些模型脚本:

git clone https://gitee.com/fly-llm/candle-run-llm.git

#下载 candle 项目

git clone https://github.com/huggingface/candle.git 

使用rust镜像加速,统一设置环境变量

https://rsproxy.cn/

# 临时替换
export RUSTUP_DIST_SERVER="https://rsproxy.cn"
export RUSTUP_UPDATE_ROOT="https://rsproxy.cn/rustup"

export RUSTUP_HOME=/root/autodl-tmp/cargo
export CARGO_HOME=/root/autodl-tmp/cargo

source "/root/autodl-tmp/cargo/env"

export HF_HOME=/root/autodl-tmp/hf_cache

运行qwen-0.5b的聊天模型

模型地址:https://hf-mirror.com/Qwen/Qwen1.5-0.5B-Chat


python3 download.py Qwen/Qwen1.5-0.5B-Chat

cargo run --example qwen --features cuda -- --model-id Qwen/Qwen1.5-0.5B-Chat --prompt 北京景点推荐

cargo run --example qwen -- --model-id Qwen/Qwen1.5-0.5B-Chat --prompt 北京景点推荐

运行qwen-4b大模型

模型地址:https://hf-mirror.com/Qwen/Qwen1.5-4B-Chat


python3 download.py Qwen/Qwen1.5-4B

cargo run --example qwen --features cuda -- --model-id Qwen/Qwen1.5-4B-Chat --prompt 北京景点推荐

运行yi-6b的模型

模型地址:https://hf-mirror.com/01-ai/Yi-6B-Chat-4bits


python3 download.py 01-ai/Yi-6B-Chat-4bits

cargo run --example yi --features cuda -- --model-id 01-ai/Yi-6B --prompt 北京景点推荐

运行chatglm大模型,需要24G+显存,启动失败

模型地址:https://hf-mirror.com/THUDM/chatglm3-6b


python3 download.py THUDM/chatglm3-6b
python3 download.py lmz/candle-chatglm

cargo run --example chatglm --features cuda -- --prompt 北京景点推荐

空文件

简介

candle-run-llm 展开 收起
Python 等 2 种语言
取消

发行版

暂无发行版

贡献者

全部

近期动态

加载更多
不能加载更多了
1
https://gitee.com/fly-llm/candle-run-llm.git
git@gitee.com:fly-llm/candle-run-llm.git
fly-llm
candle-run-llm
candle-run-llm
master

搜索帮助