llama2cpp
本地部署llama2
根据B站视频攻略做的部署,无需GPU,本地部署Llama2-13B模型
- 首先就是要在windows环境下安装wsl,这个是模拟linux环境的
查看有哪些linux系统可以进行安装1
wsl --list --online
- 复制你想安装的系统名称进行安装再根据要求创建用户名密码就行
1
wsl --install -d sys_name
- 更换存储区域,默认下载的wsl是下载在C盘,需要更换一下 ~~我的C盘不多了。
1
2
3
4wsl -l -v # 显示已经安装了的系统
wsl --export sys_name target_dir # sys_name=你的系统命, target_dir就是目标路径,我的是D:\Ubuntu-22.04.tar
wsl --unregister sys_name # 将原来的删除
wsl --import sys_name source_dir target_dir --version 2 # source_dir就是你希望它存储的位置 - 启动!
1
wsl --distribution sys_name --user user_name # user_name是之前设置的用户名
- 在wsl中下载miniconda
1
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
得等个二十分钟左右,我就是在等的时候写的这个东西。。😭
下载完成后
1 | bash Miniconda3-latest-Linux-x86_64.sh |
然后阅读协议,一直回车然后yesyesyes就完成了安装
刷新环境
1
2
3source ~/.bashrc # 会进入base环境
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ # 添加conda镜像
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple # 添加pip镜像下载llama和llama.cpp,然后进入llama
1
2
3
4git clone https://github.com/facebookresearch/llama.git
git clone https://github.com/ggerganov/llama.cpp.git
cd llama
ll进去之后可以看到有专门下载模型的脚本,然后要去官网获取下载链接
夭折!!
下载LLAMA模型的表单提交不了!提示“There was an error submitting your email address.”
算了, 用huggingface试试google gemma?
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 狗窝🐕!