menu E4b9a6's blog
rss_feed
E4b9a6's blog
有善始者实繁,能克终者盖寡。

部署一个属于自己的ChatGPT

作者:E4b9a6, 创建:2023-02-13, 字数:3312, 已阅:34, 最后更新:2023-02-13

这篇文章更新于 649 天前,文中部分信息可能失效,请自行甄别无效内容。

1. 前言

ChatGPT非常惊艳,网上也有不少教程科普其原理,还有导入聊天记录训练定义数字化的自己之类的教程,非常有意思,这篇文章将记录实践部署一个类ChatGPT的对话机器人,实测有70%左右ChatGPT水平 在开始之前,先了解一下现在比较流行的几个常见语言模型

  • Vicuna:一款从 LLaMA 基础模型细调而来的聊天助手,用于用户共享的对话
  • Koala:一款从 LLaMA 基础模型 和开源数据集中细调而来的聊天机器人
  • OpenAssistant(oasst):一个面向所有人的基于聊天的助手
  • Dolly:由 Databricks 制作的指令调整型开放 LLM
  • ChatGLM:一种开源的双语对话语言模型
  • Alpaca:一款从 LLaMA 基础模型 中细调而来的模型,它使用 52K 的指令跟随演示进行训练
  • LLaMA:开放和高效的基础语言模型

本文基于Vicuna-13b作为说明,搭配FastChat搭建部署一个对话聊天机器人,该模型运行要求配置不低于以下标准

  • Gpu > 28G
  • Ram > 60G
  • Disk > 64G
  • 稳定的魔法网络环境

如果配置达不到要求,可以考虑下Vicuna-7b模型等对配置需求低一些的模型

我的系统是Ubuntu2204,实测Windows11也可以完美运行,操作系统请自行选择

2. FastChat

2.1. 环境准备

首先克隆FastChat仓库,并进入仓库

Bash
git clone https://github.com/lm-sys/FastChat
cd FastChat

2.2. 依赖安装

这里我安装了python3.10.10,确保Python版本高于3.7即可

创建虚拟环境并激活(可选)

Bash
python3.10.10 -m venv venv
source venv/bin/active

安装依赖

Bash
pip3 install --upgrade pip
pip3 install -e .

3. Vicuna-13b

3.1. 模型下载

FastChatVicuna-13b基础模型的基础上添加了部分权重,这部分过程需要我们手动添加

也可以在网上找到已添加的模型文件

Vicuna-13b的模型我选择了lmsysvicuna-13b-delta-v1.1,以下是仓库地址

首先创建存放模型的文件夹,再将仓库克隆到本地,注意这个仓库非常大,需要魔法网络确保下载速度

Bash
mkdir models && cd models
git lfs install
git clone https://huggingface.co/lmsys/vicuna-13b-delta-v1.1

3.2. 权重添加

按照FastChat仓库的要求,给Vicuna-13b添加自定义权重,以下转化要求配置不低于60Gb的RAM

Bash
python3 -m fastchat.model.apply_delta \
    --base-model-path models/vicuna-13b-delta-v1.1 \
    --target-model-path models/vicuna-13b-delta-v1.1-output \
    --delta-path lmsys/vicuna-13b-delta-v1.1

这个过程视网络情况而定,通常需要1个小时左右

3.3. 运行测试

等待模型合并完成之后,就可以运行测试,以下命令要求显卡不低于28Gb显存

Bash
python3 -m fastchat.serve.cli --model-path models/vicuna-13b-delta-v1.1-output

运行此命令后会得到一个CLI对话界面,此时可以正常测试对话效果

或者运行网页端查看效果

Bash
python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path models/vicuna-13b-delta-v1.1-output
python3 -m fastchat.serve.gradio_web_server

访问 http://127.0.0.1:7860 可以看到如下效果

4. 其他

4.1. CUDA(显卡驱动)

Ubuntu2204下安装CUDA,可以参考Nvidia官方文档

下面简述一下步骤

检查nvidia硬件情况,确保硬件安装没有问题

Bash
lspci | grep -i nvidia

确保gcc已安装

Bash
gcc --version

然后访问 developer.nvidia.com ,并根据情况选择操作系统,之后页面会给出安装命令,例如

Bash
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.1.1/local_installers/cuda-repo-ubuntu2204-12-1-local_12.1.1-530.30.02-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204-12-1-local_12.1.1-530.30.02-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2204-12-1-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda

验证安装结果

Bash
sudo nvidia-smi

4.2. 显卡监控

运行模型对显卡负担比较大,所以有必要实时监控显卡状态,Nvidia显卡可以参考下面这个仓库进行监控

使用方法非常简单,可以在上述的Vicuna-13b虚拟环境中安装nvitop

Bash
pip3 install --upgrade nvitop

直接运行后,效果如下

资料参考


[[replyMessage== null?"发表评论":"发表评论 @ " + replyMessage.m_author]]

account_circle
email
web_asset
textsms

评论列表([[messageResponse.total]])

还没有可以显示的留言...
gravatar
[[messageItem.m_author]] [[messageItem.m_author]]
[[messageItem.create_time]]
[[getEnviron(messageItem.m_environ)]]
[[subMessage.m_author]] [[subMessage.m_author]] @ [[subMessage.parent_message.m_author]] [[subMessage.parent_message.m_author]]
[[subMessage.create_time]]
[[getEnviron(messageItem.m_environ)]]