前言

Skip!
Skip!!
Skip!!!

前期准备

创建虚拟环境

1
conda create -n LangChain python=3.11

进入虚拟环境

1
conda activate LangChain

Python 版本

  • 确认你的 Python 版本为 3.11
1
python -V

LangChain 基础配置

拉取源码

1
git clone https://github.com/chatchat-space/Langchain-Chatchat.git

进入目录

1
cd ./Langchain-Chatchat/

安装依赖

1
2
3
python3 -m pip install -r requirements.txt
python3 -m pip install -r requirements_api.txt
python3 -m pip install -r requirements_webui.txt

设置指定版本依赖

SecGPT 基于 BaiChuan 然后环境配的一塌糊涂

1
2
python3 -m pip install --upgrade torch torchvision torchaudio
python3 -m pip install vllm==0.1.4 transformers==4.32.0

初始化配置文件

创建配置文件

1
python3 copy_config_example.py

修改模型配置文件

  1. 修改 model_config.py
1
sudo vim model_config.py
  1. 添加模型存放目录
1
MODEL_ROOT_PATH = "/home/ubuntu/model/"

模型下载

安装 Git LFS

  1. 下载 Git LFS
1
2
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
sudo apt-get install git-lfs
  1. 验证 Git LFS 安装
1
git lfs install

模型下载

  1. 创建存放模型的文件夹
1
2
mkdir /home/ubuntu/model
cd /home/ubuntu/model
  1. 下载官方依赖模型
1
git clone https://huggingface.co/BAAI/bge-large-zh-v1.5 BAAI/bge-large-zh-v1.5
1
git clone https://huggingface.co/BAAI/bge-reranker-large BAAI/bge-reranker-large
1
git clone https://huggingface.co/THUDM/chatglm3-6b-32k THUDM/chatglm3-6b-32k

初始化知识库

1
python3 init_database.py --recreate-vs

一键驱动

1
python3 ./startup.py -a

修改启动配置文件

1
sudo vim startup.py
1
2
3
4
5
6
# GPU的编号,如果有多个GPU,可以设置为"0,1,2,3"
args.gpus = "0,1"
# 每个卡使用的显存容量
args.max_gpu_memory = "22GiB"
# model worker的切分是model并行,这里填写显卡的数量
args.num_gpus = 2

运行成功?

CLI 界面

  • 第一次运行要输入一个邮箱

GUI 界面

  • SecGPT 知识库好像没调用起来

参考 & 引用

https://github.com/chatchat-space/Langchain-Chatchat/blob/master/README.md