利用LangChain和大型语言模型系列模型, 提供基于本地知识的自动问答应用

  1. 安装环境
    1. python版本
    2. 选择paddle版本
    3. 验证安装
  2. 安装paddlenlp
    1. 测试paddlenlp模型
    2. 拉取仓库
      1. 切换到paddlepaddle目录
    3. 安装一些库
    4. 启动
    5. 使用
    6. cuda及cudnn
      1. 其他问题

安装环境

python版本

conda create -n showpaddle python=3.9.17

选择paddle版本

paddle

# gpu
python -m pip install paddlepaddle-gpu==0.0.0.post117 -f https://www.paddlepaddle.org.cn/whl/windows/gpu/develop.html
# cpu
python -m pip install paddlepaddle==0.0.0 -f https://www.paddlepaddle.org.cn/whl/windows/cpu-mkl-avx/develop.html

验证安装

# 打开终端
python
import paddle
paddle.utils.run_check()
# 成功
PaddlePaddle is installed successfully!

img

安装paddlenlp

paddlenlp

# 正常版本
pip install paddlenlp
# 最新dev
pip install --pre --upgrade paddlenlp -f https://www.paddlepaddle.org.cn/whl/paddlenlp.html

测试paddlenlp模型

from paddlenlp import Taskflow
chatbot = Taskflow("text2text_generation",batch_size=2)
results = chatbot(['您好!','很高兴认识你'])
print(results)

拉取仓库

git clone https://openi.pcl.ac.cn/Learning-Develop-Union/LangChain-ChatGLM-Webui.git

切换到paddlepaddle目录

安装一些库

pip install -r requirements.txt

启动

python app.py

使用

打开浏览器的地址

http://127.0.0.1:7860/

cuda及cudnn

v11.7

cuda

cudnn

其他问题

https://blog.csdn.net/weixin_40320590/article/details/113449230

https://blog.csdn.net/weixin_59997235/article/details/131337650

💰

×

Help us with donation