【chainlit】使用chainlit部署chatgpt

💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。
img

  • 推荐:kuan 的首页,持续学习,不断总结,共同进步,活到老学到老
  • 导航
    • 檀越剑指大厂系列:全面总结 java 核心技术点,如集合,jvm,并发编程 redis,kafka,Spring,微服务,Netty 等
    • 常用开发工具系列:罗列常用的开发工具,如 IDEA,Mac,Alfred,electerm,Git,typora,apifox 等
    • 数据库系列:详细总结了常用数据库 mysql 技术点,以及工作中遇到的 mysql 问题等
    • 懒人运维系列:总结好用的命令,解放双手不香吗?能用一个命令完成绝不用两个操作
    • 数据结构与算法系列:总结数据结构和算法,不同类型针对性训练,提升编程思维,剑指大厂

非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨

博客目录

    • 一.chainlit 简介
      • 1.官方文档
      • 2.python 安装
      • 3.安装 chainlit
      • 4.启动脚本
      • 5.一键启动
    • 二.docker 部署
      • 1.github 地址
      • 2.Dockerfile
      • 3.新增依赖
      • 4.部署步骤
      • 5.修改配置
      • 6.访问验证

一.chainlit 简介

1.官方文档

官方文档

github

langchain 方式

python

docker 启动 chainlit

2.python 安装

在 centos 服务器上安装 python3.10

安装依赖

#安装依赖库
sudo yum install gcc openssl-devel bzip2-devel libffi-devel zlib-devel wget sqlite-devel#下载python
wget https://www.python.org/ftp/python/3.10.0/Python-3.10.0.tgz#解压
tar -zxvf Python-3.10.0.tgz

安装python3.10

#进入目录
cd Python-3.10.0#校验
./configure --enable-optimizations#编译
make -j 8#安装
sudo make altinstall

验证

#验证
python3.10 --version

3.安装 chainlit

创建虚拟环境:

#创建虚拟环境
python3.10 -m venv myenv#激活虚拟环境
source myenv/bin/activate#退出虚拟环境
deactivate

安装依赖

#安装chainlit
pip install chainlit#安装langchain
pip install langchain

创建azure_demo.py文件,内容如下

import os
import chainlit as clfrom langchain.chat_models import ChatOpenAI
from langchain.schema import (HumanMessage,SystemMessage
)# 公司的key
os.environ["OPENAI_API_KEY"] = 'xxxxx'
os.environ["OPENAI_API_BASE"] = 'https://opencatgpt.openai.azure.com/'
os.environ["OPENAI_API_TYPE"] = 'azure'
os.environ["OPENAI_API_VERSION"] = '2023-05-15'chat = ChatOpenAI(model_name="gpt-35-turbo", engine="gpt-35-turbo")
history = [SystemMessage(content="你是一个聊天机器人,请回答下列问题。\n")]@cl.on_message  # this function will be called every time a user inputs a message in the UI
async def main(message: str):# history = [SystemMessage(content="你是一个聊天机器人,请回答下列问题。\n")]history.append(HumanMessage(content=message))res = await cl.make_async(sync_func)()# res = chat(history)# print(res.content)# this is an intermediate step# await cl.Message(author="Tool 1", content=f"Response from tool1", indent=1).send()# send back the final answerhistory.append(res)await cl.Message(content=f"{res.content}").send()def sync_func():return chat(history)

方式二:

import openai
import chainlit as clopenai.proxy = 'http://127.0.0.1:7890'
openai.api_key = "xxxx"
# model_name = "text-davinci-003"
model_name = "gpt-3.5-turbo"
settings = {"temperature": 0.7,"max_tokens": 500,"top_p": 1,"frequency_penalty": 0,"presence_penalty": 0,
}@cl.on_chat_start
def start_chat():cl.user_session.set("message_history",[{"role": "system", "content": "You are a helpful assistant."}],)@cl.on_message
async def main(message: str):message_history = cl.user_session.get("message_history")message_history.append({"role": "user", "content": message})msg = cl.Message(content="")async for stream_resp in await openai.ChatCompletion.acreate(model=model_name, messages=message_history, stream=True, **settings):token = stream_resp.choices[0]["delta"].get("content", "")await msg.stream_token(token)message_history.append({"role": "assistant", "content": msg.content})await msg.send()

4.启动脚本

nohup chainlit run azure_demo.py &

5.一键启动

echo `ps -ef | grep azure_demo | grep -v grep | awk '{print $2}'`
kill -9  `ps -ef | grep azure_demo | grep -v grep | awk '{print $2}'`
cd /kwan/chainlit
python3.10 -m venv myenv
source myenv/bin/activate
nohup  chainlit run azure_demo.py >/dev/null 2>&1 & exit

二.docker 部署

1.github 地址

Github

gitcode

2.Dockerfile

FROM python:3.11-slim-buster as builder#RUN apt-get update && apt-get install -y gitRUN pip install poetry==1.4.2 -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/ \
&& pip install DBUtils==3.0.3 -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/ \
&& pip install PyMySQL==1.1.0 -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/ENV POETRY_NO_INTERACTION=1 \POETRY_VIRTUALENVS_IN_PROJECT=1 \POETRY_VIRTUALENVS_CREATE=1 \POETRY_CACHE_DIR=/tmp/poetry_cacheENV HOST=0.0.0.0
ENV LISTEN_PORT 8000
EXPOSE 8000WORKDIR /appCOPY pyproject.toml poetry.lock ./RUN poetry config repositories.clearlydefined https://pypi.tuna.tsinghua.edu.cn/simple/RUN poetry config cache-dir /kwan/chainlit/demoRUN poetry config virtualenvs.create falseRUN poetry install  --without dev --no-root && rm -rf $POETRY_CACHE_DIR# The runtime image, used to just run the code provided its virtual environment
FROM python:3.11-slim-buster as runtimeENV VIRTUAL_ENV=/app/.venv \PATH="/app/.venv/bin:$PATH"COPY --from=builder ${VIRTUAL_ENV} ${VIRTUAL_ENV}COPY ./demo_app ./demo_app
COPY ./.chainlit ./.chainlit
COPY chainlit.md ./CMD ["chainlit", "run", "demo_app/main.py"]

3.新增依赖

#在pyproject.toml中新增依赖
[tool.poetry.dependencies]
python = "^3.10"
langchain = "0.0.199"
openai = "0.27.8"
chainlit = "0.5.2"
DBUtils = "3.0.3"
PyMySQL = "1.1.0"#执行poetry update会更新poetry.lock文件
poetry update

4.部署步骤

#创建缓存目录
mkdir -p /kwan/chainlit#进入目录
cd  /kwan/chainlit#下载源码
git clone https://github.com/amjadraza/langchain-chainlit-docker-deployment-template#进入目录
cd /kwan/chainlit/langchain-chainlit-docker-deployment-template#修改代码
/kwan/chainlit/langchain-chainlit-docker-deployment-template/demo_app#构建镜像
DOCKER_BUILDKIT=1 docker build --target=runtime . -t langchain-chainlit-chat-app:latest#启动容器
docker run -d --name langchain-chainlit-chat-app -p 8000:8000 langchain-chainlit-chat-app#删除容器
docker rm -f langchain-chainlit-chat-app#容器日志
docker logs -f langchain-chainlit-chat-app#所有容器
docker ps -a

5.修改配置

#修改chainlit的配置
cd /kwan/chainlit/.chainlit#修改markdown文件
cd  /kwan/chainlit

image-20230718175357634

6.访问验证

#页面验证
http://120.79.36.53:8000/#公司内网地址
http://10.201.0.6:8000/

觉得有用的话点个赞 👍🏻 呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄

💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍

🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙

img

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/129215.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

初学者如何选择:前端开发还是后端开发?

#开发做前端好还是后端好【话题征文】# 作为一名有多年开发经验的过来人,我认为前端开发和后端开发都有其独特的魅力和挑战。下面我将就我的个人经历和观点来分享一些关于前端开发和后端开发的看法。 首先,让我们将编程世界的大城市比作前端开发和后端开…

东土科技与诺贝尔物理学奖2006年度得主斯穆特签约,加快布局工业AI

近日,诺贝尔物理学奖2006年度得主乔治.斯穆特教授与东土科技正式签约,成为东土科技工业人工智能顾问。 乔治斯穆特(George Fitzgerald Smoot)教授也曾获得爱因斯坦奖,在宇宙学、大数据、生物医学诊断仪器以及人工智能…

岩土工程安全监测无线振弦采集仪在无线组网的关键要点

岩土工程安全监测无线振弦采集仪在无线组网的关键要点 岩土工程是一种奇特而又极其重要的工程。它涉及到土地、岩石、气候等等因素,需要重视安全因素。而无线振弦采集仪作为一种常用的监测设备,可以采集岩土工程中的振动数据,从而确保工程的…

【Bond随你温故Azure Architecture】之HADR篇

上次复盘数据保护策略还是在《数据需要找回怎么办?我们如何选择正确的恢复/退回方式?》探讨了在application&DB层面上,不同level的数据保护有不同策略。而它也恰好是今天HA&DR版图的一角(RDBMS部分)&#xff0…

九大装修收纳空间的设计,收藏备用!福州中宅装饰,福州装修

如果房子面积不大,收纳设计就显得非常重要。其实装修房子中很多地方都可以做收纳,九大空间每一处都可以放下你的东西,让你摆脱收纳烦恼。 收纳空间少的话,装修完后住久了怕会乱成一窝,因此装修的时候,收纳…

基于微信小程序的个人健康数据管理平台设计与实现(源码+lw+部署文档+讲解等)

文章目录 前言具体实现截图论文参考详细视频演示为什么选择我自己的网站自己的小程序(小蔡coding)有保障的售后福利 代码参考源码获取 前言 💗博主介绍:✌全网粉丝10W,CSDN特邀作者、博客专家、CSDN新星计划导师、全栈领域优质创作…

数据结构之堆,栈的实现

首先我们分析由于只需要尾进尾出,用数组模拟更简单。 实现的功能如上图。 top可以表示栈中元素个数。 capacity表示栈的容量。 首先是堆的初始化 再就是栈的插入和删除 然后实现显示栈顶元素 大小和检测是否为空的实现 销毁栈的实现(防止内存泄露&…

webserver项目

利用无锁工作队列的Web服务器设计 项目地址https://github.com/whitehat32/webserver_no_lock 基本流程与牛客版的一致,下面放一个牛客版的流程框图 引言 在Web服务器的设计与实现中,性能优化是永远不会过时的话题。一般来说,Web服务器需…

戏剧影视设计制作虚拟仿真培训课件提升学生的参与感

说起影视制作,知名的影视制片人寥寥无几,大多数人还在依靠摄影机拍摄实景或搭建实体场景来不断精进场景布局和导演效果,成本高、投入人员多且周期长,随着VR虚拟现实技术的不断发展,利用VR模拟仿真技术进行影视制作实操…

Flutter安卓混淆的相关问题

当你执行 build apk 后,flutter会默认进行混淆,若你的应用中引用了第三方的sdk,在debug模式下没问题,但在release下可能就会出现各种各样的问题,找不到某个类,或者某个功能无法使用,甚至直接崩溃…

C文件操作

目录 文件: 什么是文件 程序文件: 数据文件 文件操作理解: 文件名 文件的打开和关闭 文件指针 文件的打开和关闭 文件的使用方式: 文件的读写: ​编辑 fputc ​编辑fgetc fputs fgets perror fprintf ​…

LLMs 蒸馏, 量化精度, 剪枝 模型优化以用于部署 Model optimizations for deployment

现在,您已经了解了如何调整和对齐大型语言模型以适应您的任务,让我们讨论一下将模型集成到应用程序中需要考虑的事项。 在这个阶段有许多重要的问题需要问。第一组问题与您的LLM在部署中的功能有关。您需要模型生成完成的速度有多快?您有多…