您现在的位置是:首页 > 技术教程 正文

Python Flask 封装ChatGPT流式输出接口

admin 阅读: 2024-03-24
后台-插件-广告管理-内容页头部广告(手机)

首先, 恭喜你搜到了这篇文章, 因为, 我解决这个问题时, 也搜了很久的博客, 结果都无法正确实现

截至今日, 快有半年博客没有更新了, 今天忙里偷闲, 将最近在忙的事情做一个总结

之前搞了个域名, 做了个chatgpt的工具站, 欢迎大家体验, 可以评论区留下宝贵建议: www.ktatom.com

封装chatgpt的流式输出时, 碰到不少问题, 长话短说, 使用flask封装的代码如下:

@self.blue_print.route('/tool/chatgpt/stream_qa', methods=['POST']) def chatgpt_stream_qa(): from flask import request, Response '''ChatGPT Prompt''' logger.info('ChatGPT Prompt') openai.api_key = "自己的key" messages = request.json.get('messages', []) response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=messages, temperature=0.7, stream=True, timeout=20 ) def generate(): for trunk in response: yield json.dumps(trunk) + '\n' headers = { 'Content-Type': 'text/event-stream', 'Cache-Control': 'no-cache', 'X-Accel-Buffering': 'no', } return Response(generate(), mimetype="text/event-stream", headers=headers)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

起初没有加headers参数, 结果是一段一段输出, 各位可以试一下不传headers的效果

header参数解析(来自ChatGPT):

1、'Content-Type': 'text/event-stream' 这个参数指定了请求的内容类型。在这种情况下,'text/event-stream' 表示请求的内容是事件流(event stream)。事件流是一种在HTTP连接上持续发送事件的机制,通常用于服务器向客户端推送实时数据或事件。通过设置为 'text/event-stream',服务器可以告知客户端响应的内容遵循事件流的格式。 2、'Cache-Control': 'no-cache' 这个参数控制缓存的行为。'no-cache' 告诉客户端不要缓存响应,每次都要从服务器获取最新的内容。这可以确保客户端获得实时更新的事件流数据,而不是使用缓存的旧数据。 3、'X-Accel-Buffering': 'no' 这个参数是非标准的自定义头部,通常用于特定的服务器配置。在这种情况下,'X-Accel-Buffering' 设置为 'no' 表示服务器禁用了加速缓冲(accelerated buffering)。加速缓冲是一种在服务器和客户端之间缓冲响应数据的机制,以提高性能和吞吐量。通过禁用加速缓冲,服务器可以实现更实时的事件流传输,避免数据在缓冲区中滞留。 这些参数的设置可以根据具体需求进行调整,上述设置适用于需要实时推送事件流的情况,并确保客户端获得最新数据而不受缓存或缓冲的影响。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

此处特别感谢@临枫541同学, 前端代码都是由该同学完成, 目前大二, 实力十分强悍, 手动打call

标签:
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

在线投稿:投稿 站长QQ:1888636

后台-插件-广告管理-内容页尾部广告(手机)
关注我们

扫一扫关注我们,了解最新精彩内容

搜索