本项目使用 AI 为您总结了 Bilibili 视频。
演示地址:
https://b.jimmylv.cn/
https://chat-bilibili-video.vercel.app/
演示截图:
演示视频:
怎么运行的
该项目使用OpenAI GPT-3.5 API(特别是 gpt-3.5-turbo)和Vercel Edge 函数,以及用于 Redis 缓存和速率限制的流和Upstash 。
它获取 Bilibili 视频上的内容,将其发送到 GPT-3 API 以通过 Vercel Edge 函数对其进行汇总,然后将响应流式传输回应用程序。
节约成本
像这样的项目可能会变得很昂贵,所以如果您想制作自己的版本并公开分享,为了节省成本,我推荐三件事:
1.实施速率限制,这样人们就不能滥用你的网站
2. 实施缓存以避免昂贵的 AI 重新生成
3.在边缘函数中使用text-curie-001 而不是 text-dacinci-003summarize
本地运行
克隆 repo 后,去OpenAI创建一个帐户并将你的 API 密钥放在一个名为.env
然后,在命令行中运行该应用程序,它将在 http://localhost:3000
npm run dev
一键部署
使用Vercel部署示例:
https://vercel.com/new/clone?repository-url=https://github.com/JimmyLv/BiliGPT&env=OPENAI_API_KEY&project-name=chat-bilibili-video&repo-name=chat-bilibili-video
GitHub项目库:
请先登录后发表评论!
api接入的质量比openai网页版质量要低一个档次 我拿原网页和api接入 做了个回答质量对比 api的有时候会机翻 逻辑不明确 网页版就显得像是人为翻译
Zgy api接入的质量比openai网页版质量要低一个档次 我拿原网页和api接入 做了个回答质量对比 api的有时候会机翻 逻辑不明确 网页版就显得像是人为翻译