通过提前预热,优化大模型分析文章的速度体验

现在读书经常会遇到章节加载分析的过程浪费时间,比如使用某些较慢的api,甚至需要30-60秒, 太影响用户体验了。所以提出以下两个方案:

方案1:每次提前预热1-2个章节,这样用户读书是一直没有卡顿的。

方案2:增加全书后台预热分析的选项

Please authenticate to join the conversation.

Upvoters
Status

Completed

Board
💡

Feature Request

Date

About 1 year ago

Author

li mo

Subscribe to post

Get notified by email when there are changes.