登录
|
注册
桌面版导航
搜索
社区论坛任务
停止自动跳转移动版
桌面版首页
南+ South Plus
AI交流 (beta)
gpt3.5的token有限制怎么破,导入历史之后还是显示这个
95807350
- 2023-03-23 00:09
[GF]
“This model’s maximum context length is 4097 tokens.这个怎么解决啊,这不就不连贯了嘛
回复
五九
- 2023-03-23 13:45
[B1F]
现阶段我的做法就是快到4097 tokens极限时,让ai总结一下上面对话的核心内容,这样能多少帮助它往下延伸
【请帮我总结一下上述对话的内容,实现减少tokens的同时,保证对话的质量。】
回复
95807350
- 2023-03-23 18:44
[B2F]
我昨天看到别人发的帖子里,也是用的这个方法,好像是有可行性的
回复
回复
表 情
桌面版
Powered by
SP Project
v1.0
© 2010-2019
Time 0.932503 second(s),query:3 Gzip enabled
Top