none.gif

95807350

gpt3.5的token有限制怎么破,导入历史之后还是显示这个

“This model’s maximum context length is 4097 tokens.这个怎么解决啊,这不就不连贯了嘛

none.gif

五九

现阶段我的做法就是快到4097 tokens极限时,让ai总结一下上面对话的核心内容,这样能多少帮助它往下延伸

【请帮我总结一下上述对话的内容,实现减少tokens的同时,保证对话的质量。】

none.gif

95807350

回 1楼(五九) 的帖子

我昨天看到别人发的帖子里,也是用的这个方法,好像是有可行性的