none.gif

95807350

GF  2023-03-23 00:09

gpt3.5的token有限制怎么破,导入历史之后还是显示这个

“This model’s maximum context length is 4097 tokens.这个怎么解决啊,这不就不连贯了嘛

none.gif

五九

B1F  2023-03-23 13:45
现阶段我的做法就是快到4097 tokens极限时,让ai总结一下上面对话的核心内容,这样能多少帮助它往下延伸

【请帮我总结一下上述对话的内容,实现减少tokens的同时,保证对话的质量。】