Responsive image

95807350 - 2023-03-23 00:09 [GF]
“This model’s maximum context length is 4097 tokens.这个怎么解决啊,这不就不连贯了嘛


五九 - 2023-03-23 13:45 [B1F]
现阶段我的做法就是快到4097 tokens极限时,让ai总结一下上面对话的核心内容,这样能多少帮助它往下延伸

【请帮我总结一下上述对话的内容,实现减少tokens的同时,保证对话的质量。】


95807350 - 2023-03-23 18:44 [B2F]
我昨天看到别人发的帖子里,也是用的这个方法,好像是有可行性的






桌面版


Powered by SP Project v1.0 © 2010-2019
Time 0.932503 second(s),query:3 Gzip enabled


Top