1117604.jpg

LEISP

我这个5k的配置能跑ai吗

rt,lz用的是6750xt和i52400f,不知道能不能跑

none.gif

psychopath

B1F  2023-06-13 22:30
(1203456)
AI需要大显存,chatglm最低需要7-14g的显存

9.png

newste

a卡只能在linux下面跑

none.gif

所罗门大卡车

看你跑什么AI了,画图A卡好像几个月前可以了,B站有人出整合包

如果是GPT那样的语言模型,哪怕N卡也不行,没个几十GB显存,说不了几句话就崩了

Fan-BB_20190322041925.gif

工人之口

主流环境都是N卡,你用a卡不是找虐吗?

none.gif

火星提督

回 3楼(所罗门大卡车) 的帖子

https://www.south-plus.net/read.php?tid-1852380.html
可以来试试我介绍的前端和推荐的本地模型,非常稳定。

none.gif

完全

主流应该是用N卡吧

870656.jpg

fc8f52f6

a卡没cuda拿命跑,太慢了

none.gif

初如恋

a卡跑ai本来就费劲

214363.jpg

25425

被美国制裁后我们实验室现在正在转向amd的dcu卡,现在rocm已经很成熟了,cuda的代码不用改就能跑。问题是rocm不支持windows,个人用户可能比较难受,Microsoft的那个directML可以用不过慢