无图版
帮助
论坛首页
登录
注册
讨论区
搜索
社区服务
屏蔽配置
刷新黑名单
好奇模式
清空列表
管理列表
■
帖子 |
■
头像
社区论坛任务
用户名
UID
Email
认证码
点此显示验证码
热门版块:
茶馆
免空资源区
询问&求物
同人音声
网赚资源区
游戏资源
Soulplus
Wind
用户中心首页
编辑个人资料
查看个人资料
好友列表
用户权限查看
积分管理
积分转换
特殊组购买
收藏夹
我的主题
基本统计信息
到访IP统计
管理团队
管理统计
在线统计
会员排行
版块排行
帖子排行
个人首页
我的收藏
好友近况
南+ South Plus
AI交流 (beta)
我这个5k的配置能跑ai吗
漫区特设
Comic Market 103
Comic Market 102
サンクリ
Comic1☆
其他同人志
一般漫画
例大祭&紅楼夢
汉化本发布
旧物仓库
蜜柑计划
- 蜜柑计划 - Mikan Project
综合交流
ACG交流
轻小说
原创绘画
原创小说区
询问&求物
茶馆
AI交流 (beta)
免空资源区
网赚资源区
人民囧府
事务受理
上一主题
下一主题
新 帖
|
浏览器收藏
|
打印
LEISP
作者资料
发送短消息
加为好友
UID:
1117604
精华:
0
发帖:
53
HP:
0 点
SP币:
147 G
昵称: LEISP
在线时间: 184(小时)
注册时间:
2019-04-05
最后登录:
2024-04-20
GF
2023-06-13 22:28
只看GF
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
我这个5k的配置能跑ai吗
rt,lz用的是6750xt和i52400f,不知道能不能跑
顶端
回复
引用
分享
psychopath
作者资料
发送短消息
加为好友
UID:
737685
精华:
0
发帖:
1377
HP:
0 点
SP币:
2528 G
昵称: psychopath
在线时间: 561(小时)
注册时间:
2016-10-14
最后登录:
2024-05-02
B1F
2023-06-13 22:30
(1203456)
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
AI需要大显存,chatglm最低需要7-14g的显存
顶端
回复
引用
分享
newste
作者资料
发送短消息
加为好友
UID:
1515750
精华:
0
发帖:
144
HP:
0 点
SP币:
997 G
昵称: newste
在线时间: 208(小时)
注册时间:
2021-12-13
最后登录:
2024-05-03
B2F
2023-06-13 22:31
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
a卡只能在linux下面跑
顶端
回复
引用
分享
所罗门大卡车
作者资料
发送短消息
加为好友
UID:
1762049
精华:
0
发帖:
34
HP:
0 点
SP币:
315 G
昵称: 所罗门大卡车
在线时间: 3(小时)
注册时间:
2023-03-08
最后登录:
2023-12-28
B3F
2023-06-13 22:31
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
看你跑什么AI了,画图A卡好像几个月前可以了,B站有人出整合包
如果是GPT那样的语言模型,哪怕N卡也不行,没个几十GB显存,说不了几句话就崩了
顶端
回复
引用
分享
工人之口
作者资料
发送短消息
加为好友
UID:
154509
精华:
0
发帖:
3939
HP:
0 点
SP币:
4406 G
昵称: 工人之口
在线时间: 1729(小时)
注册时间:
2012-09-22
最后登录:
2024-05-04
B4F
2023-06-13 22:35
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
主流环境都是N卡,你用a卡不是找虐吗?
顶端
回复
引用
分享
火星提督
作者资料
发送短消息
加为好友
UID:
1492750
精华:
0
发帖:
20
HP:
0 点
SP币:
75 G
昵称: 火星提督
在线时间: 102(小时)
注册时间:
2021-11-03
最后登录:
2024-02-24
B5F
2023-06-13 22:43
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 3楼(所罗门大卡车) 的帖子
https://www.south-plus.net/read.php?tid-1852380.html
可以来试试我介绍的前端和推荐的本地模型,非常稳定。
顶端
回复
引用
分享
完全
作者资料
发送短消息
加为好友
UID:
537850
精华:
0
发帖:
954
HP:
0 点
SP币:
2913 G
昵称: 完全
在线时间: 733(小时)
注册时间:
2015-01-18
最后登录:
2024-05-02
B6F
2023-06-13 22:46
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
主流应该是用N卡吧
顶端
回复
引用
分享
fc8f52f6
作者资料
发送短消息
加为好友
UID:
870656
精华:
0
发帖:
134
HP:
0 点
SP币:
931 G
昵称:
在线时间: 180(小时)
注册时间:
2017-10-28
最后登录:
2024-04-28
B7F
2023-06-13 22:52
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
a卡没cuda拿命跑,太慢了
顶端
回复
引用
分享
初如恋
作者资料
发送短消息
加为好友
UID:
1265691
精华:
0
发帖:
432
HP:
0 点
SP币:
2304 G
昵称: 初如恋
在线时间: 374(小时)
注册时间:
2020-01-14
最后登录:
2024-05-04
B8F
2023-06-13 22:53
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
a卡跑ai本来就费劲
顶端
回复
引用
分享
25425
作者资料
发送短消息
加为好友
UID:
214363
精华:
0
发帖:
1460
HP:
0 点
SP币:
0 G
昵称: 25425
在线时间: 439(小时)
注册时间:
2013-03-19
最后登录:
2024-05-04
B9F
2023-06-13 22:58
只看该作者
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
被美国制裁后我们实验室现在正在转向amd的dcu卡,现在rocm已经很成熟了,cuda的代码不用改就能跑。问题是rocm不支持windows,个人用户可能比较难受,Microsoft的那个directML可以用不过慢
顶端
回复
引用
分享
上一主题
下一主题
南+ South Plus
AI交流 (beta)
[-- 查看移动版 --]