全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 1209|回复: 14
打印 上一主题 下一主题

[疑问] 有没有适合跑本地大语言模型的笔记本电脑

[复制链接]
跳转到指定楼层
1#
发表于 2025-11-11 00:04:02 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
最近调岗去做AI项目,啥都不懂,想自学先部署大语言模型,求懂行的兄弟推荐
推荐
发表于 2025-11-11 08:10:29 | 只看该作者
笔记本不适合跑大模型,配置再好的了不起能运行14b,那个效果基本不可用,还是远程调用吧
2#
 楼主| 发表于 2025-11-11 00:05:26 | 只看该作者
我自己研究了一下 似乎这颗APU[AI Max+ 395]比较适合本地部署大语言模型
但是围绕这颗APU打造的笔记本我只找到rog幻x2025 太贵了要2万块 有没有更加性价比高一点的推荐?
3#
 楼主| 发表于 2025-11-11 00:15:51 | 只看该作者
求老司机推荐
4#
发表于 2025-11-11 00:23:25 | 只看该作者
看你跑多大的模型
5#
 楼主| 发表于 2025-11-11 00:42:18 | 只看该作者
Backfire 发表于 2025-11-11 00:23
看你跑多大的模型

70B及以下
6#
发表于 2025-11-11 01:01:19 来自手机 | 只看该作者
Cstudent 发表于 2025-11-11 00:42
70B及以下

你这个太难了,量化24g显存跑个14b可能差不多
笔记本显存大的就5090 4090 16g 3万多,我感觉性价比不高建议2080 ti22g魔改卡2k多自己配台式机,跑ai应聘岗位一定要用nv,别用amd的apu
7#
 楼主| 发表于 2025-11-11 01:06:41 | 只看该作者
xy3666 发表于 2025-11-11 01:01
你这个太难了,量化24g显存跑个14b可能差不多
笔记本显存大的就5090 4090 16g 3万多,我感觉性价比不高建 ...

我不需要训练模型 我只是部署别人公司开源的大模型跑起来 做做工作流什么的
我查了一下[AI Max+ 395]这个APU似乎很适合干这个 支持96G显存
8#
发表于 2025-11-11 08:07:26 | 只看该作者
7B和14B可以可以看看。70B还想用笔记本跑,算了吧
10#
发表于 2025-11-11 08:23:06 | 只看该作者
目前个人跑大模型性价比最高设备之一的是Mac Studio M3 Ultra,512GB统一内存,最少也得要六七万
即使是稍低一点的256GB统一内存版本,也要四万起步
以你这个预算来看,要不去图吧问问?垃圾佬或许能满足这个需求
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-11-29 18:22 , Processed in 0.246733 second(s), 10 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表