全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 757|回复: 15
打印 上一主题 下一主题

开个帖子,用实例讲解deepseek如何胡说八道,被GPT和google打脸

[复制链接]
跳转到指定楼层
1#
发表于 2025-4-2 14:53:33 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 吊打华伪 于 2025-4-2 15:09 编辑

是这样的,昨晚睡觉前在被窝和deepseek说,int4模型显卡不支持要退回fp16计算,然后deepseek一直给我洗脑!

他说,int4反量化fp16后要回写显存或者内存,然后进行矩阵运算时要再次从显存或者内存读取。

然后我问为什么英伟达不把反量化后就进行矩阵运算,不就不用读取显存或者内存了吗?

deepseek又说,1.构架比较早,当时还没AI计算,英伟达没想到。 2. 市场需求,要兼顾游戏卡之类。。。

反正时baba说了一堆!



结果:

1.问了下openai 和google 2.5, 都坚决否认会二次读取显存或者内存!


一会下面分3楼把对话都发上来!  高下立判!



update:  
============================================
快来看,我还没发完数据,傻逼粉蛆就急眼了! 真是不管事实,只看立场!

我先不发了,等等看看还有多少傻逼急眼了
推荐
发表于 2025-4-2 15:08:15 | 只看该作者
好羡慕你天天专门找屎吃找得这么高潮 。。。

点评

排不上名次的急眼的粉蛆! 吃屎都没赶上热乎的!  发表于 2025-4-2 15:20
推荐
发表于 2025-4-2 15:10:32 | 只看该作者
我看什么立场,我只是针对你这个垃圾人,仅此而已

点评

第一条急眼的粉蛆!  发表于 2025-4-2 15:18
推荐
发表于 2025-4-2 15:04:48 | 只看该作者
好羡慕你每天都能高潮好几次
推荐
发表于 2025-4-2 14:57:20 | 只看该作者
DS是得罪你了吗,我的哥,你天天咬住不放 又是何必

点评

快来看,我还没发完数据,傻逼粉蛆就急眼了! 真是不管事实,只看立场!  发表于 2025-4-2 15:05
fuu
煞笔自有自己的逻辑,静静看煞笔表演就可以了  发表于 2025-4-2 14:59
推荐
发表于 2025-4-2 15:04:30 来自手机 | 只看该作者
哗众取宠而已
推荐
发表于 2025-4-2 15:05:04 | 只看该作者
DS胡言乱语我早就发现了啊.
他不能连续问答   GPT可以连续问答.  有时候甚至会更懂我的意思.就是回答的越来越好.
但是DS.一旦连续问答. 就开始胡言乱语..
2#
 楼主| 发表于 2025-4-2 14:55:07 | 只看该作者
2楼----deepseek 占楼
4#
 楼主| 发表于 2025-4-2 14:56:54 | 只看该作者
本帖最后由 吊打华伪 于 2025-4-2 15:04 编辑

3楼----chatGPT 占楼


运行int4模型,但是显卡不支持int4,只能退回fp16计算,现在问题是这个过程是否是先从显存读取int4后经过反量化到fp16后,要先写回显存,然后cuda再次读取显存后再进行矩阵运算? 也就是要二次读取数据???


ChatGPT 说:
推理关于显卡计算过程,持续 20 秒
通常情况下,不会发生二次读取显存的过程。大多数实现方案会在 CUDA 内核中直接将从显存中加载的 int4 数据进行反量化(转换成 fp16),这个转换通常在寄存器或共享内存中完成,然后直接用于矩阵运算,而不需要先写回全局显存后再重新加载数据。当然,具体细节可能依赖于具体的实现和优化方案,但高效的实现都会尽量避免额外的内存传输开销。



======================
BTW,  我这个免费号貌似问多了,被降低智商了,每次回答字数都不多,看来要换个号,缓一缓了
6#
 楼主| 发表于 2025-4-2 14:57:58 | 只看该作者
4楼----google 2.5 占楼
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-12-12 10:45 , Processed in 0.084506 second(s), 11 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表