都说DeepSeek的智能大模型是最好用的一个模型,今天我也来试试,看看我们人脑和AI哪个好用。
做一道最简单的选择题,问一个最简单的问题,2.12和2.8哪个大?
没想到DeepSeek非常快速的回答,2.12竟然比2.8要大,2.16也比2.6大,但问1.15和1.6哪个大,DeepSeek就回答说1.6大,第二次的回答又是1.15大,难道是大模型没反应过来吗?
人家还分析了原因,1.15 比 1.5 大的原因如下:
1. 根据小数位数比较,1.15 有两位小数(15),而 1.5 只有一位小数(5)。为了便于比较,可以将 1.5 写成 1.50。
2. 根据逐位比较,整数部分相同,都是 1。
第一位小数:1.15 是 1,1.50 是 5。1 < 5,因此 1.15 < 1.50。
所以,1.15 比 1.5 大。
1.15元红包 比 1.5元红包大。原因如下:
1.根据 整数部分对此,两个红包的整数部分都是1元。
2. 根据小数部分对比, 1.15元的小数部分是0.15元。1.5元的小数部分是0.50元。
比较小数部分,0.15元 < 0.50元,因此1.15元红包比1.5元红包小。
这个回答前面部分是1.15元红包 比 1.5元红包大,后面总结又是1.15元红包比1.5元红包小。
这个怎么解释,到底该相信自己的大脑还是相信智能大模型,是因为太简单了,还是回答太快了,或者说大模型只能作为参考,还是需要自己去修改。
比如说写一篇文章,我输入大概的文章题目和主题思路要求,DeepSeek它就给我出来一篇看上去非常好的文章,我就进行了简单的修改,这篇文章是Ai创作还是我自己原创作品呢?
经过不同的智能大模型试用,得出这样一个规律,写普通的情感文章是没问题,比如说小说、网文、故事会等是可以的,反正都是虚构的。
但如果是实事的新闻,最近刚发生的事件,大模型还是欠缺的,因为大模型没有相关的数据,没有原创作品,大模型就没有可以参考文献,也就润色不了,只有刚发生的一件事有多篇原创文章发表过以后,大模型才可以通过这些原创文章的蒸馏可以写出文章,没有原创文章,大模型也没有这个能力写出刚刚发生事件的文章。
如果有免费的牛奶可以领,你还会养奶牛吗?
说白了就是复杂的事情用算力在原来的基础上进行压缩和总结,出来的就是你需要的答案,这就是DeepSeek。