chatGPT也没有传说中的那么强大啊

以下为小众论坛的和另一个套壳的AI,供大家欣赏,另请教该问题的答案:smiley:


自己捣鼓了一下,不知道对不对
图片

你推理当然要比AI强。不然你应该要抓紧时间学习了。

我发现了AI的一个好处,至少他不会骂街。哈哈,换个人这么折腾,早就骂街了。

1 个赞

暂时好像还没见过骂街的,但见过好多改答案的(说它不对就改那种):joy:

1 个赞

说这不行那不行是没有意义的
如果你把chatgpt当作工具,我想说有才能的人创造工具, 聪明的人利用工具.用正确的工具做合适的事情
如果你把chatgpt当作人,想想你和一个人如何沟通,你只付了电话费的前提下如何从合适的人嘴里得到有效信息

2 个赞

有道理,机器到啥时候也只是机器

其实我设想中chatGPT的使用场景是“爱相随”。
目前它能做的暂时还没有超出人类理解范围,它能做的人类都能做。能利用它做到什么目前做不到的事情才是课题,如果存在这么一片空地的话,它可以拉平普通人与大牛的知识积累差距

不要小看了chatgpt.

3.5的参数是1750亿(文本) 4代的参数是100万亿.(文本-图片-视频)

也就是说, ChatGPT的迭代进化会非常快.

而 AI 目前最大的能力就是高效率.

ChatGPT4 的高校测试成绩, 已经超越80%的普通大学生.

这个很可怕了.

而且 AI的进化迭代不是通过人类, 而是自我更新. 所以它的迭代是指数级变化.

人类的大脑大约是200万亿.

也就是说, 当ChatGPT 迭代到5 代时, 已经可以媲美人类了.

因为论坛用的是GPT3,不是GPT4,逻辑推理能力还有所欠缺,而且不会的题会乱答,不够准确。
而且GPT最大的问题不是它做不到,而是使用者不会提问。

但也没必要神话ChatGPT,它本质上仍然只是个语言生成模型,或者更进一步的,万能函数模拟器。

但这并不意味着它真的有逻辑分析能力,至少Transformer模型的结构并不具备这种功能。它能够解答这些标准化测试题目的原因是因为训练数据中包括了类似的题目和答案,并且训练过程中有提供相关的思维链。没有任何理由认为chatgpt能解决NP问题或者黎曼猜想,因为这些问题的答案根本不在训练数据中,人类也无法提供针对这些问题的监督信息。换句话说,目前这些语言模型的能力不可能高于人类。

这个观点是错误的。深度学习模型的所谓“进化迭代”可以被分为两类:一类是模型本身的优化,包括模型结构、损失函数、训练范式、数据预处理方法、训练超参数等,这些目前主要还是由人来设计,而AutoML、神经网络结构搜索(NAS)等技术仍然存在一些局限性(搜索空间太大,计算量过高等)。另一类是模型参数在训练过程中的优化,本质上是通过梯度下降法最小化损失函数的过程,得益于自动求导等机制,这一部分是能够自动完成的,也就是很多自媒体所谓的“自我更新”。这个过程本质上是在让深度模型去拟合某个未知的函数,理论上说如果整个宇宙运行的规律可以用函数来描述,那总有某个深度模型能够在一定程度拟合它。不过现实是也只是能在一定程度上拟合(没有免费午餐定理),并且宇宙这个函数本身就是混沌的,甚至根本就没有这个函数……

此外关于GPT的详细内容可以看一下哈工大的调研报告,可能有很多人的python也是跟着车万翔老师学出来的。

4 个赞

没有那么强大是真的,但真相本身也是有费用的,只是预算够不够而已。最终转换为一般等价物,甚至背后的人类劳动量的问题。