以前我想要自己折腾一些东西一通搜索下来一个像样的教程都没有,要么看不懂要么没有用,而且有时候你不知道自己该怎么搜索去表达自己遇到的问题,最终本来想随便玩玩,然后莫名其妙一夜过去了。
现在把Readme.MD扔给AI,错误代码无脑扔给AI,虽然也不是次次折腾成功,但效率高多了。
以前我想要自己折腾一些东西一通搜索下来一个像样的教程都没有,要么看不懂要么没有用,而且有时候你不知道自己该怎么搜索去表达自己遇到的问题,最终本来想随便玩玩,然后莫名其妙一夜过去了。
现在把Readme.MD扔给AI,错误代码无脑扔给AI,虽然也不是次次折腾成功,但效率高多了。
+1
前几年我努努力学东西,在报错的海洋里奋力扑腾,哭求大佬们指点迷津……终于开始理解了(然后发现 AI 的出现,直接把我的这些努力给抹平了。现在遇到一堆报错丢给 AI,基本都能解释,至少像我这种在入门阶段遇到的报错是应该能够解决的。而且好像有些技术也不太需要去学了,或者说太容易去学了,在不懂具体细节但是了解基本原理的情况下,靠着 AI 的辅助基本能够直接使用。
AI改变了我们的生活。
所以人类进化加速了
目前AI只在做程序上好用,其它方面可能不是很有用。
似乎真是这样,之前让 DeepSeek 写一些简单的命令(比如用 awk 从文本文档中每 5 行抽取一行、用 pdftk 给 pdf 文档加水印、用 go 语言写一个全角字符转半角的程序),它完成的都很不错。但我问一些化学类的问题,它就有点含糊了,比如:
已知某水样中含有氯离子、硫酸根离子、三价铁离子和三价铝离子,请设计一种简单的实验方案,检验该水样中是否含有二价铁离子。
二价铁离子(Fe²⁺)在酸性条件下能与硫氰酸钾(KSCN)反应生成红色络合物,通过观察颜色变化可判断是否存在Fe²⁺。
通过上述步骤,可初步判断水样中是否含有二价铁离子。若溶液变红,则存在Fe²⁺;否则,可能不存在。
很悲催的是,实验原理就选错了。个人推测出现如下问题的原因是:
这里能反应出,目前上网搜索的难度在变高,以及之前讨论过的“网络内容质量问题”。(这里我比较关注的是,发教程变得“不讨喜”,帮助他人回答问题,还可能要承担责任之类的)用搜索引擎直接搜的效果非常差。
据我了解,现在人们更倾向于去小红书、微信、抖音、bilibili、知乎等搜索问题,AI 出现后,直接问 AI 也经常能解决问题。
确实,前天我就发了一个感叹AI好用的,群晖docker导出的json文档,直接丢给AI,让它给我转换成docker compose.yaml。都是一遍成,还会根据容器的帮助文档来给出优化意见。直接解放双手和大脑
确实,其实AI的经验就是所有被分享的经验的总和。所以AI读取的“被分享的经验”质量高低直接决定了AI回答的质量高低。
我觉得有两个手段提高质量:一是排除低质量内容,二是多读取高质量内容
我能想到的最简单的三个办法是:人工标记、排除AI生成的内容(这个待定)、在作为参考前先自检该内容是否正确
您启发了我
是否可以提供给AI一个账号,让它在平台之内进行搜索——就像人们常做的那样?这在技术实现上并不难
这相当于动了平台的蛋糕,恐怕很难。
不过如果能提供一种规范的内容获取方式也好,这样或许 AI 运营商与网站运营商之间可以达成某种协议,例如 AI 公司向网站运营商支付适当的费用以换取其中内容用于训练,总比相互搞军备竞赛好得多。
可能因为互联网上关于代码的资料太丰富了。早些年外行想看懂开源代码、编程博客,还需要一些门槛,但现在经过AI的学习,外行也能在AI的帮助下进行简单的编程,行业壁垒的高度相比原来下降了一些。
AI学习能力的突飞猛进,甚至催生了「内容保护主义」,比如YouTube现在要登录账号才能看
前两天有人问了类似的,但是如 @VIctoryRoad 所说,恐怕很难。
技术实现的话,可以不用作为训练数据,而是作为回答时实时参考的数据。这种情况下,最劣就是直接使用用户账号,模拟用户行为。如果一次只需要几十条信息作为参考,这几乎是不可防御的
这是针对搜索引擎搜索不到的网站
另外同理,对于视频信息,或许可以先总结,然后也作为参考信息输入
恰好相反(我设想AI能读取网站内信息作为辅助,而引用贴设想在网站中使用AI辅助读取信息
AI 降低了信息获取的门槛
用来搜一些只知道作用或者大概样子,但不知道名字,甚至不知道有没有的东西,特别管用
搜索1.0时代,我们只能在目录导航、友链跳转的引导下获取沿途的信息
搜索2.0时代,我们可以通过关键词以"投石问路"的形式获取互联网上的局部信息
搜索3.0时代,我们可以通过 AI 汇总互联网上的相关信息
以获取小众软件上的某一内容的门槛为例:
1.0——需要是小众软件的用户且有看到相应文章
2.0——只需知晓相应关键词
3.0——有相应需求
补充:AI 所降低的门槛,人们会在别的地方加回来
关键是您提出的做法可能会导致一种现象:用户需要了解某一内容时,不需访问该网站,只需询问 AI 即可。这种情况会导致网站的用户流失,使其收入减少,因此目前很多网站才会在其内容的获取上层层设卡。
RSS 不就是这样带着淳朴和天真的理想死掉了
在内容产业链中,平台运营商原本的业务涵盖了中游加工+下游销售
当用户能通过 AI 绕过运营商自家平台直接获取其内容,实际就是大刀砍向运营商的核心盈利业务,把运营商打回中游当中间供应商
有道理(点头
以下是我对AI的一些看法,主要围绕 大语言模型 (LLMs) 展开,分为三个方面:
我觉得AI最大的优势在于它的整合能力。它能节省搜索和阅读的时间,尤其是对于不了解某个领域的人来说,AI可以快速整理信息,帮助他们理解。比如,很多不熟悉网络的人本身缺乏搜索和总结信息的能力,而AI直接代替他们完成了这一步,或者引导他们学会这一步。不管怎么说,这确实提升了效率。
AI的分析能力最近有了明显提升,尤其是通过像Deep Research这样的实时功能和思考能力。但它的表现取决于训练数据。如果是经过专门训练、优化的数据,AI的整合和分析都很出色;反过来,对于未被充分学习的基础领域 和需实时更新的前沿领域 ,即便借助Deep Research,AI仍难以做出创新性分析。虽然其底层机制本质上是概率统计,但通过注意力机制的重构能力(类似人脑的联想记忆),可以模拟出基础逻辑推理。不过在缺乏针对性的优化训练,这种推理在专业场景中的实用价值依然有限。
AI用的数据很可能会侵犯版权。举个例子,那些营销号短视频把电影浓缩成几十分钟,这种行为算不算侵权?对营销号和平台来说肯定有利,对用户的好处因人而异,但对原创者绝对是损害。原创者投入大量时间和精力的作品,未经许可就被拿走,稍微加工后用来盈利,这显然不公平。
这种行为可能违反了DMCA(数字千年版权法),而且是对作者的不尊重。不是每个原创者都愿意自己的作品被随意转载,更别说被绕过直接用来赚钱了。还有盗版文章、盗版书籍等类似情况,虽然部分用户可能支持这种行为(我不是说AI的全部数据都来自盗版,但这类数据应该不少),但这仍然是个问题。
AI就像一个整合工具,把这些内容汇总后生成总结。最近的实时功能还能爬取大量文章进行分析,而这些功能居然是正规市场上的商品?越来越多的人开始阻止AI访问他们的内容,甚至采取各种技术手段。如果AI公司愿意付钱购买数据,可能会有作者同意,但正版数据的费用不低。
问题是,公司会愿意承担这些成本吗?听说有些机构更倾向于购买盗版数据,这不就像一个技术更强的“超大营销号”吗?
未来AI搜索变得非常普及(用户可能别无选择,甚至不了解传统搜索引擎),内容创作者和AI公司可能会建立新的交易模式。这时,信息传播的审核可能会更集中。比如,如果某些类型的内容被限制,用户就很难通过AI搜索获取到。
这种趋势可能会引发关于信息获取便利性和选择权的讨论。虽然有需求的地方总会有办法,但获取信息的难度肯定会增加。