知乎已经完全禁止谷歌和必应搜索抓取其内容

你这个是什么插件?

死了就死了呗,又不是什么大不了的事情

现在就已经开始小红书搜索了:joy:

聚合搜索,教你做一个属于自己的搜索引擎! - 奔跑中的奶酪 (runningcheese.com)解君愁

百度还有百度知道这么个站点,知乎兴起以后就没落了,现在看来简直是殊途同归

知乎自从评论不让看之后,我就很少看了. 以前互联网评论还是能看到一些不错的内容.现在的文章水评论更水,两极化.

现在有些言论就是有组织、有纪律的散布的

1 个赞

我感觉是 很多Ai大模型在大量的抓取知乎内容导致知乎的防御.

否则的话, 知乎没有直接禁止爬虫索引就行了. 没必要像现在这样禁止显示内容.

1 个赞

万一在等一个合作的机会呢。毕竟数据拿来卖钱不要太爽

值得注意的是,今天早上蓝点网接到网友的反馈,知乎 robots.txt 文件已经在 4~5 月某个时候修改(具体时间可能是 5 月 22 日,与知乎强制登录时间近似),此次修改知乎仅允许百度搜索和搜狗(搜狗是新增的,之前禁止搜狗抓取内容)抓取其内容,不再允许其他搜索引擎内容。
知乎在几年前曾与百度达成合作因此在百度搜索中知乎的页面权重非常高可以获得更多点击量,现在只允许百度和搜狗而禁止其他一切搜索引擎,不知道知乎是否已经与百度达成了某些方面的协议。
目前的这种状况是用户在知乎发布的任何新内容,都不会被谷歌和必应收录了,也就是知乎所有新内容在谷歌和必应上都无法再查到。

蓝点网上看到的

嗯,肯定是不让白嫖了. 下面摘抄的内容与我的看法相似.

先是不再向未登录用户传输完整的回答数据,再是修改robots.txt、屏蔽谷歌和Bing,知乎的这一套组合拳指向性其实已经非常明确,为的就是不让谷歌和Bing再继续爬取自己的内容。

事实上,目前内容平台向AI厂商卖数据已经成为常态,并且不同于网络巨魔频出的Reddit,作为问答社区的知乎在内容质量上是更有保障的。当初微软的New Bing搞AI搜索时,就把知乎的回答作为了重要的参考文献。

知乎创始人周源在一年前发布“知海图AI”中文大模型的时候就曾强调,知乎拥有中文互联网大量高质量内容,这正是其研发大语言模型的优势所在。到了2024知乎发现大会,周源更是表示,专业、真实的真人分享,认真、友善的人际交流,和透明、高效的信息机制,让知乎可以成为AI时代的可信赖社区。由此可见,知乎管理层对于平台内容在AI领域的价值是有清晰认知的。
既然如此,无论是强制登录、还是禁止搜索引擎抓取,都是知乎为了避免自家内容被某些AI厂商抓取、成为训练AI大模型的语料,所做出的防御性措施。既然百度和腾讯是知乎的股东、是重要的合作伙伴,向其开放数据就是应有之义,而在业务上没有联系的微软和谷歌,自然是不可能继续免费获取数据了。但如果将知乎的这一操作视为是向谷歌和微软询价,似乎也不是不可以。

只可惜在这一过程中,知乎方面似乎没有把用户体验当回事。

1 个赞

不过这个事情…其实爬虫还是会爬的数据估计还是会存的,训练还是要练的,就是不给搜索用户展示而已。

总之感觉有点:weary:.

现在已经有国际科技巨头尝试用用户数据训练 AI 了

随着竞争的激烈, 它们一定会这么干的.

知乎出去开头几年的帖子有价值,后面的内容,要么是类似百度知道的白痴问题,要么就是一个账号全网分发的内容,有价值的回答极少。但相对简中互联网来说,已经算是比较优质的内容了。
想一想公众号……从一开始就是个罐头。

我今天听了一天conference。欧洲做立法的方面,已经开始为内容生产者提供法律支持了。当然,知乎这个例子。知乎拥有内容。新时代来了,又翻篇了。

知乎一開始只穿很少,後來越穿越多,現在大熱天的也穿的厚厚的,甚麼都看不見。

很多人對於知乎的用法是,在知乎發一份,其它的地方也發一份。知乎之所以發一份,是因為它利於檢索到。而當知乎不能再被搜索到時,相當一部份人就不往知乎發了。

相关话题:QQ小程式访问知乎乱码问题

每次访问都不一样



小程式无法登入知乎

疑是防止抓取所以干脆在客户端去意义化文本,但用户体验非常糟糕。

2 个赞