放开“不登录不给看全文”限制,知乎这回知道错了
原标题:放开“不登录不给看全文”限制,知乎这回知道错了
导读:
英伟达官方声明炮轰拜登政府声明本文来自微信公众号三易生活作者三易菌授权转载发布此前在去年月不声不响地为网页端添无法查看全文限制但近日这家问答社区却又悄然放开了这个限制用户无需登...
英伟达官方声明炮轰拜登政府
声明:本文来自微信公众号“三易生活”(ID:IT-3eLife),作者:三易菌,授权 转载发布。
此前在去年5月,不声不响地为网页端添 无法查看全文限制,但近日这家问答社区却又悄然放开了这个限制,用户无需登录即可直接浏览完整内容。
2024年5月有网友在社交 上反馈,非登录状态下访问知乎网页的问题回答页面、点击“展开阅读全文”,就会自动弹出登录窗口。不过由于用户在WAP端、也就是手机网页上以非登录状态仍可完整查看内容,表明知乎方面并未打算玩“打开App才能阅读全文”这个 。
彼时外界普遍认为,知乎方面采取非登录用户查看全文的限制措施是为了,以防AI厂商使用爬虫来抓取内容训练AI大模型。因为查看网页的源代码就会发现,在用户没有登 情况下,知乎压根就没有传输回答的完整数据,所以即使是通过技术手段来屏蔽登录弹窗,也不能在非登录状态下查看到完整的回答。
自从OpenAI用Ch GPT证明了Scaling law的正确性,即AI大模型的最终性能主要与计算量、模型参数量和训练数据量三者的规模大小呈正相关后,AI厂商就开始对算力和数据变得如饥似渴。
算力之于AI的作用显然毋庸置疑,OpenAI、微软、Meta、xAI等厂商大手笔地购买英伟达的算力芯片,甚至直接将后者托举成了全球最值钱的公司。而国内的AI厂商,更是绞尽脑汁地获取英伟达H100/H200。同时作为AI大模型的另一端,训练数据或者说语料的重要性,也已经成为了共识。
生成式AI的原理,大概可以总结为通过大量的语料库进行训练,以建立相应的模型,从而使得AI能够对人类的问题做出相应的回答和决策,它的核心逻辑就是“基于统计规律的模式生成”。经过大量的数据训练后,AI预测出问题的 其实并不等于拥有智慧,本质上与人类玩数独或填字游戏是一样的。只不过训练AI的数据规模过于庞大,就使得它的“猜谜”有了统计学意义。
Ch GPT为什么会表现得比以往的AI更聪明?单纯就是因为语料规模更大。要知道在相当长的一段时间里,机器学习研究领域并没有将数据量作为主要研究对象,数据一般被认为是被动变量,大量的研究集中在如何有效降低训练误差和如何控制模型复杂度上。
Scaling law无疑是过去两年来,AI大模型赛道风起云涌的理论基础,它证明了通过预训练中使用更多的数据和算力,就能让AI大模型的性能暴涨。由于数据多等于智能多得到了验证,如此一来AI厂商当然就迫切地想要获得更多的数据来训练更强的模型。而数据的问题,就让OpenAI、Anthropic的爬虫已然成为了网络空间中 进攻性的存在。
如今几乎每一个AI厂商,都背着非法获取数据所引发的版权官司。既然数据本身是有价值的,那么如何处理它就成为了每一个互联网内容 必须要面对的问题。如果 本身胸无大志,这件事其实也很好办,比如“美国贴吧”Reddit就选择了简单粗暴地卖数据,将 中的内容授权给谷歌、OpenAI用作大模型的训练。
可问题在于,知乎并不想错过AI时代。在一众国内互联网厂商中,知乎拥抱AI大模型的态度可以说是相当积极, 批发布AI大模型的厂商里就有他们。早在2023年4月,知乎就与面壁智能共建大模型产品“知海图AI”,到了2024年7月又推出AI搜索产品“知乎直答”,就在2月11日,知乎也是 批接入DeepSeek-R1的。
尽管知乎在国内互联网厂商里并不以技术见长,但中文互联网中质量最高的内容库,才是他们的核心竞争力。知乎创始人周源在发布“知海图AI”时就曾表示,拥有中文互联网大量高质量内容,正是知乎研发大语言模型的优势所在。所以保护内容库就是保护知乎在AI领域的市场竞争力,这一点知乎管理层显然有着清晰的认知。
但凡事都有正反两面,非登录用户无法查看全文的限制对于用户体验无疑是强烈的负反馈。对此用户也选择用脚投票,在知乎方面公布的2024年第三季度财报中就表明,其月活为8110万,与去年第三季度的1.05亿相比,同比大幅下滑了22.98%。
活跃用户大幅下滑的影响显然是巨大的,也直接导致了知乎的平均每月订阅会员增长率下降至13.79%,不复2022年(93.07%)、2023年的(47.96%)的亮眼表现。活跃用户规模下滑就意味着池子变小了,能筛选出愿意付费的用户基数自然就会相应缩减。
同时在知乎的财报中显示,付费用户的每月付费金额也在下降,已经从2023年的11.59元下降到了2024年第三季度的10.02元。换而言之,知乎过去两年力推的付费订阅业务遇到了困境。对此,他们 方案就是重新挽回用户、扩大月活规模。
当然,除了限制非登录用户查看全文导致用户离心、要亡羊补牢之外,大模型的Scaling law放缓也是促使知乎转向的原因,毕竟DeepSeek的出现给Scaling law理论带来了新的思考。并且马斯克的Grok3在投入海量资源、付出巨大的成本后却没有出现质变,也为Scaling law理论蒙上了一层阴影。
大模型不是必须大力才能出奇迹,这或许才是知乎这一策略发生改变的根源,如果内容库没有想象中值钱,又何必为其去得罪用户呢?
- 版权所属:王牌阁
- 本文地址:http://uexe.cn/115515.html
- 版权声明:原创文章,转载时必须以链接形式注明原始出处及本声明。