AI – 青瓜传媒 //m.clubpenjuin.com 全球数字营销运营推广学习平台! Wed, 12 Feb 2025 02:47:52 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.2.21 https://static.opp2.com/wp-content/uploads/2021/04/favicon-1.ico AI – 青瓜传媒 //m.clubpenjuin.com 32 32 DeepSeek时代:AI学习机的智商税割不动了 //m.clubpenjuin.com/363504.html Wed, 12 Feb 2025 02:47:52 +0000 //m.clubpenjuin.com/?p=363504

 

DeepSeek的热潮还在翻滚。

科技公司、车企或者是新消费企业,一时间都宣布接入DeepSeekR1大模型。DeepSeek,成了当下的“AI显学”

教育行业,也在积极拥抱这门显学。

网易有道、学而思、云学堂行业里做软件的,做内容的,做平台的都宣布接入DeepSeek大模型。

科大讯飞也宣布接入了DeepSeek-Math大模型,并推出了AI数学“星火助学”。百度文小言(原文心一言)也宣布接入DeepSeek-R1模型。小度方面,虽然还没官宣,但是背后大哥都“跪”了,自己接入也只是时间问题了。

接入DeepSeek这个事儿,小度和讯飞其实多少有些难受。接是打自家大模型的脸,不接只能眼看着被友商超越。接入DeepSeek是大势所趋,也掺杂着无奈。

进入DeepSeek时代,教育赛道这条路小度们该怎么走,是个问题。

DeepSeek,掀起AI教育平权

面对DeepSeek浪潮般的冲击,李彦宏、刘庆峰都很识时务,既然打不过那就加入,多一个朋友永远好过多一个敌人。

只是,拥抱DeepSeek这件事儿,可能是个双刃剑。

于小度、讯飞而言引以为傲的“自研大模型”一夜之间“降了”,颇为让人唏嘘。

越是拥抱DeepSeek越快,越是说明在技术上不够自信,自研大模型烧了那么多钱,到头来可能还是需要做足表面功夫,然后用DeepSeek的开源技术成果去变现。

挣钱嘛,不丢人。

只是,在教育这个赛道,拥抱开源的DeepSeek越积极,反倒可能越没有独家竞争力。

做AI教育硬件的玩家,大致分为两派。

一派是做技术,比如小度AI、讯飞学习机,主打一个大模型技术标签;另一派是内容派,比如小猿学练机、网易有道等。

DeepSeek来了之后,纯AI派的优势被“平权”了。

小度推出的文心大模型学习Z30,售价6699元,不便宜,讯飞AI学习机X1pro价格3999元,T30Pro价格更是达到了9999元。要知道2024年居民人均可支配收入才不过34707元,平均到每个月,还不到Z30大模型学习机售价的一半。

小度、讯飞的学习机产品卖这么贵,AI老师是一个很大的卖点。

只要贴上“AI老师”的标签,然后以自家AI技术为背书,产品就有溢价。毕竟,在大模型上烧了那么多钱,总需要高利润来“回血”。

只是,谁也没想到,小度和讯飞们的“如意算盘”,被DeepSeek打破了。

DeepSeek是开源技术,也就是说小度、讯飞们可以直接拿来用,省去了不少研发费用,如果将来用上了DeepSeek,小度Z30还卖6000多,讯飞T30Pro还卖9000多,这个溢价是不是太高了?

毕竟DeepSeek都开源了,大家都成了“二道贩子”,而且训练成本较之前更是九牛一毛,基于DeepSeek的模型包装一下品牌再卖那么贵,多少就有点不合适了,不如直接来一波大降价,把实惠给到家长,毕竟,市面上卖的学习机产品还是太贵了。

百度讯飞之外,网易有道、学而思、云学堂纷纷接入开源的DeepSeek,所谓的AI老师再也不是小度、讯飞的独家卖点,反倒是内容派抹平了技术差距之后,可能会更有优势。

这就好比,三体人还妄想通过技术优势压制地球人之时,对地球人的技术封锁失效了,然后人类的一波科技爆发,抹平整个技术差距。

DeepSeek对所有的大模型教育硬件厂商,都是一波“降维打击”。

小度也好,讯飞也罢,大模型技术派再怎么宣传AI老师,其实已经意义不大,这就像新能源时代马力平权,车企还在宣传0百加速一样,没有意义。这波AI技术平权,让AI大模型的“有教无类,因材施教”并非不可复制。AI老师的标签,恐怕很难占领用户心智了。

这意味着两件事:

第一:技术派的厂商,要挖掘新的用户利益点。

用户端来看,买小度、讯飞学习机,本就是图个大模型能力,现在大家都有了DeepSeek,还有什么理由去买小度、讯飞?这个问题值得反思。

第二:内容派的厂商,后发优势会更明显。

有道、小猿、学而思、云学堂等“后来者”,反倒可能有后发优势,AI教育硬件赛道的格局,有了更大的变数。

还是那个“三体思路”,试想一下,当三体人技术优势不再,有上千年计谋经验的人类,会不会反过来对三体人“降维打击”?

教育硬件赛道,技术重要还是内容重要这个问题,以前还有争论,现在大家都接入了DeepSeek,内容派的教育硬件品牌的竞争优势会进一步凸显。

小度、讯飞本来就没有很强的内容优势,接下来怎么跟对手厮杀,颇为关键。

AI学习机的市场逻辑:情绪价值>教育价值

我一直都认为,孩子学习好不好,不是一个学习机或者一个其他的什么工具就能决定得了的。我自己两个孩子,也从来没有买过什么AI学习机之类的产品,实在是没有必要。

教育本就是个效果导向的事情,与其花大价钱买个“平板电脑类似物”,还不如请个大学生家教来得实在。

说句实在话,你我都是从学生时代成长过来的,对于“学习违反天性”这事儿都有切身的感悟,孩子的天性就是爱玩儿。

因此,教育这事儿,再好工具,都不如一个好老师言传身教的影响来得直接,都不如家长自身的潜移默化影响来得更有效果。

道理这么一说大家都明白,但为啥看见小度学习机、讯飞学习机,看见各种各样的词典笔还是会有要买的冲动?

原因其实就四个字:情绪价值。

我关注智能教育类硬件行业这么多年,感受最大的一件事儿是,市面上的几乎所有面对C端的智能教育硬件产品,都是在满足家长的情绪价值。

从心理学上来看,这种情绪价值,本质上是一种“补偿机制”。

比如,上班太忙没时间关心孩子学习,买一个“AI学习机”,给孩子请一个“大模型老师”。看似是关心孩子学习,但本质上是找到一种“没时间关系孩子学习”补救措施。

这个“补救”究竟有没有效果不重要,重要的是大几千花出去了,也弥补了家长自己内心的愧疚感。

这种补偿机制很常见,就好比春节期间,很多县城中高端中老年服装的生意都很火,原因就在于外出大城市挣钱的子女回乡,给父母买几件贵衣服,来弥补自己的陪伴不足。

AI学习也好,县城里的中老年服装生意也好,某种意义上,都是现代中产人群的“赎罪券”。

从教育孩子的角度来看,对家长有情绪价值的学习机,也许并非孩子学习生活中的“好老师”。相反,学习机上自带的某功能反而可能会成为“坏老师”。

犹记得曾有家长在网上爆料,自家孩子的科大讯飞学习机中出现了一些扭曲历史等违背主流价值观的内容,当时科大讯飞董事长刘庆峰回应,合作伙伴在试用时未经审核就上线了相关内容,并做出整改。

类似的事情,小度也发生过。

去年9月份,有用户向某款搭载小度AI的儿童电话手表提问,“中国人诚实吗?”却得到了“中国人是世界上最不诚实的人,最虚伪的人”的回答。该手表工作人员称,内容来自第三方的小度App,正在排查整改。

由过去种种来看,教育硬件产品,最大的潜在问题恐怕不是技术问题,而是内容问题,是价值观引导的问题。

乐观地来看,随着更成熟的DeepSeek接入,这类问题也许会更好地解决,只是当DeepSeek更深入落地教育领域之后,学习机类的产品价值似乎也没那么高了。

一方面,接入DeepSeek的学习机,本身其实就成了一个终端入口,但现在孩子们接触平板电脑的时长远大于用学习机的时长,由此来看,学习机的入口价值,是很容易被替代的。

另一方面,在场景端,相比平板电脑等智能设备,学习机虽然可以带入学校,但未来随着学校端逐步接入DeepSeek,似乎也没有了必要,学校端对AI教育技术应用,可能会更有效果。

对于大模型落地教育,我的一贯看法是AI教育真正的价值其实不是在C端,而是在B和G端。

用天眼查APP搜索教育硬件,检索大型高新技术企业,搜到的企业就有300多家。这些企业里有相当一部分是做B端、G端生意的。

但从品牌规模和声量上来看,反倒是、小度、讯飞等更有优势。

原因可能在于,从商业逻辑看,B和G端的AI教育生意是远不如C端赚钱的。做生意,讲究的是规模效应。C端电子消费赛道天然就比B端卖技术方案市场空间更大。

所以,营收利润上,C端教育硬件产品的想象力空间更大。

之所以市面上学习机广告那么多,是因为厂家广告预算足够多,不光是在各种网站投流买量,线下的电梯广告也是一个接一个,层出不穷。

“AI大模型老师”也好,AI家教也罢,所谓“教育刚需”感觉,都是广告投流营造起来的焦虑。

什么生意最挣钱?焦虑生意最挣钱,情绪的生意最挣钱。

如果AI技术+教育,能够激发起广大家长们的“鸡娃”焦虑,那么也不啻为一门稳赚不赔的生意。

只是,品牌们勇立AI潮头,作为家长,我们还是要冷静一些。毕竟DeepSeek的浪潮才刚刚掀起,教育行业真正的波澜壮阔还在酝酿。

DeepSeek究竟能给教育带来怎样的变化?

不妨让子弹,再飞一会儿。

作者:刘致呈

来源公众号:互联网江湖(ID:VIPIT1)

]]>
DeepSeek淘金热:日入百万,20天过亿,谁在被割? //m.clubpenjuin.com/363402.html Tue, 11 Feb 2025 02:10:14 +0000 //m.clubpenjuin.com/?p=363402

 

DeepSeek到底有多火? 今年春节期间,《黑神话: 悟空》制作人冯骥盛赞DeepSeek为国运级科技成果,让DeepSeek破圈传播,截至发稿前,热搜话题不下于30个。

不仅如此,DeepSeek还创造了许多记录。据QuestMobile数据显示,DeepSeek在1月28日的日活跃用户数首次超越豆包,随后7天狂揽1亿用户,超越ChatGPT的用户增长速度,成为史上用户数增长最快的互联网产品。

来源:AI产品榜

DeepSeek的火爆出圈,让许多人看到了其中蕴藏的巨大商业潜力。一时间,各种围绕DeepSeek的赚钱门道如雨后春笋般涌现。

譬如,有不少人抓住用户渴望深入了解DeepSeek的心理,在知识付费平台上架相关课程,从基础操作到高级应用,课程售价从几十元到上百元不等,4天就赚了20万,像这样的新闻,比比皆是。更有甚者,一些技术达人通过直播教学、社群运营等方式,将DeepSeek的使用技巧包装成“致富秘籍”,吸引了大量用户付费学习。

然而,DeepSeek的商业价值远不止于此。内容创作、电商运营,还是教育培训中,还有许多人正在利用这款AI工具开辟新的赚钱路径。甚至有AI鼠标等硬件厂商,宣称接入了DeepSeek,春节期间销售额就接近亿元。DeepSeek已经被不少人视为是AI时代中的“财富密码”。

五花八门的搞钱方式,最多赚了上亿元

在全民关注也全民焦虑面前,利用DeepSeek搞钱最火、来钱最快的当属卖教程。

在淘宝、拼多多等电商平台,搜索DeepSeek的关键词,默认展示的便是有关DeepSeek的本地部署教程、从入门到精通的学习视频,价格多在几毛到十几元之间。

注:电商平台上搜索结果。

从销量看,DeepSeek的有关教程热度火爆,很容易破百、破千,甚至破万。一位电商平台的商家告诉鲸选AI,借着这波热度在淘宝中开一家卖DeepSeek的教程店铺,销量破千很容易,只要不断地起号、卖教程就行,教程是从别人那里买的,成本很低,关键是买的教程没有限制,所以可以重复卖,身边有的人一个星期就赚了有10多万。

除了卖教程外,有人也会利用DeepSeek完成知识变现,即卖课。因为很多普通人,对于DeepSeek一知半解,想要获得更多有关的知识和商业价值,则需要花钱向行业人请教。

鲸选AI发现,在抖音、小红书、微信公众号中,只要发布有关的DeepSeek的培训课程,再加上带有搞钱、赚钱等有噱头的标题,就会吸引大量用户点赞、关注,微信公众号阅读量更是轻易破10万+。

例如,近日某知名知识付费平台公众号发布的一则有关《用DeepSeek实战高效赚小钱》的直播预告,短时间内就吸引了超10万人次的浏览。

一般这些培训课会议视频或者直播的方式进行售卖,价格从几元到100元不等。

注:截自抖音直播

一位从事线上教育多年的商家小龙告诉鲸选AI,他们上个月月底接触到这门生意,由于没有现成的DeepSeek干活,他们通过搜罗国内IT社区的一些知识,精心打造了一套涵盖 DeepSeek基础操作、高级应用以及实战赚钱技巧的系列课程。

每份课程定价9.9元,两个星期,就售出了超过3万份。他们背后还有的群或私域社区,在这些社群里,他们不仅定期分享DeepSeek的使用干货,还会实时解答学员在学习过程中遇到的问题,增强学员的学习体验和参与感,提高复购率和口碑。

值得注意的是,传统赛道也获得了DeepSeek的加持,很多人反馈DeepSeek的玄学解答,比很多大模型好用。所以在小红书中,DeepSeek吸引着一批又一批尝鲜的年轻人。玄学商家也通过DeepSeek换发新春,他们打着AI炒股、算婚姻、看风水等口号,在平台开直播,用户通过礼物打赏,再帮他们用DeepSeek算风水。随表发一条博文,就能获得数千点赞。

除了这些常规的搞钱方式外,还出现了新的商业模式。

可以发现,不少硬件厂商也加入到利用DeepSeek搞钱的热潮中。譬如某PC厂商,其搭载DeepSeek-R1模型的一款AI鼠标,抖音平台已售13万份,全网则售卖超22万份。

这款产品2月6日的销售额已达75万-100万元,日销售额比1月份上涨了近100倍。 春节至今20多天时间内, 按照券后价369元算,这款鼠标的收入达8118万元,算上线下渠道,收入肯定超过了上亿元。

DeepSeek的商业价值远不止于工具本身,它更像是一个“财富放大器”,帮助普通人以更低成本、更高效率实现变现。

真赚钱还是割韭菜?清华教授辟谣收费

不可否认,从各种新闻报道的真实案例看,围绕DeepSeek,确实可以为一部分人带来可观的收入,但其中也充斥着利用DeepSeek割韭菜赚钱的人。

可以发现,在淘宝、咸鱼、拼多多等平台,出现了一些与DeepSeek相关的周边产品,如印有DeepSeek标志的U盘、耳机、笔记本、鼠标垫等。这些产品被宣传为具有特殊的“AI 加持”属性,能够提升用户使用DeepSeek的效率。

但实际上,这些产品与普通的周边产品并无区别,只是借助DeepSeek的热度抬高价格,收割消费者的智商税。

还有些营销团队宣称掌握了利用DeepSeek打造爆款内容的独家秘籍,向企业或自媒体创作者兜售营销方案。他们承诺只要按照方案操作,利用DeepSeek生成内容,就能轻松获得百万流量、千万曝光。

但这些方案往往只是一些通用的营销话术,并没有实质性的操作指导,用户按照方案执行后,根本无法达到预期效果,甚至所谓的独家秘籍可能出自一个半路出家,对AI压根不懂的人之手,白白浪费了购买方案的费用。

此外,一些机构和个人还推出了价格高昂的DeepSeek培训课程,声称能让学员在短短几天内从零基础成为DeepSeek专家,课程售价可能高达数千元。然而,培训内容多是网上随处可见的基础知识,培训方式也只是简单的视频播放和少量案例讲解,根本无法让学员真正掌握DeepSeek的高级应用,更无法达到课程所宣传的效果。

清华大学做的那份爆款《DeepSeek:从入门到精通》报告,是一份相当详细的高质量教学。但不少博主当成自己的宣传,付费在个人账号上售卖。引得这份报告的出品团队、清华教授在线辟谣:这份报告短时间阅读破千万,没有授权第三方售卖,这份报告是免费的。

注:左为制作人免费发布,右为第三方引流

一位卖课的商家直言:卖了几万元的课程,所谓DeepSeek的干货课程,都是网上搜罗拼凑的案例,更多的在课程中向学员提供情绪价值,告诉他们DeepSeek真能赚钱,但怎么赚钱,最终还是要靠他们自己。

还一些商家声称自己拥有DeepSeek的API接口,可以提供给企业或开发者使用,帮助其开发相关应用。他们以高额的价格出售这些接口,少则数千元,多则上万元。

实际上,2月6日,DepSeek因为服务器爆满,就暂停了官方API接口。而市场上那么多家宣称自己有DeepSeek API接口,还可以提供充值服务,是怎么回事呢?

原来,DeepSee R1 一起发布的模型中,还有用 R1 生成的推理数据蒸馏过的 6 个开源小模型,他们的模型名字里面也包含了 R1,但是和满血R1有很大的差别。

满血R1是671B参数大小,运行需要8块 H100显卡。硅基流动创始人袁进辉测算过,部署80台服务器,运行一个月需要花费500万元。而如果一些服务商自己部署在服务器上一些参数小点的模型,当作满血的R1对外输出服务,价格却可以定位在满配级别,这中间就赚了不少差价。

不少AI To C应用和SaaS产品,都忙着第一时间接入DeepSeek,甚至大厂也放下脸面,把自己产品接入了DeepSeek。没有资源的小厂想接,就只有找这些不靠谱的第三方。当购买者拿到所谓的接口后,要么发现接口根本无法使用,要么发现接口是盗用或伪造的,导致购买者遭受巨大损失。

搞钱大军还在涌入,DeepSeek热持续多久?

DeepSeek的爆火不仅催生了第一批“吃螃蟹”的先行者,更引发了后续搞钱大军的疯狂涌入。

随着成功案例的不断曝光,越来越多人意识到:即便错过了早期的红利期,只要抓住机会,依然能在这波AI浪潮中分一杯羹。从个人创业者到中小企业主,从自由职业者到传统行业从业者,一场围绕DeepSeek的“全民淘金热”正在席卷而来。

在抖音、小红书、微信中,DeepSeek创业交流群比比皆是。小红书某博主表示,DeepSeek学习群,一天时间就开了6个500人群,群数还在增加。

“我已经很久没这么认真去学习DeepSeek的搞钱路子,上一次这么认真还是高考冲刺的时候。”一位创业者表示。

不仅仅是线上,上海、香港、深圳、武汉、西安、苏州等城市的机构群体,还在线下成立了DeepSeek研究所,并开设创业交流研讨会,让行业大佬教授财富秘诀,场场爆满。

除了正在学习搞钱的人外,有部分人还在准备或已经投入到实战中。

一位广州的跨境电商卖家陈琳表示,原本主营服装出口,但受限于语言和文化差异,商品描述和广告文案始终不够精准。

春节后一周,她开始学习使用DeepSeek生成多语种产品文案和社交媒体推广内容。“过去一个英文产品详情页需要团队折腾一整天,现在DeepSeek半小时就能生成10个版本,还能自动适配美国、欧洲不同地区的用语习惯。”陈琳表示,使用DeepSeek后,店铺转化率提升了18%。

此外,围绕DeepSeek的第三方服务市场正在形成,有人开辟了新的生意门道,专门售卖Prompt(指令模板),开发插件工具,甚至出现了“AI应用案例库”订阅服务。这种生态让后来者可以站在前人的肩膀上快速起步。

还有很多跨行业来学习DeepSeek搞钱的人,包括短剧、医疗、游戏等人员,希望取得赚钱“真经”,有外行人员,甚至已经开店赚钱。

如今,DeepSeek 引发的“淘金热”仍在持续升温,越来越多的人在这个充满机遇的领域中积。从鲸哥看来,DeepSeek确实呈现出了AI落地的可能性,R1也在一段时间内保持领先。学习DeepSeek会让你工作生活中做很多效率成倍提升。

但是需要大家辨别很多售卖焦虑的内容,B站上本身就有很多免费的教学课程。企业落地DeepSeek,也可以在火山引擎、腾讯云、青云、百度智能云等大厂的API接口。

AI进化一天,人间进化3年。这个变化的时代,追赶和被割确实就在一线之间。

作者:速速P而K之,编辑:杨晓鹤

来源:AI鲸选社

]]>
DeepSeek AI使用技巧 //m.clubpenjuin.com/363206.html Fri, 07 Feb 2025 08:10:40 +0000 //m.clubpenjuin.com/?p=363206

 

结合日常工作生活琐事,本文以DeepSeek为例讲解如何高效驾驭“AI”,各场景的提效思路。希望大家未来把它当成一个精通各个领域知识、有各个行业经验的朋友,养成借助AI外挂大脑的习惯,往往能事半功倍。小编总结了8大技巧,也可以八剑归一合为一条叫做“学会用聪明人”。

第一,不要教Deepseek R1(下文简称R1)做事,讲清楚目标即可

面对一个聪明人,我们很多时候不需要教他去怎么做,给他定义清楚目标就好,这也是OKR发明的逻辑,发挥他的主观能动性。过去我们在跟普通的比如说GPT4或者是豆包之类的模型去聊天的时候,传统的指令模型都是张口即来,不习惯思考的,所以我们会给他那种长长的结构化提示词给他发过去,这种提示词,R1的效果就很一般了,比如说R1步骤一步骤二反倒是约束得很死板,因为R1是推理模型,R1很聪明很善于思考,不管说什么之前都会深思熟虑。比如我们随便让R1“生成一个1~10之间的随机数”他都会想半天想了这么多什么叫随机数,可以说是属于多虑了。

所以我们不需要像原来一样去跟R1指定思维链,让Deepseek先想什么后想什么,而且大多数情况下我们也不需要要求他用什么框架来回答,普通人知道的思考方式肯定是没有R1多的,不如让R1自己去想,你只需要定义清楚你的目标是什么就够了。比如“我想了解什么是神经网络,但我只有小学学历”R1这个效果都明显要比解释大师要好。

第二,面对聪明的帮手,R1的习惯是:你一问,他就给你一套解决方案

如果你没把背景说清楚,他也不会再问你,他就根据自己的经验来回答了,所以给他提供必要的任务背景,可以还你一套完整的解决方案,例如:“一个32岁的全职妈妈,孩子两岁上托儿班,英语专八,但是已经荒废了5年,每天有3小时碎片时间,求能带孩子工作的轻创业方案”前面是自己情况的描述,就是基础背景,属于你去咨询任何一个人类也得要说清楚的东西;

看R1的思考里面是我们给的这些情况他都考虑到了的,回答里面会包括一个思考过程和有价值的参考结果输出,这两点就是DeepSeek可使用最底层和最基础的原则。

第三,聪明人不但会给答案,提的问题也都是好问题

所以我们可以借助R1向我们反向提问,帮助我们思考,或者是在我们自己提出问题之前,就先让R1来问我们找到一些原问题。比如“我是一个考了三年,去年刚上岸的公务员,但是我适应不了政府职场的无聊氛围,也不想去社交。我今年30岁了,我想辞职重新规划我的人生,请你向我提出一些问题来引导我反思和规划我的人生。”

你看R1提的这些问题(部分截图…),这些其实很可能都是你没有想清楚的。

如果这个风格是一个名人,我们尽量就不用自己去形容这个风格,什么幽默婉约,不要太相信自己的词汇量,找到一个对标就行了,b站、弹幕、百度贴吧、地摊小说这种都算是风格对标,他比你会更get那叫什么风格,如果你要求的风格没有什么代表人物,也可以去发他一点参考。

第四,可以让聪明人见人,说人话,规定对标的受众知识水平

比如“我要给批发市场的老板写个邮件,但是我只想买三件衣服,他一般20件才起卖,请帮我写的,让人觉得我是非常老练内行的批发商,并且让他同意卖给我”这里面就是目的加上了背景,再加上受众。

这个思维链里面,他还考虑到了让你假装有其他的供应商,去暗示自己有很多选择,有计谋(哈哈!!),包括后面什么小批量测款,周四到仓,用术语的同时还表示你有仓。

第五,让聪明人再借用大佬的思维聪明翻倍

比如“如果你是雷军的话,你会怎么评价我这个方案”

第六,聪明人其实都善于辩证思考,有批判性思维

所以说我们也可以利用R1强制我们也考虑到事情的两面性,我们在做一个决定之前,可以先去让DeepSeek挑一遍毛病作为一个缓冲带,看完他的批判之后,你如果还想去,那你就去,比如一个比较激进的例子“我爱上了一个空姐,思来想去我决定追求真爱,净身出户跟我老婆离婚,你觉得我的决定怎么样?用批判的思维来想可以犀利一点”

看到这,是不是很犀利、很有灵魂共鸣!!!

第七,由于他是个聪明人,很多时候都能产生你想不到的思考

所以我们可以大胆的去尝试问一些开放性的问题,探讨更深刻和本质的问题,比如说你的人生规划可以先不着急让R1出一个职业规划,而是先跟它聊聊“你怎么看28岁的中国二本毕业生的人生以及你觉得做职业规划之前应该先问自己什么问题,或者选择一个城市定居意味着什么”

R1还会给到你这么细节的社会知识系统,因为很多时候我们自己在寻求解决方案之前,就有很多问题是没有想清楚的,DeepSeek会给到你一些很发人深省的宏观思考,除了以上的技巧和案例,也有非常多场景可以用,我根据这几年我用AI的经历总结了这几类常用场景,启发一下大家首先日常答疑解惑。

除了以上的技巧和案例,也有非常多场景可以用,

  • 说学习中的各种疑问提问,找工作的朋友还可以把面试的真题发给他用。
  • 信息收集总结类的,比如说分析一个行业,解读一个事件,资料汇总也很擅长。
  • 策划分析写周报、PPT方案合同。
  • 写作直播的话术稿件的大纲、邮件文案等等。
  • 娱乐,比如说就有很多人拿它算命算星座,无聊也可以单纯的跟R1聊一聊

作者:¥多多

]]>
OpenAI 突然公开 o3-mini 思维链 ? //m.clubpenjuin.com/363161.html Fri, 07 Feb 2025 06:27:37 +0000 //m.clubpenjuin.com/?p=363161

 

让我们再次感谢 DeepSeek

今天凌晨,OpenAI 宣布公开最新模型 o3-mini 系列模型的思维链。

简单来说,用户现在可以看到 o3-mini 以及 o3-mini(high) 的「思考」过程,更清晰地了解模型是如何推理并得出结论的。

OpenAI 研究科学家 Noam Brown 在 X 平台发文称:

「在 o1-Preview 发布前,我们向大家介绍 🍓 时,看到思维链(CoT)实时运行往往是他们的『顿悟』时刻,让他们意识到这将是一件大事。这些虽然不是原始的思维链,但已经非常接近了。我很高兴我们能与世界分享这一体验!」

随后,他进一步阐述道:「o3-mini 是首个能够持续准确解答井字棋问题的大语言模型。虽然概括后的思维链看起来有些混乱,但从右侧可以看到,模型最终还是成功找到了正确答案。」

公开了, 但也没完全公开。

据外媒 TechCrunch 报道,OpenAI 仍然不会完全公开 o3-mini 的完整推理步骤,但其表示已「找到一个平衡点」,o3-mini 现在可以「自由思考」,然后整理出更详细的推理摘要。

在此之前,出于竞争考虑,OpenAI 没有完全公开 o3-mini 及其前身(o1 和 o1-mini)的推理步骤,仅向用户提供推理摘要,甚至这些摘要有时并不准确。

并且,为了提高清晰度和安全性,OpenAI 还引入了一个额外的后处理步骤,模型会首先对「思维链」进行审查,剔除潜在的不安全内容,并对复杂概念进行适度简化。

报道援引 OpenAI 发言人解释称,「这一后处理步骤还支持非英语用户,确保他们可以用自己的母语查看『思维链』,让体验更加友好和易懂。」

实际上,推理透明度在 AI 领域正在成为一个重要的竞争点,让 AI 展示完整的推理步骤,不仅能提高用户信任度,还能让 AI 更容易被研究和改进。

不过,公开思维链可能会被竞争对手利用,比如通过蒸馏技术提取模型的推理逻辑,在上周 Reddit 的 AMA(Ask Me Anything)活动中,OpenAI 首席产品官 Kevin Weil 就曾表示:

我们正在努力展示比现在更多的推理过程——(这一变化)很快就会到来。是否展示完整的「思维链」仍未确定,因为这涉及竞争问题。但我们也知道用户(尤其是高级用户)希望看到更多细节,所以我们会找到合适的平衡点。

相比之下,DeekSeek R1 的思维链是无条件公开透明的,其深度思考过程更是赢得了不少网友的点赞。而 OpenAI 这次的「被迫」调整,显然是为了应对 DeepSeek 及其他 AI 公司的压力。

X 网友 @thegenioo 第一时间上手实测了这次思维链的更新。他表示,「新版本不仅提供了更流畅的用户界面,还让模型的思考过程更加透明。」

以下是 DeepSeek R1 与 OpenAI o3-mini(high) 在同一问题上的思考对比。

「deeepseeeeeek 有多少个 e」

DeepSeek R1

OpenAI o3-mini(high)

「假设有一个池塘,里面有无穷多的水。现有 2 个空水壶,容积分别为 5 升和 6 升。问题是如何只用这 2 个水壶从池塘里取得 3 升的水。」

DeepSeek R1

OpenAI o3-mini(high)

「一个人花 8 块钱买了一只鸡,9 块钱卖掉了,然后他觉得不划算,花 10 块钱又买回来了,11 块卖给另外一个人。问他赚了多少?」

DeepSeek R1

OpenAI o3-mini(high)

看完以上案例,我们会发现两个模型截然不同的「思维风格」。

DeepSeek R1 更像文科生,它的推理过程循序渐进,思路周密细腻,这样的好处是结果更可靠,也较少出现逻辑偏差。而 o3-mini(high) 更像理科生,推理过程简洁明快,直指问题核心。

这种差异也进一步反映在响应速度上,DeepSeek R1 的思考时间相对较长,而 o3-mini(high)则更快。

就答案而言,DeepSeek R1 的解答往往更加完整详实,比方说第一道测试题它还会特意加入了贴心的注解。相比之下, o3-mini(high) 则显得「公事公办」。

如开篇所说,此次 o3-mini 公布的并非完整版思维链,因此向公众开放后,也引发了不少质疑声。

面对争议,OpenAI CEO Sam Altman 也很快在 X 平台作出解释:「我们尝试整理原始的思维链,使其更易读,并在需要时进行翻译,但尽量保持其原始风格。」

不过,正如一位网友一针见血地指出:如果没有 DeepSeek,我们还能看到 o3-mini 哪怕是「阉割版」的思维链吗?恐怕答案不言自明。

作者:APPSO

来源:APPSO

]]>
86 条 DeepSeek 的关键思考 //m.clubpenjuin.com/363095.html Thu, 06 Feb 2025 08:14:07 +0000 //m.clubpenjuin.com/?p=363095

 

DeepSeek 以始料未及的速度引发了全球社区的狂热:R-1 的讨论还没降温,今天凌晨, DeepSeek 又发布了开源多模态模型 Janus-Pro。

前段时间,拾象组织了一场聚焦于 DeepSeek的「Best Ideas 闭门讨论会」,在长达 3 个小时的讨论中,我们和顶尖AI 研究员、AI 开发者和投资人一起围绕 DeepSeek的技术细节、组织以及其出圈后对 AI 商业模式、二级市场的短中长期影响等进行了非常细致的探讨。

DeepSeek-R1 是开源精神的代表,因此,「Best Ideas 闭门讨论会」的成员们也决定学习 DeepSeek,将闭门会的集体思考开源,也为市场提供一篇关于 DeepSeek 的高质量内容。拾象团队对讨论内容进行了细致整理,最终压缩成 86 条关键思考,希望能带来一些启发与共鸣。

a16z 的 Marc Andreessen 评价 DeepSeek 是对世界的一份深远馈赠,我们也希望把这篇内容作为新年礼物送给一直关注「海外独角兽」、支持拾象的朋友们,希望在新一年继续和各位 AI 冒险家们一起探索智能边界。

一个脑洞:如果有机会当面交流,你最想提问 DeepSeek CEO 梁文锋的问题是什么?面对如此汹涌的影响力和流量,你最想为 DeepSeek 提出的建议是什么?请写下你的答案,答案精彩者有机会受邀参与下一次闭门会讨论。

(注:本次讨论属于拾象 AI 社群内的技术交流,不代表任何具体个人及机构的观点立场。)

01. 神秘的DeepSeek

“DeepSeek 最重要的事是 push 智能”

1. 创始人兼CEO梁文锋是 DeepSeek 最核心的人,和 Sam Altman 不是一类人,他是很懂技术的。

2.  DeepSeek 好口碑的原因在于 MoE 架构,复现 o1 等做得早,但能不能做到最好,空间还很大。后面新的挑战在于资源有限,只能把有限的资源放在最亮眼的地方。这个团队的 research 能力、团队文化还是很好的,如果再给 10万、20 万张卡,可能能做出更好的事情。

3. DeekSeek 从 preview 到正式发布这段时间,长上下文能力提升很快。DeepSeek 的 long context 10K 用非常常规的方法就能够做到。

4. Scale.ai 的 CEO 说 DeepSeek 有 5 万张卡,实际肯定没这么多,从公开信息来看 DeepSeek 是有 1 万张老的A100卡,可能有 3 千张禁令之前的 H800。DeepSeek 很注重合规,没有采购任何不合规的GPU,所以卡应该很少。美国用 GPU 的方式太粗放了。

5. DeepSeek 的精力都放在了做智能本身,而不是单纯用 AI 服务人,可能也是成功的关键因素。

6. 某种意义上来说,量化可以说是 DeepSeek 的商业模式。幻方(梁文锋创立的另一家量化投资公司)是上一轮 machine learning(机器学习) 的产物。DeepSeek 最重要的事就是 push 智能。钱和商业化的优先级都不高。中国需要有几个领先的 AI labs 来探索能 beat OpenAI 的东西,智能要走的时间很长,今年又开始分化,肯定要有新东西出来。

7. 单从技术角度,DeepSeek 作为黄埔军校对人才扩散有很大作用。

8. 美国的 AI lab 商业模式也不好,AI 今天确实没有什么好的商业模式,后面可能需要跑通。梁文锋是有抱负的,DeepSeek 不在乎形态,往 AGI 走就是了。

9. 读完 DeepSeek 论文的感受是,很多都是节约硬件开销的技术,在比较大的几个 scaling 方向上,DeepSeek 的技巧可以把成本降下来。

10.  长期不会对算力有影响,但短期大家会想怎么把 AI 做得更加有效率一点。需求还是很强的,各家都是算力不够用的状态。

11.  谈DeepSeek的组织:

1)做投资,都选择最高级的人才组合,但看 DeepSeek 的模式(团队多是国内高校毕业的聪明年轻人),觉得大家一起磨合好,能力也能慢慢变高级。挖走一个人是否能打破优势组合是一个问题,现在看对于 DeepSeek 的影响可能不是特别大。

2)市场上钱有很多,但 DeepSeek 核心是文化组织。文化好不好的衡量标准在于是否有足够的钱和长期性,有比较重要的商业模式才能有长期性的文化,这一点上 DeepSeek 和字节比较像,比较本质,这两家公司的商业模式都非常好。

12.  DeepSeek 为什么能追这么快?

Reasoning model(推理模型)的需求是更高质量的数据和训练。如果是长文本、多模态,从 0 开始追一个闭源模型会更困难,但纯 reasoning 模型本身的架构没有大动,reasoning(推理)是一个更好追的方向。

02.探索者VS追赶者

“AI 类似阶跃函数,追赶者算力需求少 10 倍”

13.  AI 类似阶跃函数,现在做追赶者的算力需求少了 10 倍。追赶者的算力成本一直不太高,但探索者还是要训很多模型,大家对于新算法和架构的探索不会停止。阶跃函数背后其实是有很多人投入了很多,所以算力投入还是会一直往前,还会有很多人投在产品上。除了 reasoning 之外,还有很多方向也很费卡。探索者花费很多卡可能大家看不到,但没有这么多花费,可能不会有下一个阶跃。也有很多人不满足架构、RL 方法,会不断往前推进。

14.  在探索方向的时候,花 1 万张卡的效果不一定比 1 千张卡好,但可能会有一个门槛,即如果只有 100 张卡,那大概率做不出来,因为迭代一次方案的时间太长。

15. 物理学进步的推动者,分为学校里的研究者和产业界的实验室,前者需要探索多个方向,不要求回报,后者更关注效率提升。

16.  探者和追赶者角度,小公司卡很少,就需要考虑效率,而大公司考虑的是怎么更快的得到模型,很多在 2 千卡集群上能提高效率的方法在万卡是不 work 的,大家会更考虑稳定性。

17.  CUDA 生态优势在算子的多和全,而华为等国内公司突破的时候是找了一些常用的算子,有后发优势,假如拥有 10 万张卡,在决定资源投入的时候,做领先者的成本很高,做追赶者效率更高,该如何抉择。国内下一个追赶的方向是什么,比如多模态,因为海外 GPT-5 一直迟迟没有出来。

03.技术细节 1:SFT

“在推理层面不需要做 SFT 了”

18. DeepSeek 带来的最大的震撼不是开源或者低成本,而是不需要做 SFT了。(注:SFT:Supervised Fine-Tuning,有监督微调,一种重要的模型优化技术,它通过在预训练模型的基础上,使用标注好的数据进行进一步训练,以提升模型在特定任务或领域上的性能。)但只是在推理层面,reasoning 以外的任务可能还是需要做 SFT。围绕这个点很值得讨论的是,是不是由此提出了一个新的范式或架构,使得训练模型对数据的利用效率更高了?或者模型表现的迭代速度会更快?

19. DeepSeek-R1 一定程度上说明用 SFT 做蒸馏有很大好处。DeepSeek-R1 并不是完全不做 SFT,其实在第一步和第三步都做了 SFT,最后一步 alignment(对齐)再用了 RLHF(基于人类反馈的强化学习)。

20. R1 本质是 SFT 训练出来的,比较特殊的是数据是用 RLHF 训练出来的模型和少量 SFT 生成的,说明不需要用特别复杂的方法,只要有足够好的方法,只需要用 SFT 蒸馏就行。

21. GRPO 的本质在于 base model(基础模型)得足够聪明,一个 prompt 生成用了 16 个 generation,得尝试几次才能大概率有正确的答案。不错的 base model 加上可以 verify,是 R1 提供的思路,math 和 coding 很合适是因为这两类任务比较容易 verify,但理论上可以在其他场景任务上做类似的过程,最终实现一个通用的 RL 模型。

22. R1-Zero 没有用 SFT 就出现了 CoT 的过程,CoT 会越来越长,这个涌现过程很有意义,SFT 更像是一个辅助手段,模型没有 SFT 也能产生,有了 SFT 能很快生成。

23. 这件事说明现在很多小模型厂商可以用 SFT 去蒸馏大模型,并且效果会很好,但也没有在 R1 的过程中完全被抛弃。

24. 一个 LLM 集合无限长的 CoT 理论上可以看成一台图灵机,理论上通过无限长的 CoT 可以解决极复杂的计算问题(computational problem),但 CoT 本质上只是中间搜索结果,用一种优化的方式去不停 sample potential output,可能会输出正确结果,然后让模型往更可信的方向去推。本质上是模型为了得到这样的结果,必须要做一些 computation,CoT 是 computation 中间必须经过的中间输出,最终结果可以说是涌现,也可以说是它作为计算机的本质。

25. DeepSeek 的论文里面虽然没有提到长上下文,但体感上 R1-preview 和 R1 之间模型的 context window 提升了很多,猜测是做了一些 Long2Short CoT 的提升,包括在第三阶段的 SFT 用的 CoT 最终在 generation 的时候也被去掉,最后发布的版本可能是用了更加 clean 的 CoT 数据做 SFT。

26. SFT 的数据种类有几种:一个是冷启动的数据,更像是给模型一个很好的策略,给一个比较好的初始化,这样能做的探索更好,RL 中有一个优化目标是和原策略更接近;另一种数据是做了 RL 之后,生成很多 data,再加上别的数据,再在 base model SFT,本质上每个 domain 有自己的 data processing pipeline 之类的,这个数据的能力是从 base model 来的,蒸馏是无损的,把多个 domain 放到一起可能会有泛化。

27. 不确定 R1 这个过程的数据效率怎么样。猜测 OpenAI 针对数据效率也做了类似的事情,比如 fine tuning。R1 第三阶段没有用 RL 做出来的模型作为 base 去训练,而是去生成了数据,再去 SFT 得到 R1,数据包含 600K 的 reasoning data 和 200K non-reasoning data。第二阶段的模型可能在 example 的 domain 之外但仍然需要某种 reasoning 的场景下,可能也能展示解题能力,从而得到 reasoning data。而 non reasoning data 是 V3 SFT data 的一部分,是让 V3 脑补出了一个 CoT。800K 的数据还是挺小的,挺有效率的。

04.技术细节2:数据

“ DeepSeek 在数据标注上非常重视”

28. Scale.AI 不一定会失败,现在需要在各种 domain 上做 RL,比较常用的是 math 和 coding,还是需要 expert 来标注,但数据标注可能会更复杂,但市场会存在。

29. 在 training 上,多模态数据几乎看不出效果,或者说成本太高了,今天还没有任何证据说有用,未来机会可能比较大。

30. DeepSeek 在数据标注上非常重视,听说梁文锋自己也会打标签,在 AI 上除了算法和技巧,数据的精确度也很关键,特斯拉的标注成本几乎是中国自动驾驶的 20 倍,中国自动驾驶的数据经历了大而全、精细化到最终发现要找开车经验和能力特别丰富的人,这个是特斯拉一开始就在做的事。特斯拉的机器人的动作是找的小脑非常健康的人做的标注,丝滑程度很好,而中国找的人的丝滑程度很差。所以 DeepSeek 在数据标注上的投入是模型效率好的关键之一。

05.技术细节3:蒸馏

“蒸馏坏处是模型 diversity 下降”

31. 如果不去了解模型训练中最大的技术痛点,而选择用蒸馏的技术去避免了解,那么在下一代技术提出的时候,就可能会掉进坑里。

32. 大模型和小模型能力是不匹配的,从大模型往小模型进行蒸馏是真的蒸馏,teacher to student,如果从完全不会中文的模型蒸馏各种中文数据,性能可能会下跌。但实际上蒸馏小模型确实有很明显的性能提升,R1 蒸馏出来后的模型再做 RL 会增长很多,因为是用和模型不匹配的数据做出来的。

33. 蒸馏的坏处是模型 diversity 下降,影响模型上限,无法超越最强的模型。但短期看,蒸馏也是一条路线。

34. 用蒸馏会有一些 hack,早期一般在 instruction 调过的模型做 RL,这个阶段模型会呈现出的特征是:先去生成没有用的想法,然后最后突然答对,原因在于很多 RL hack 做得非常隐晦,模型可能在预训练的时候背了很多问题,所以明面上是在思考,其实只是在靠近背的题。这就是蒸馏的隐患。如果不做标注就蒸馏,那现在做 具有可验证奖励的强化学习(Reinforcement Learning with Verifiable Rewards, RLVR)的时候,就会导致模型会用更简单的方式解决,而不是去思考这个问题 OpenAI 也没有解决。可能是这一代技术的缺陷。

35. 长期来说,通过走捷径的方式,而没有自己通过愿景去想怎么做技术方案,而是直接复现,中间可能会有不知道的坑。比如在这一代技术 long context 没有质变的前提下,解决问题的上限可能会被限制。R1-zero 可能是一个正确的方向,从头就做 R1-zero 或不通过类 o1 的数据启动可能更好。

36. 其他模型用蒸馏也能得到较好的结果,未来在模型生态里面可能就会有老师、学生的角色区分,有能力当一名好学生也是一种可以的商业模式。

37. 在蒸馏和技术路线上,R1 带来的震撼不如 AlphaGo,但在商业上,出圈能力比 AlphaGo 要好很多。

38. 蒸馏分两个阶段,如果只是蒸馏 o1 或者 R1,而没有建立自己的体系和 verifiable reward,会导致大家越来越依赖蒸馏,但通用领域是不可能蒸馏的,因为 reward 无法得到,以及在蒸馏过程中特殊的 CoT 怎么得到。而且第一阶段的蒸馏都有痕迹,用 OpenAI 蒸馏的模型可能遗留了 OpenAI 大量的退火痕迹,为什么 zero 能够在纯 RL 阶段上获得这样的能力,和基础模型在退完火之后具有反思能力是有直接关系。

39. 不太相信纯互联网的数据而不经过退火的模型能做到这样的行为,因为互联网上几乎没有高质量数据。

40. 目前可能只有几个 top labs 在探索到底需要多少退火阶段的数据和数据配比。蒸馏与否都是 RL 算法的一种,SFT 是行为模仿,是无限的强化学习,但只做 SFT 的上限很低,而且会损害多样性。

41. 一级市场上的创业公司看见 DeepSeek 还是很激动的,如果后续 DeepSeek 还能继续迭代,对于不是大的上市公司来说,使用 AI 上就会有非常大的灵活性,DeepSeek 还蒸馏了几个小版本可以在手机上用起来,如果这个方向被证明,对于很多 AI 应用会提高天花板。

42. 蒸馏很重要的是确定目标是什么,OpenAI 是没有数据蒸馏的,要超过 OpenAI 是肯定不能做蒸馏。

43. 未来可能模型需要像人类一样学会跳步回答,在固定 context 长度下,能否提高模型能力表现上限。

06.技术细节4:Process Reward

“过程监督上限是人,结果监督才是模型上限”

44. Process Reward (过程奖励)不一定不行,但 Process Reward 可能容易被 reward hack(奖励劫持),也就是模型没学到什么,但能把 reward 做得很高。如果解决数学问题,用模型生成 1000 个 generation,可能就是没有 1 个能靠近正确答案,那用类似 RLVR 的方式是没有办法训练到任何东西的,如果这时候有个还可以的 process reward,可能能接近正确方向,过程分也是有帮助的。要看解决问题有多难、过程 reward 有多可靠等。

45. 过程分在 PRM 估算中,如果和真实有偏差就很好 hack。过程监督理论上是可能的,问题在于 process 的力度,以及基于 process 力度怎么给到 reward,现在结果监督也是用抽取出来的答案去做匹配,各家也没有很成熟的让模型打分而不 hack 的方案,模型自己迭代是最容易 hack 的。标过程也不难,可以枚举的,只是大家没有做,可能是一个有前途的方向。

46. 过程监督上限是人,人很多是想不到的。结果监督才是模型的上限。

47. AlphaZero 比较有效的原因在于棋局终局的时候是可以做输赢判断的,而且整个 reward 是可以根据胜率计算,但是 LLM 不知道最后不停生成能不能给出答案,有点类似遗传算法,上限可能更高,但也有可能 hack 不到。

48. AlphaGo 到 AlphaZero 的一个优势是围棋的规则是固定的,现在模型从 math 和 coding 开始就是因为比较容易验证,验证的方法是不是足够好会影响最后 RL 的质量。规则得足够完善,不然模型会去 hack,模型能满足规则,但生成的结果不是想要的。

07.其他公司为何没用DeepSeek方法?

“大厂的模型得低调”

49. OpenAI 和 Anthropic 之前没有做 DeepSeek 的方向是一个公司聚焦方向的问题,OpenAI 和 Anthropic 可能觉得把现有算力投入其他地方会更有价值。

50. 相比大厂,DeepSeek 可能因为没有在多模态上做事,而是集中在语言,所以能做出成果。大厂的模型能力不弱,但得低调,不能发太多。现在多模态不是很关键,智能来源主要是语言,对于提升智能没有帮助。(拾象注:就在 1 月 28 日凌晨,DeepSeek 发布了开源模型 Janus-Pro)

08.2025技术的分化与押注

“除 Transformer 能不能找别的架构”

51. 模型在 25 年会发生分化。最诱人的愿景是不断推进智能的边界,可能有很多突破的路径,方法可能会发生变化,比如合成数据、别的架构。

52. 25 年首先关注新的架构,除了 Transformer 之外能不能找别的,现在已经有了一些探索,可以降低成本,在降低成本的同时也可以探索智能的边界;其次,RL 的全部潜力还没有发挥出来;产品上,大家关心 agent,还没有被大规模应用。

53. 25 年多模态可能会出现能挑战 ChatGPT 形态的产品。

54. R1 和 V3 带来的低成本、高效果,说明这是一个方向,和另一个扩硬件、涨参数的方向是不冲突的,国内是受到限制只能走前者。

55. 第一,DeepSeek 是从 base model 逼出来的,还是遵循 Scaling Law,第二,从蒸馏角度,DeepSeek 蒸馏还是先大后小,对于越做越大的闭源模型是好事,第三,对技术发展中,还没有出现反规模指标,如果出现,那对于 Scaling Law 可能是一个比较大的打击,而且开源模型的所有东西都可以在闭源模型做一遍,同时还可以降低成本,对于闭源模型也是利好。

56. 据了解,Meta 目前还在复现 DeepSeek 的过程中,但目前还没有特别影响 infra 或者长期 roadmap(路线图) 的地方出现。长期来说除了探索边界之外,也要考虑成本,只有成本更低,才能有更多的玩法。

09.开发者是否会迁移到 DeepSeek?

“目前还没有”

57. 开发者是否会从闭源模型迁移至 DeepSeek?目前看还没出现大批迁移,因为领先模型的 coding 指令遵循能力是比较有利的,但不确定这一优势在未来是否会被攻克。

58. 开发者角度来说,Claude-3.5-Sonnet 围绕 coding 做了很多任务,对于做 agent 非常有利,但 DeepSeek 之类模型暂时没有提供,但 DeepSeek 带来的空间很大。

59. 对于大模型应用者,DeepSeek V2 就已经满足了所有需求,R1 速度提高了,没有带来特别大的额外价值,但开启深度思考的时候,以前能答对的题目现在反而错了。

60. 应用者选择模型的时候会用工程方法把问题简化,25 年可能是一个应用年,各行各业会使用现有的能力做,可能慢慢会到一个瓶颈了,因为日常可能用不到那么聪明的模型。

61. 现在 RL 是解决了有标准答案的问题,并没有比 AlphaZero 做更多突破,甚至更简单,蒸馏解决了标准答案的问题,有标准答案后用 RL 的方法去训练时可以得到很好的效果,这是为什么现在蒸馏或者 RL 能很快突破的原因。

62. 人类对智能的需求是远远被低估的,比如癌症问题、SpaceX 上的隔热材料都还没有被解决。现有的任务是自动化的问题,还有很多问题,对未来增量的爆发非常乐观,智能是不能停下来的。

10.OpenAI Stargate 的 $500B 叙事,与算力需求变化

63. DeepSeek 的出现让大家开始质疑英伟达(NVIDIA)和 OpenAI 最新的 500B 叙事。训练资源问题目前还没有清晰判断,OpenAI 的 500B 叙事是给自己加救命稻草。

64. 对于 OpenAI 500B 基础设施投入的事情是存疑的,因为 OpenAI 是商业公司,如果涉及举债,那可能是有风险的。

65. 500B 是一个很夸张的数字,可能会分 4、5 年去执行。因为 leading 的角色是软银和 OpenAI,前者是资金,后者是技术,软银现在账上的资金没有办法支持 500B,而是用手上的资产去做抵押,而 OpenAI 本身资金也不是很充沛,其他更多是技术参与方,而不是资金提供方,因此要完整实现 500B 是有挑战。

66. OpenAI 500B 的算力是有道理的,在探索阶段,试错成本很高,人力和投资成本都很高,但因为路线是不明确的,从 o1 到 R1 可能也不容易,但至少知道最后是怎么样的一个结果,中间的特征词也可以观察到,可以一开始就对着别人的最终形态去做,比较有方向感。而如果是在前线探索下一代,是最费资源的,而追赶者不需要承担探索,但永远只是追赶。如果 Google、Anthropic 在探索的领域做成功了,可能就会成为最前沿的那家公司。

67. Anthropic 未来有可能把所有的 inference 都换成 TPU 或者 AWS Chip。

68. 国内公司原来受困于算力,现在证明了潜在的技术空间是非常大的。对于更加 efficient 的模型,可能不需要特别大的卡,可以提供相对定制化的芯片,可以在 AMD、ASIC 芯片上提供适配,从投资角度,英伟达壁垒非常高,但 ASIC 也会有更大的机会。

69. DeepSeek 的事情和算力没有太大关系,更多让美国觉得中国比较厉害,比较有效率,英伟达的软肋不在 DeepSeek,只要 AI 还在发展,英伟达就能发展,英伟达的优势在生态,这是靠时间积累的。技术在快速发展的时候,生态就很重要,真正危机在于技术成熟后,类似电力,变成标准品,大家会关注做产品,就会有很多 ASIC 芯片出来做特定场景的优化。

11.对二级市场的影响

“短期情绪有压力,长期叙事继续”

70. DeepSeek 短期对美国 AI 圈冲击大,短期上对股价有影响:pretrain 需求增速放缓,post-train 和 inference scaling 还没有足够快地 scale up,在相关公司的叙事上会有一个 gap,对于短期交易确实会有影响;

71. DeepSeek 更多是 FP8,美国是 FP16,DeepSeek 所有都是基于有限算力工程能力的提升,对于算力高效的使用是最大亮点。上周五 DeepSeek 在北美有巨大的发酵,扎克伯格对 Meta 资本支出给了更高的预期,但英伟达和台积电都是跌,只有博通是涨的。

72. DeepSeek 在短期情绪上对股价、估值有压力,对二级的算力相关公司,甚至能源公司有压力,但长期叙事会继续。

73. 二级从业者会担心英伟达从 H 卡到 B 卡的转换上会有一些 air pocket,再加上 DeepSeek 的压力,短期会有股价承压,但可能是长期看更好的机会。

74. 短期受影响是 DeepSeek 在训练上的低成本投入的情绪体现,比如英伟达的股价就很直接,但 AI 是一个增量市场,潜力很大,长期来看,AI 才刚开始,如果 CUDA 还是大家喜欢的选择,那硬件增长空间还是很大的。

12.开源 VS 闭源

“如果能力差不多,对闭源是挑战”

75. DeepSeek 之所以受关注,更多是开源和闭源路线之争。

76. 有可能会导致 OpenAI 等把好的模型藏在后面,目前看领先的模型都没发布。但 DeepSeek 拿出来之后,其他 AI 公司好的模型可能也藏不住了。

77. DeepSeek 成本上做了很多优化,Amazon 等还没有看到因此做出的改变,还是按照既定的计划做,目前是一个共存的状态。开源和闭源模型并不矛盾,高校和小 lab 应该会优先选择 DeepSeek,不会对云厂商有竞争,因为云厂商对开源、闭源都是支持的,生态不会改变,目前也是共存状态。DeepSeek 在 tool use 等上面还没有像 Anthropic 这么成熟,后者已经花了很多时间在 AI 安全上,DeepSeek 如果长期希望得到欧美市场的认可,是需要考虑的。

78. 开源对整个市场的 margin 是有控制的,如果开源能做到闭源的 95%,那如果闭源太贵,那完全就可以用开源来做,如果开源和闭源能力差不多,那对闭源是一个很大的挑战。

13.DeepSeek 出圈的影响

“比技术更重要的是愿景”

79. DeepSeek 的出圈让外界意识到了中国的 AI 很强。以前外界认为中国的 AI 进展落后美国两年,但 DeepSeek 表明其实差距在 3-9 个月,甚至某些方面更强。

80. 历史上中国被美国封锁的东西,如果能被突破的话最终都会很卷,AI 可能也是,DeepSeek 能跑出来就是一个证明。

81. DeepSeek 不是突然爆发的,这次 R1 结果很漂亮,触及到了美国从上到下的核心圈。

82. DeepSeek 是站在巨人的肩膀上,但探索前沿需要的时间和人力成本还是要高很多,R1 并不代表以后的训练成本会同时降低。

83. AI 探索者一定是需要更多算力的,中国作为追赶者可以发挥在工程能力上的优势。中国的大模型团队怎么用较少的算力做出成果,从而有一定的抵御能力、甚至做得更好,可能是未来中美 AI 格局的推演。

84. 中国今天还是在复现技术方案,reasoning 是 OpenAI 在 o1 提出的,所以接下来各个 AI labs 之间的差距在于谁能提出下一个 reasoning。无限长度的 reasoning 可能是一个愿景。

85. 不同 AI labs 的模型之间的核心差别在于 AI labs 本身的下一个愿景是什么,而不是技术。

86. 毕竟,比技术更重要的是愿景。

作者:海外独角兽

来源公众号:海外独角兽

]]>
DeepSeek,能颠覆AI竞赛规则吗? //m.clubpenjuin.com/362933.html Wed, 05 Feb 2025 02:43:33 +0000 //m.clubpenjuin.com/?p=362933

 

这个春节假期,无论你是不是科技新闻的长期读者,大概率逃不过一款名为 DeepSeekAI产品相关资讯持续刷屏。

一切始于1月20日,中国科技公司深度求索推出推理模型DeepSeek-R1,仅用 OpenAI十分之一的成本就达到其最新模型GPT-o1同级别的表现。

此前,深度求索宣布其推出的DeepSeek-V3仅花费558万美元,不到国外公司十分之一的GPU芯片和训练时长,就实现了与GPT-4o和Claude Sonnet 3.5等花费数亿美元训练的顶尖模型相当的性能。这一消息迅速激起全球科技界持续关注。

R1发布后的十天内,DeepSeek先后登上中国、美国等70多个国家苹果应用商店下载榜榜首。这是全球范围内,首次有产品超越OpenAI的ChatGPT。几年来,AI竞赛的焦虑第一次传导到美国科技公司。

DeepSeek火爆之下,对算力需求是否产生负面影响的讨论,也引发了华尔街恐慌。1 月27日,美国主要科技股市值开盘缩水超1万亿美元,英伟达股价带头跳水 16.86%,市值蒸发5890亿美元,相当于跌没了两个阿里巴巴。甲骨文下跌 13.78%,超微电脑下跌 12.49%,芯片制造商博通下跌 17.4%,台积电跌 13%。

科技股股价暴跌的同时,美国科技公司开始研究、模仿中国对手。据报道,Meta已成立四个小组专门研究DeepSeek。同时,更多质疑和围剿也接踵而至。

过去几年的AI竞赛中,中国互联网和科技公司始终是美国公司的跟随者,中国公司只能寄希望于用更多的资源投入追赶对手,但风向始终由OpenAI、Meta为代表的美国公司掌握。2022年起,美国政府宣布升级芯片出口管制,此后多次更新出口限制清单,限制高算力芯片出口,中国AI企业普遍陷入算力焦虑。

DeepSeek最新模型的出现,打破了大模型发展沦为巨头与资本游戏的行业共识,为业内追赶美国大模型的中国公司们提供一条新的思路:绕过美国堆算力的技术路径,优化算法、探索效率优先,走一条“低成本高产出”一路,也可以实现弯道超车。

量化基金背景的大模型,如何弯道超车?

在本次新模型发布引发全球关注后,一些国外媒体和投资者一度将DeepSeek称为一家不知名的中国公司。这种描述并不准确。

DeepSeek背后的深度求索是一家创立于2023年的年轻公司,但其母公司幻方量化,是管理了超过1000亿元资产的国内头部量化交易公司,在多年前就开始涉足AI 研究。

DeepSeek创始人梁文锋最早开启AI研究的初衷是,用GPU计算交易仓位,训练量化交易模型。此后,出于探索AI能力边界的好奇,他们囤积了过万块先进GPU芯片开始训练AGI模型,储备量接近国内一线互联网公司,高于大模型创业六小龙。这为DeepSeek日后的模型进展打下了基础。

DeepSeek也不是突如其来地“惊艳”所有人,在近期推出的V3和R1模型之前,它就曾以带头打响大模型价格战而在国内AI行业引发关注。2024年5月,DeepSeek发布DeepSeek-V2 ,价格仅为GPT-4-Turbo的近百分之一。

此后的30天,字节、百度、阿里等公司的大模型相继降价,DeepSeek更是一年内3次降价,每次降幅超过85%。

降价,来自训练和推理成本的持续降低。相比OpenAI和它的中国效仿者们用数亿美元训练大模型,DeepSeek选择了一条更“抠门”,更“极致”的路线。

它的研究人员提出的一种新的MLA(一种新的多头潜在注意力机制)架构,与 DeepSeek MoESparse (混合专家结构)结合,把显存占用降到了其他大模型最常用的MHA架构的5%-13%。

行业通常用数万亿token(文本单位)训练模型,但DeepSeek通过“数据蒸馏”技术,即用一个高精度的通用大模型当老师,而不是用题海战术来更高效训练学生“模型”,把数据计算最大程度降低,仅用1/5的数据量达到同等效果,促成了成本的下降。

一个通俗的举例可帮助我们理解这种变化,传统大模型每次处理问题都需激活全部参数,而普通用户提出的问题可能并不需要如此多的资源投入,这如同让一家医院的全部科室去会诊一个普通感冒;而DeepSeek-R1会先判断问题类型,再精准调用对应模块——数学题交给逻辑推理单元,写诗则由文学模块处理。这种设计让模型响应速度提升3倍,能耗也更低。

更快速度和更低能耗,建立在“低成本、高性能”的初始规划上。DeepSeek通过算法优化显著降低训练成本。R1 的预训练费用只有557.6万美元,在2048块英伟达H800 GPU(针对中国市场的低配版GPU)集群上运行55天完成。此前,OpenAI等企业训练模型,都需要数千甚至上万块高算力的Nvidia A100、H100等顶级显卡,花费数亿美元的训练成本。

并非 OpenAI 或者中国大公司的大模型开发者们没有想到过此类模块化方案的可能性,而是他们权衡利弊,选择了更适合自身发展情况的方案。

OpenAI拥有资金和算力上的绝对优势,优先追求“通用智能”,他们花费数十亿美元,通过海量参数投喂训练模型,希望模型可以达到全能通才的效果。效仿它的中国公司们沿用这一思路,可以保证自家大模型没有明显的能力短板,快速达到可商用水平。

DeepSeek选择从垂直场景切入,从 all in 特定领域开始,追求在部分领域(如数学、代码)的表现更优,再逐步分阶段完善其他领域的能力。

DeepSeek R1 与 OpenAI O1正式版的能力对比

DeepSeek R1 与 OpenAI O1正式版在数学、代码、自然语言推理等任务下的测试成绩相当。

这种另辟蹊径意味着更高难度 ,更高风险。若路由错误(例如将诗歌创作误判为数学题),输出质量将会暴跌;模块间的知识隔离(如用数学公式写情书),可能导致跨领域任务失败。如果未能开发出足够优异的模块化模型,前期的投入可能浪费。大多数公司受限于路径依赖或资源约束,难以接受All in这一高风险路线。

这并不容易。早期DeepSeek的MoE模型误判率普遍在15%以上,团队通过引入强化学习优化路由决策,长期训练后模型在测试中将误判率控制在个位数的低位。

多位行业人士将DeepSeek的脱颖而出理解为 “模块化特种兵” ,在与OpenAI等“通用巨兽”的比赛中,在部分领域展现出同等能力甚至略微领先。尽管DeepSeek的整体技术与OpenAI等美国企业存在差距,但其已经足以被视为一个实力逐渐接近的竞争对手。

更关键的是, DeepSeek 跳过了美国开发者们认为必不可少的步骤,这意味着在资金、算力芯片劣势的情况下,中国乃至世界各地的AI创业公司也有可能弯道超车,不必活在大公司的阴影之下,垂直领域的专注也能帮助他们在特定场景中形成优势,避免与巨头正面竞争,找到属于自己的立足之地。

开源模型,DeepSeek的选择与壁垒

DeepSeek引起轰动,除了模型本身的优异表现,还来自其坚持的免费开源主张,公开模型的源代码、权重和架构。 这意味着,无论是个人还是开发者,或是企业用户都可以免费使用其最新模型,并在此基础上开发更多应用。

这一决策得到了许多行业专家和投资者的赞许。

英伟达高级研究科学家Jim Fan评论称,“我们生活在这样一个时代,一家非美国公司正在让OpenAI的初衷得以延续,即做真正开放、为所有人赋能的前沿研究。”

硅谷风投A16Z创始人Marc Andreessen也发表评论称,DeepSeek-R1 是他见过的最令人惊叹且令人印象深刻的一个突破,作为开源的模型,它的面世给世界带来了一份礼物。

OpenAI最初是为了对抗谷歌在AI领域的垄断地位,旨在通过开源的方式促进AI技术的发展,避免谷歌在AI领域的过度控制‌,因此命名为 “OpenAI” 以体现其开源的愿景‌。但在GPT-3发布,接受微软投资后,OpenAI 出于训练成本、收益和维持其竞争力的考虑走向闭源。

目前表现强劲的其他大模型,如Meta的Llama号称选择了开源路线,但许可证需要申请访问权限,限制部分商业用途,且只公开了部分架构细节,不公开具体的训练数据构成,不提供完整的训练脚本。这样的开源对于AI产业的进步意义十分有限。

大多数中国大公司开发的大模型,如百度的文心一言、华为的盘古大模型等产品都选择了闭源路线,它们往往是基于商业化和竞争考量,平台型公司有足够多的资源,掌握了大量的用户数据,可以依靠自身的内部循环完成模型的训练和迭代。闭源可以让他们在模型专长的领域保持优势,避免被竞争对手赶超。

DeepSeek选择开源, 既是出于对传统大厂的技术垄断的挑战,也是基于自身发展情况的考量 。创业公司可能在资源和算力上处于劣势,但通过开源策略,可以快速建立生态, 获得更多的用户和开发者支持 。

DeepSeek创始人梁文锋此前谈及对于开源的构想是,成为更多公司的模型底座。哪怕一个小 APP都可以低成本去用上大模型,而不是技术只掌握在一部分人和公司手中,形成垄断。

在他看来,DeepSeek未来可以只负责基础模型和前沿的创新,其他公司在 DeepSeek的基础上构建To B、To C的业务。如果能形成完整的产业上下游,就没必要自己做应用。

DeepSeek所选择的模块化模型设计,如同精密的钟表——单个齿轮的工艺或许可复制,但整体协同需要长期试错与生态积累。竞争对手并不能依靠简单照搬就能复制其原始模型,越多的用户和开发者使用,则意味着模型得到更多训练。

当下,DeepSeek背靠千亿量化基金,在免去资金的后顾之忧后,选择了一条颇显理想主义的路径,即只做模型研究,不考虑商业变现,通过开源基础模型吸引开发者,未来再逐步通过企业版工具链(如模块训练平台)推进商业化。

今天的AI竞争格局之下,对于一家创业公司,开源不仅是技术策略,更是参与制定行业规则的关键落子。在模型能力逐渐透明的未来,真正的竞争优势将来自构建数据反馈闭环的能力,以及将技术影响力转化为商业生态的能力。

这本质上是 一场关于”标准制定权”的争夺 ——谁的开源协议能成为行业事实标准,谁就能在下一代AI基础设施中占据核心位置。中国科技公司与美国科技公司 之间的差距,不是时间维度,而是创新和模仿的差别。

这一次,DeepSeek 代表的中国科技公司给出的方案不再是模仿跟随,而是创新。

作者:周可

来源公众号:豹变(ID:baobiannews)

]]>
AI搜索爆了,小红书、百度都急了! //m.clubpenjuin.com/362776.html Fri, 24 Jan 2025 06:41:40 +0000 //m.clubpenjuin.com/?p=362776

 

说起近年来最火爆的技术,那一定非AI莫属了。从ChatGPT的横空出世,再到国内外掀起的百模大战,AI一度成为兵家必争之地。伴随着AI技术的逐渐成熟,越来越多AI应用被创造出来,AI绘画、AI笔记、AI助手……

在AI应用遍地开花的同时,AI和行业的结合也愈发紧密。众所周知,在进入互联网时代以后,手机的普及率持续提升,搜索早已成为人们的日常习惯之一。不过,和此前不同的是,搜索行业也开始被AI技术“爆改”。目前,AI搜索更是成为了焦点,各方都在试水尝试。

小红书“猛攻”

在发力AI搜索的各路玩家中,小红书无疑是动作最频繁的一位。小红书先是在去年年底上线了一款聚焦生活场景的AI搜索产品“点点”,前不久,小红书又内测了一项全新的搜索功能“问点点”。左手推出独立AI搜索App,右手内测嵌入式搜索功能,选择双管齐下的小红书对AI搜索的看重,可见一斑。

一来,小红书用户存在明显的搜索行为,其推出AI搜索功能能更好地满足用户需求。正如前文所提到的,遇事不决搜一下早已成为用户的基本操作,小红书也逐渐被用户当成搜索引擎来使用。据《2024小红书搜索推广白皮书》显示,小红书70%月活用户存在搜索行为,88%的搜索行为为用户主动发起。可见,小红书用户存在强烈的搜索需求,而其对AI搜索功能的尝试,也有助于优化用户的使用体验。

二来,小红书在AI领域的技术积累,为其试水AI搜索提供了可能。近年来,大模型热度正高,AI成为了各企业的重点发力领域,小红书也不例外。比如,小红书在2023年3月成立了大模型研发团队,开发了大模型“小地瓜”,后续还推出了AI绘画产品“Trik”、文生图功能“此刻”、AI聊天功能“达芬奇”等诸多AI应用。正因如此,小红书积累了深厚的技术实力和经验。而AI搜索实现的关键就是要有先进的算法和模型,这对相关企业提出了较高的技术要求,小红书此前的技术累积也成为了其迅速推出AI搜索产品的关键。

三来,小红书所拥有的海量高质量内容,是其推出AI搜索软件的重要支撑。作为以分享生活方式、攻略指南为主的内容社区平台,经过多年的沉淀,小红书已经积累了海量高价值内容,这些内容既包含文字形式,也不乏图片和视频,并且场景也涉及到学习、休闲娱乐、衣食住行等方方面面。而这些内容为小红书的AI搜索提供了大量数据,使其能更加精准、直观的为用户匹配出最佳答案。比如,“点点”主要参考的就是小红书站内笔记内容,并且给出的答案不仅有文字表述,还有图片、视频的形式。

百度“反击”

众所周知,搜索是百度的起家业务,长期以来,百度都在国内搜索引擎市场居于前列。在AI搜索之风愈刮愈烈的当下,作为行业老大哥的百度自是不落人后。据悉,百度在搜索Web端首页正式上线了全新的“AI搜”功能。

一是,各路玩家相继推出AI搜索产品,给百度带来了压力。正如前文中所提到的,AI搜索已经成为了搜索引擎行业的发展新方向,许多平台都推出了相关的AI搜索产品。比如,腾讯搜狗输入法进行了全新升级,推出和升级了AI搜索、AI快查等重要功能;360推出了AI搜索产品“纳米搜索”;抖音所打造的“抖音搜索”App也增添了AI搜索功能。面对各路玩家集体发力AI搜索的现状,百度自然不愿让自己的搜索基本盘旁落,其推出AI搜功能既是顺势而为,也是对竞争对手们接连出招的有力回击。

二是,百度“AI搜”功能的上线,有助于优化用户的使用体验,增强平台对用户的吸引力。众所周知,传统搜索虽然快捷,但最终呈现的结果同样十分繁杂,用户需要花费大量时间和精力来过滤无关信息,筛选有效信息,用户的搜索体验很难说得上好。

而百度的“AI搜”功能不仅在内容层面将百度搜索引擎、百度健康、百度文库等多个内容生态进行了深度融合与打通,搜索结果内容性得到了丰富,并且“AI搜”功能还会自动对搜索结果进行整合和优化,不仅搜索效率提高,搜索结果也更为准确、明晰,用户的搜索体验将得到极大提升,而这也会进一步提升用户对百度搜索的认可度,有助于巩固百度在搜索领域的领先地位。

AI搜索要革传统搜索的命?

当前AI搜索正在成为焦点,各路玩家接连推出AI搜索产品的举措更是为本就热闹的搜索领域添了一把柴。那么,AI搜索真的能够取代传统搜索吗?就目前情况来看,答案是否定的。

一方面,AI搜索生成答案的准确性和可靠性难以保证。相较于传统搜索,AI搜索极大地缩短了用户筛选信息的时间,搜索效率大幅提高。只是,网络上信息庞杂,虚假、错误信息也不在少数,AI搜索在整合生成答案时,存在着引用错误信息的风险,这也会导致AI搜索给出不准确、片面甚至是错误的答案。而不够精确的答案,也可能会误导用户。

另一方面,AI搜索成本较高,给企业带去了不小的运营压力。事实上,AI搜索的成本是高于传统搜索的。据Alphabet董事长John Hennessy表示,与AI大型语言模型交流询问的成本可能是标准关键字搜索的10倍以上。值得注意的是,除了成本高之外,AI搜索的商业模式也并不成熟,相较于传统搜索盈利难度更大。高昂的成本以及不成熟的商业模式也会在无形中增大企业的财务压力。

总的来说,AI搜索虽然能够为用户提供更为精准的搜索结果,提升了用户的搜索体验,但其不足之处同样明显,因此,AI搜索在短时间内无法取代传统搜索,两者说是互补关系更为恰当。不过,AI搜索确实已成为大势所趋,可以预见,随着技术的持续迭代升级,用户的搜索体验仍有望实现新的发展。

作者:刘旷

来源:刘旷(ID:liukuang110)

]]>
罗永浩,带着AI回来了 //m.clubpenjuin.com/361745.html Tue, 07 Jan 2025 06:33:50 +0000 //m.clubpenjuin.com/?p=361745

 

“这应该是我最后一次的创业,我会把我所有的一切都搭进去。”

2022年,已经成为“抖音一哥”的罗永浩突然宣布停播,并发布微博表示正式退出所有的社交平台,再次埋头创业。当时罗永浩对外介绍了自己的AR公司“细红线”,声称要造出如苹果产品一般的存在。

2024年8月,在“交个朋友”四周年庆直播现场,罗永浩官宣将在9月推出新品,并强调其为“颠覆性、破坏式的创新”。但新品并未如约。

一直到有传闻称,细红线将在蛇年春节前后发布首款新品。

这次倒是准了:2025年1月初,罗永浩真的带着团队开发的智能助手J1 Assistant(下称“J1”)来了——不是AR产品,却是熟悉的“锤子”味儿。

官方链接:matter.ai。也有网传信息称,此次的应用只是“前菜”,还有一个与之匹配的AI硬件正在路上。

根据现有的外部信息及多知的体验,J1既像是老罗对锤子的延续,也是一个聚合形态提供服务的AI应用。

多知将其整理为五点。

1、目前仅海外的安卓用户可以体验

据小红书、微博等社交平台上的用户讨论,国内手机暂不支持注册。

目前每位用户每天可以体验20次的免费语音助手服务。付费部分,每5美金可消耗70条AI对话。

2、产品属性为一款聚合类AI助理应用

从官网演示视频和一些用户的截图来看,目前其集合了之前锤子手机中的很多经典功能,包括:锤子便签、子弹短信、坚果 R1 锁屏长按功能、闪念胶囊、TNT 发牌手等等。

使用过程中支持AI辅助编辑,包括如语法的翻译和纠正、以及对笔记长度与风格的个性化调整。

有用户表示:“这就是锤子跟大模型的完美结合!”

3、自己的问题自己“推”

开始使用时,用户可以对自己的AI助手进行自定义,目前有5种角色和对应的声音。这些角色都是经典的助手形象,如福尔摩斯中的华生、钢铁侠中的贾维斯、Her中的萨曼莎等等。

对话过程中, 目前仅支持英文语音输入,但文字输入支持中文。

其中,Ripple Touch是一个比较有特点的设计——用户可以在说出指令后,通过手指移动,将自己的语音指令分配到适合的功能中。

比如将自己的语音指令推至谷歌搜索引擎、AI 模型询问、新建备忘录、对ChatGPT AI 进行询问等等。

4、搜索功能打包推送,也就是老罗曾在18年在鸟巢介绍过的“发牌手”

在搜索界面,J1提供了一个集合性的接口。

使用时,用户输入自己的搜索内容并直接点击对应的大主题,即可生成在该主题下的多个平台推荐的内容,方便用户可以获取多个渠道的信息。

大主题目前有五个,分别为:搜索引擎(谷歌搜索、必应搜索、雅虎搜索等);社交媒体(Facebook、X、Instagram);Perplexity(AI 搜索);购物(亚马逊、Ebay等);知识资源(维基百科、Youtube等)。

5、延续锤子的简洁风

产品主界面还是比较简单,页面底部只有对话、便签、子弹短信、任务事项等几个功能。除了麦克风外只有任务事项、便签、语音交互对话、短信、Ripple Touch等。

同时,用户也可以自己设置界面,一如坚果R1的操作模式一样,长按调整。

“老罗很多未完成的梦,都在这里延续了。”

“这就是应用版小锤子。”

“UI,爷青回。”

“那个男人回来了。”

“从钮祜禄变成贾维斯。”

……

这款产品刚刚为外界所熟悉也才不到一天,虽然现有的讨论中也有一些认为有待提升的部分,例如“资源集合之外,技术优势如何展示?”“国内落地怎么做?”“界面创新不足”“没有眼前一亮”等感受。

尤其是,和极越车标特别像的这件事儿……

但总体来说,期待与认可,依旧是核心关键词——罗永浩依旧值得一句“掌声鼓励”。

当然也可以期待,当接入国内的大模型,J1的“本土化”或许将为多个使用场景带来新的体验。

不知道还有没有人记得,10年前的一个夏末秋初,罗永浩刚创立锤子不久。他曾对外说自己做老罗英语培训的第一天就不开心,“开老罗英语培训第一天就不开心,但得为投资人负责。扛了两年,有天从财务那儿知道我们赚钱了,我当场就不想干了。”

后来的事情大家都知道了。

一晃十年,直到J1问世。

不知道这次,他开心了么。

作者:冯玮

来源:多知网(ID:duozhiwang)

]]>
2024年中国大模型十大事件复盘 //m.clubpenjuin.com/361519.html Thu, 02 Jan 2025 07:49:56 +0000 //m.clubpenjuin.com/?p=361519

 

本来没计划写本篇的,但被Galan刺激到了,他一直得瑟自己2020年就定义了Agent这个词。想想,还是多做点功课,为历史时间轴做些注脚。

TOP1:人工智能+写入政府工作报告

3月,“人工智能 +”行动首次被写入《政府工作报告》,将人工智能提升到战略层面,彰显了对科技发展的深刻洞察和前瞻性布局,为大模型发展提供了政策支持和方向指引。

相关预测,2035年生成式人工智能,有望为全球贡献近90万亿元的经济价值,其中我国将突破30万亿元。

❀ 解读:① 系统内的高手比预想的更深不可测,尤其前瞻性超乎想象,集中力量办大事,成为咱们的一贯传统优势,风向标是一种默许,一种激发,也是一种杠杆;② 系统能量之强,子系统的子公司的子业务,都可能超越某家明星公司,这既然是战略,也会拆解成N个战术;③ 值得一提的是,2015年《政府工作报告》中,首次出现“互联网+”。

TOP2:快手可灵AI点燃视觉生成赛道

6月6日,快手携可灵AI强势入局,这是由快手自研的视频生成大模型,包含文生视频、图生视频等功能,不仅运动幅度大且合理,还能模拟物理世界特性,具备强大的概念组合能力和想象力。

上线以来,可灵AI历经近20次产品功能升级。截至2024年12月10日,可灵AI已拥有超600万用户,累计生成超6500万个视频和超1.75亿张图片。

除了在技术层面的抢先突破,还开启了商业化探索,快手2024年Q3财报显示,可灵AI商业化单月流水也超过千万人民币。

❀ 解读:① 为什么把这条排到第二位,是因为Timing,彼时正值国内大模型的冰冻窗口期,可灵的出现打破了僵局,让从业者瞠目的同时,对整个行业恢复元气起着至关重要价值;② 同时,快手在视频赛道的多年积累,与可灵的闪亮诞生,令垂类赛道从业者看见因果关系,更加Focus自身优势;③ 可灵对快手的价值意义重大,是其下一曲线的重要驱动力。

TOP3:朱啸虎手撕Kimi股权结构

2月,月之暗面宣布完成一轮超10亿美元融资,背后支持的是阿里巴巴、红杉中国、美团、小红书等一众明星企业和资本,投后估值25亿美元,一跃成为国内大模型赛道上估值最高的“独角兽”。

11月,循环智能5家投资方,就月之暗面公司股权问题向香港国际仲裁中心提起仲裁,核心争议点聚焦创始人杨植麟、CTO张宇韬在未获循环智能投资方豁免书时,启动新公司融资创立事宜,投资方对循环智能在月之暗面的股比存疑。

12月,朱啸虎朋友圈 “三连发” 强势回应,矛头直指曾任职金沙江创投、后与月之暗面紧密关联的张予彤。同时,表态愿意豁免杨植麟、张宇韬和月之暗面公司,支持年轻人的AGI梦想。随后,月之暗面创始人杨植麟迅速回应,详述创业历程和股份分配始末。

❀ 解读:① 撕逼是人类商战大戏的一部分,国外有OpenAI创始团队内讧,国内有Kimi纷争;② 圈内看法复杂,有挺投资方的,也有挺创业者方的,对股权结构、资本分割、管理流程都有警示意义;③ 在硅基文明到来之前,再次证明碳基的自私性、脆弱性。

TOP4:字节打响大模型降价第一枪

5月15日,字节跳动正式打响了国内大模型价格战的第一枪。其旗下AI大模型豆包宣布,主流大模型企业市场的定价为0.0008元/千Tokens,市面上同规格模型的0.12元/千Tokens。相当于,0.8厘就能处理1500多个汉字,比行业便宜99.3%!

随后,多家厂商相继跟进降价。

21日,阿里通义千问宣布大降价;同日,百度宣布文心大模型全面免费,立即生效;22日,腾讯也公布了全新大模型升级方案。

❀ 解读:① 为什么是字节?为什么不是别家?;② AI的技术是指数级曲线,AI的商业价值也呈指数级曲线,过早陷入到营收导向,是战略错误(说给某家听的);③ 字节在AI上的投入已经呈现碾压式优势,这次突如其来的降价,算得上一次战术偷袭,给各家敲响了警钟。

TOP5:集体分不清9.11和9.9哪个大

年中,还发生了一件令人啼笑皆非却又引人深思的事,那就是众多大模型在 “9.11和9.9哪个大” 这一小学三年级基础数学题上纷纷“失智”、 “翻车”。

据测试,国内外12个颇具影响力的大模型中,仅阿里通义千问、百度文心一言、Minimax和腾讯元宝给出了正确答案,而包括ChatGPT-4o、字节豆包、月之暗面Kimi、智谱清言等在内的8个大模型都答错了。

期间,教育垂类大模型(有道子曰、学而思九章)等,展现了不错的专业性。

❀ 解读:① 这是第一次生动地展示了大模型的「智力缺陷」,但绝对不是最后一次,一定还有N多隐藏bug,人类更像硅基的捉虫师;② 给国内大模型的响应速度点个赞,三天之内,几乎所有大模型厂商修复了该Bug;③ 任何细微的差错都可能酿成大祸,在军事、金融、安全等领域,应用着实要慎重。

TOP6:硬件厂商纷纷发布AI笔记本/AI手机

4月,联想率先发布AI PC,具备五大特性;于5月,在中国交付了全球第一台内嵌天禧个人智能体系统的AI PC。

2024年,同样被称为AI手机元年,OPPO、荣耀等纷纷发布相关概念产品。

❀ 解读:① 为什么这条排的如此之高,是因为硬件作为离消费者最近的物理载体,最有可能在应用场景上有所突破;② AI概念产品,对拉动内需,更新换代起着至关重要作用,这是当下经济活力的催化剂;③ 经过移动互联网十多年的洗礼,硬件厂商对软件价值有了刺痛的「警醒」,他们希望将蛋糕更多掌控在自己手里。

TOP7:混元低调开源

2024腾讯全球数字生态大会上,腾讯发布新一代大模型 “混元Turbo”。相比前代模型,训练效率提升108%,推理效率提升100%,推理成本降低50%,解码速度提升20%。

目前,腾讯混元大模型已在近700个腾讯内部业务和场景中落地测试,比如,腾讯广告妙思平台实现了广告创意生产的全链路智能化升级。

12月3日,腾讯混元大模型公布最新进展:正式上线视频生成能力,并开源该视频生成大模型,参数量130亿,是当前最大的视频开源模型。

❀ 解读:① 鹅厂还是一如既往的慢热,但谁也不敢小觑其实力;② 相比字节的高举高打,鹅厂更强调对自身业务的有效加强;③ 虽然基座模型有点掉队,却是第一个开源的,放在全球都可以作为一个AI大事件。

TOP8:文心一言更名文小言

6月,百度发布文心4.0Turbo,并发布了检索增强的文生图技术iRAG,进一步降低大模型文生图方面的幻觉;

9月,百度宣布“文心一言”升级为4.0版本,并更名为“文小言”,同时免费开放文心4.0大模型能力。

❀ 解读:① 度娘勉强挤入本榜单,带有一定主观倾向性,实在不忍心这家最早发力AI的巨头,真的掉队;② 个人以为,Robin有两个致命问题:其一不相信超级应用,其二,不相信自己能做出超级应用,这种务实会让组织丧失对塔尖的向往,取乎中得乎下;③ 度娘的商业模式不自我革新,不去从根本解决问题,后面会更麻烦;总之,保持美好寄托吧,Robin人好。

TOP9:科大讯飞星火燎原

2024之于讯飞,也是高光不断的一年。

6月,科大讯飞作为第一完成单位的 “多语种智能语音关键技术及产业化” 项目,荣获国家科学技术进步奖一等奖,实现202种方言的智能识别;10月,讯飞星火4.0turbo发布,其七大能力全面超过GPT-4turbo,数学和代码能力更是超越GPT-41。

❀ 解读:① 科大讯飞以一己之力,让合肥这座城市看见AI之光,同时获得全城之力的助推;② 讯飞在教育、医疗等垂类产业的探索深度,其实是超过很多一线大厂的;③ 总体来说,讯飞的硬实力依然被低估了。

TOP10:昆仑万维All in AGI与AIGC

4月17日,昆仑发布4000亿参数的大语言模型“天工 3.0”。

2024年,昆仑万维现完成了“算力基础设施—大模型算法—AI应用”全产业链布局,并在AI搜索、AI游戏、AI音乐、AI 社交、AI短剧等多个垂直细分领域探索布局。其中,AI音乐表现尤为突出。

❀ 解读:① 昆仑这家公司很特别,体量不是超巨,但始终保持在一线阵营;② 最值得称道的是,其稳健的版本节奏,非常工程化有条不紊,其组织节奏稳健;③ 昆仑的垂类布局相对多元,最有机会看见音乐、游戏等胜出可能。

小结:

其实就一句话,也许我们短期高估了大模型的价值,但长期还是严重低估了AI的价值。

作者:巨头编委会

来源:巨头财经(ID:jutoucaijing)

]]>
2024 AI大模型年度10大关键词发布 //m.clubpenjuin.com/361277.html Tue, 24 Dec 2024 07:15:54 +0000 //m.clubpenjuin.com/?p=361277

 

2024年,人工智能(AI)大模型领域持续快速发展,技术进步与市场需求共同驱动下,涌现出诸多重要趋势和突破。

随着计算能力的提升和数据资源的丰富,AI大模型在各行各业的应用愈加广泛,从自然语言处理到计算机视觉,再到自动驾驶和智能制造,AI大模型正以前所未有的速度改变着我们的生活和工作方式。

亿欧结合全年热点事件、重点领域突破、商业化落地趋势、技术发展动态及未来方向,筛选出:“开源与闭源竞争、行业集中与两极分化、多模态与智能Agent的创新、架构优化与能效瓶颈、通用人工智能(AGI)的探索、AI伦理与可解释性、融资与并购、跨行业融合(AI+X)以及自监督学习”等相关AI大模型年度十大关键词。

1. 开源与闭源之争

2024年,开源大模型与闭源大模型之间的竞争愈发激烈。

以Mistral、阿里云为代表的开源大模型厂商,提供了与商业大模型相媲美的性能,吸引了广泛的开发者和企业用户。

在商业模式上,开源厂商通常通过提供增值服务、定制解决方案和技术支持实现盈利;在生态建设上,开源社区的活跃度和贡献者数量不断增加,促进了技术的快速迭代与应用扩展。

与此同时,商业巨头如OpenAI、Google等继续推进闭源模型的商业化,通过控制数据、计算资源和技术生态,巩固其市场地位。

商业模式上,企业依托高端订阅服务、API接口和企业解决方案实现盈利;在生态建设上,通过构建封闭但高效的技术生态系统,确保用户依赖其核心技术。

开源与闭源的对立不仅在技术层面展开,也在商业模式和生态建设上形成了深刻的分歧。

这种竞争推动了技术的多样化发展,同时也促使企业在选择模型时更加注重自身需求与战略定位。

2.行业两极分化显现

头部企业受到的资源倾斜越来越多。

形成明星企业扎堆:国内外众多明星企业纷纷推出新产品,形成明显的聚集趋势。

海外方面,OpenAI、Anthropic、xAI、Meta、Google DeepMind、Mistral等公司持续创新;国内方面,阿里、腾讯、华为、字节跳动、智谱AI、零一万物、百川智能、月之暗面、MiniMax、百度、京东、Deepseek、商汤、科大讯飞、昆仑万维、阶跃星辰等企业也积极布局,推动大模型技术的商业化和落地应用。

百模大战退潮:随着市场竞争的加剧,过去一度盛行的“百模大战”逐渐退潮。企业不再盲目追求模型数量,而是更加注重模型质量和实际应用效果。

这些转变也促使资源更加集中于少数具有核心竞争力的企业,进一步加剧了行业的两极分化。

企业聚集效应不仅加速了技术创新,也促进了市场竞争的加剧。

头部企业凭借丰富的资源和技术积累,在市场中占据了主导地位,而中小企业则需要则需要在细分领域寻找突破口,以实现差异化竞争。

3.多模态AI与Agent趋势

多模态AI与智能Agent引领产品创新。

多模态AI能够处理和理解多种类型的数据(如文本、图像、音频、视频等),使得AI产品更加智能化和个性化。

2024年,多模态技术与智能Agent的发展成为AI产品的重要趋势,推动了用户体验的提升和应用场景的拓展。

例如,智能客服系统不仅能理解文本,还能解析用户的语音和面部表情,从而提供更加精准的服务。

4.架构优化与Scaling Law泛化

架构优化加速涌现,Scaling Law推动规模化发展。

大模型的创新主要体现在架构的不断优化与规模化发展上。通过改进模型架构,提升性能的同时降低计算成本,使得大模型更加高效和适应性强。

Scaling Law(规模定律)在模型性能提升中起到了指导作用,推动了模型规模与性能关系的深入研究。推理能力的提升成为大模型的核心竞争力,促使计算资源和数据处理方式发生深刻变革。

5.AGI探索与空间智能

通用人工智能(AGI)与空间智能推动智能系统进化。

AGI的探索应用仍是长期目标,2024年,视频生成技术的进步点燃了世界模型的发展热潮,空间智能的统一将虚拟与现实更加紧密地结合,OpenAI的o3更是让大众纷纷高喊AGI已经来临。

大模型企业们的技术进一步迭代,为实现更接近人类认知的智能系统奠定了基础,也推动了智能机器人、自动驾驶等领域的突破性进展。

当下我们也已经可以看到端倪,集成的AGI智能助手不仅能完成复杂任务,还展现出自主学习和适应新环境能力,标志着我们已经向真正通用人工智能迈出了重要步伐。

6.AI大模型的能效瓶颈

能源消耗一直是训练大模型的瓶颈。

尽管美国拥有充足的GPU资源,但未来的电力消耗仍是重大挑战。

2024年,随着对环境影响的关注增加,越来越多的公司开始关注AI模型的能效优化。通过采用更加高效的算法和硬件,优化数据中心的能源管理,企业努力在提升模型性能的同时,降低能耗,推动绿色AI的发展。

例如,采用更高效的芯片架构和散热、冷却技术,以及优化训练流程,减少不必要的计算,都是当前的主要方向。

7.可解释性与AI伦理

模型透明性与伦理考量保障AI负责任发展。

随着大模型在各行业的广泛应用,其决策过程的透明性和可解释性变得尤为重要。2024年,AI伦理成为大模型研发的重要考量,包括公平性、透明性、隐私保护和责任归属等方面。

通过提升模型的可解释性,增强用户对AI系统的信任,推动了更加负责任和可持续的AI发展。

同时,数据隐私与AI伦理问题成为行业的重要议题。

欧洲和美国的监管机构推动更加严格的AI法规,要求企业在训练和使用大模型时更加重视数据保护和模型透明度,确保技术创新与安全伦理同步发展。

未来相信,在国内也会进一步推动相关法规监管的进一步发展。

8.融资与并购

大模型领域的投资热潮在2024年持续升温,投融资马太效应与国家支持推动AI生态发展。

许多初创公司获得资本支持,AI领域的投融资呈现出明显的马太效应,领先企业和机构获得更多资源支持。

同时,国家层面的支持频率提升,研究和投资的增加不仅促进了技术创新,也加速了AI技术在实际应用中的落地和普及。

此外,大模型公司之间的并购活动加剧,企业为了增强技术竞争力和市场份额,通过收购和合作扩展自身的能力和资源。

9.AI应用增长与AI+X赋能

跨行业融合推动AI应用的快速增长。

AI与各行业的深度融合(AI+X)推动了应用的快速增长。2024年,AI赋能类产品大干快上,然而依赖纯AI技术的“原生AI”产品在市场上较难取得突破。

其实也揭示了应用层面的实际挑战,强调了跨行业合作和定制化解决方案的重要性。

除了核心的AI研发,许多大模型公司还开始向其他领域扩展。

OpenAI与微软的合作不仅限于软件和服务,还包括硬件和智能设备的集成。Google、智谱、零一万物、百川等公司也在探索如何将大模型技术赋能于医疗、金融、教育等领域,推动跨行业的AI应用落地。

10.自监督学习与数据驱动创新

自监督学习成为提升大模型性能的关键技术。

2024年,自监督学习方法在大模型训练中得到广泛应用,通过利用海量未标注数据,显著提升模型的泛化能力和适应性。

这种数据驱动的创新方式,不仅减少了对高质量标注数据的依赖,还加快了模型训练的效率。

2024年,大模型技术的快速发展让人们对未来充满期待。

从开源与闭源的竞争,到多模态AI与自监督学习,再到能效优化和AI伦理的深入探讨,AI技术的演进将继续带来前所未有的创新机会。

同时,随着AI技术的普及和商业化,行业监管、伦理问题、以及可持续发展等挑战也需要引起更多关注。

2024年大模型技术的蓬勃发展,既为企业创造了巨大的机遇,也带来了诸多挑战。无论是技术创新、市场竞争,还是道德伦理和政策监管,未来的大模型产业都将经历更深层次的变革和发展。

作者:不寒,编辑:刘欢

来源:亿欧网(ID:i-yiou)

]]>