Powered by RND
PodcastsTecnología张小珺Jùn|商业访谈录
Escucha 张小珺Jùn|商业访谈录 en la aplicación
Escucha 张小珺Jùn|商业访谈录 en la aplicación
(6 012)(250 108)
Favoritos
Despertador
Sleep timer

张小珺Jùn|商业访谈录

Podcast 张小珺Jùn|商业访谈录
张小珺
努力做中国最优质的科技、商业访谈。 张小珺:财经作者,曾供职《财经》,现在是腾讯新闻科技主笔 ,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 也许你看过我的作品: 2024年中国AGI三部曲 《杨植麟复盘大模型创业这一年:向延绵而未知的雪山前进...

Episodios disponibles

5 de 96
  • 93. 离开字节、MiniMax的张前川,发出AGI对人类威胁的预警
    今天这集节目是春节前,我和前今日头条用户产品负责人、前MiniMax产品负责人张前川的一次聊天。张前川从2005年开始入行成为产品经理,经历过百度、360、字节、知乎等公司,最后一次出现在新闻是他从大模型公司MiniMax离职。这次聊天分成两个部分:第一部分是他作为一位20年的产品经理的思考,特别是他观察到的中国内容产品演变史。第二部分是他最近半年的所思所想。和上一集节目张亚勤对AGI勾勒的乐观前景不同,关于AGI,张前川发出了对人类威胁的预警,并分析人类灭绝的n种可能性。他告诉我,他接下来会考虑成立一家pro-human的非营利组织。(本集节目录制于春节前)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)内容产品的20年演变史 02:00 张前川自我介绍:一位产品经理的20年 (曾供职过的企业:百度、360、字节、新浪微博、知乎、MiniMax) 03:39 搜索引擎、拉里·佩奇和俞军 17:35 2005-2025,过去20年,内容分发产品的演化历史和内生逻辑 24:28 推荐引擎、今日头条和张一鸣 28:28 小红书在推荐引擎范式的延长线上吗?为什么小红书不是字节做的? 39:29 微信送礼物的功能maybe对于小红书更有意义 42:50 泛化如水流有方向:女生向男生,年轻向年长用户的泛化更容易 52:00 面试时张一鸣问我的问题离开大模型公司的张前川,发出AGI预警这里对AGI推演和92集张亚勤的观点截然不同 54:10 AI是人类的最后一个发明,加速度无限大 57:00 把AI当目的 vs 把人当目的(更多公司是在for AI的目的?) 01:09:08 Agent就是“baby阶段的AGI” 01:19:56 人类灭绝的n种可能性(人利用AI灭绝人类/AI有意识的灭绝人类/AI无意识的灭绝人类) 01:24:30 人类如何幸福生存下去? 01:26:03 如果AI产品收费模式是付费制,大部分人类会逐渐失去和AI的连接 01:40:21 AGI公司的承诺和制度安排 01:58:48 人类不要逃避危险本身而逃避思考【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    2:07:21
  • 92. 和张亚勤院士聊,意识、寿命、机器人、生物智能和物种的延伸
    人人都谈论AGI,但在可见的未来,AGI到底是一幅什么样的画面?针对这个话题,我邀请了清华大学智能产业研究院(AIR)院长、前百度公司总裁张亚勤院士,来聊聊。在他的脑海中,人工智能会按照信息智能〉物理智能〉生物智能的图谱逐步实现AGI。这种构想和信仰之下,AGI呈现的是一个乐观的前景画面。但这不是人们预感AI进化的全部图景,在之后的节目中,我也会推出对AGI的另一种思考与隐忧。我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:45 在AI冬眠期,微软亚洲研究院成立了 03:57 微软怎么管理亚洲研究院?目标如何设置? 05:53 清华智能产业研究院(AIR)的目标和路径,不做基层通用大模型 10:45 我脑海中的AGI地图:信息智能〉物理智能〉生物智能 12:40 信息智能是大脑的智商,5年内达到AGI水平 14:25 物理智能首先落地是自动驾驶,人形机器人需要10年 15:51 机器人分三类:家庭机器人、工厂机器人、社会机器人 21:05 人形机器人:未来可能每个人有一个你的copy、你的“分身” 22:25 为什么大模型大幅加速了自动驾驶和具身智能的开发速度? 39:38 生物智能:20年实现,人的寿命更长,诞生新物种 45:56 构想10年后的世界 51:27 最后推荐两本书【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    53:07
  • 91. 逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”
    2025年这个春节,DeepSeek一举改写了全球AGI大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作。在《商业访谈录》89集节目中,我邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的DeepSeek-R1-Zero、R1、Kimi发布的K1.5,以及OpenAI更早发布的o1技术报告。这些模型聚焦的都是大模型最新技术范式,RL强化学习,简单来说就是o1路线。今天这集,我邀请的是香港科技大学计算机系助理教授何俊贤。他的研究方向是大模型推理,从很早就开始关注DeepSeek的系列研究。我们会focus在最近引发全球AI届关注的DeepSeek上。何老师将带领大家从DeepSeek的第1篇论文开始,阅读经过挑选的这家公司历史上发布的9篇论文。我们希望帮助大家从一个更延续、更长期、也更技术底层的视角来理解DeepSeek,以及它所做的复现与创新工作;与此同时也希望能让更多人感受到技术之美。(如果如果,你觉得光听还不够刺激,觉得一定要坐在电脑前看着投屏、拿起纸笔学习更有沉浸感…如果你实在是真心想要找虐的话…请前往:含投屏的视频版本。嘿嘿!预祝你学习顺利啦!2025我们和AI共同进步!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:01 讲解开始前,先提问几个小问题整体风格:Open、Honest、低调、严谨的科学态度DeepSeek基座模型21:00 《DeepSeek LLMScaling Open-Source Language Models with Longtermism》技术讲解45:48 《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》技术讲解01:06:40 《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》技术讲解01:40:17 《DeepSeek-V3 Technical Report》技术讲解DeepSeek推理模型02:05:03 《DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence》技术讲解02:12:16 《DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence》技术讲解02:47:18 《DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data》和《DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search》技术讲解02:52:40 《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》技术讲解03:01:41 9篇论文到这里都讲完啦!最后我们一起强化学习一下!关于强化学习往期节目:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角王小川返场谈o1与强化学习:摸到了一条从快思考走向慢思考的路逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”开源一场关于DeepSeek的高质量闭门会:一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    3:20:52
  • 90. 朱啸虎又来了:中国现实主义AIGC故事的1周年连载
    1年前,在我的报道《朱啸虎讲了一个中国现实主义AIGC故事》中,他的观点淋漓尽致地展现了一个现实版中国AI故事。他用“我们一看就知道,这个肯定没戏”,“我们一开始就说了,我就不看好大模型”,“ 我都不愿意去聊,你知道吗?这没有意义”,表态绝不会投资6家中国大模型创业公司中的任何一家。然而,时隔1年,Allen Zhu对待通用人工智能的态度出现了惊奇的逆转。这是朱啸虎现实主义故事的1周年连载。希望《商业访谈录》能持续为大家呈现中国AI市场的风云变幻与市场中人的心态起伏。2025,期待我们和AI共同进步!我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:30 DeepSeek快让我相信AGI了 03:08 这是对领先者的curse、诅咒 05:21 闭源模型还有没有价值?是很严峻的灵魂拷问 06:00 20天做到2000万DAU:DeepSeek是全球App增速历史第一,不需要任何限定语 07:00 梁文锋觉得,意识不一定是一个非常高技能、高门槛的事情 11:19 不用担心在别人的地基上盖房子,对AI应用公司是极大的解放 14:40 初始语料需要博士级别、各个领域专家级别的人来打标签 15:53 DeepSeek这次唯一没有公开的可能就是预训练语料 17:40 OpenAI成本很高,如果不能持续保持领先,挑战会挺大 18:09 中国大模型公司都需要重新思考 20:05 今天的DeepSeek是追赶者还是创新者角色? 21:02 怎么看梁文锋?梁文锋是你的反面吗? 21:40 我肯定会投啊!我肯定会投!——这个价格已经不太重要了,关键是参与在这里面 22:59 我今天上午和梁文锋说,R1可能会被认为是机器AI意识的元年 24:00 至少搜索肯定是被彻底取代了——这是毫无疑问的! 26:14 AI产品的数据飞轮价值不大,这是我这两年最大一个教训 27:51 如果你是DeepSeek CEO,你当下最关切、最紧要需要解决的问题是什么? 31:32 怎么看特朗普上任第二天宣布的Stargate(星际之门)项目?怎么看英伟达? 33:29 “朱啸虎们”怎么看待“梁文锋们”? 34:07 复盘1年前《朱啸虎讲了一个中国现实主义AIGC故事》里的观点,哪些被打脸?哪些更坚定? 36:16 尤其在中国,你可以假设底层模型是免费的! 37:07 回顾2024年的大模型行业,你会把哪些时刻当作关键节点? 40:45 字节今天如果马上改开源追赶,那也不太容易 41:30 今年会不会看到通义千问把自己的生态向DeepSeek兼容,这样一个标志性事件? 42:08 点评新出现的AI产品(包括但不限于Perplexity、Cursor、Devin) 47:39 聊小红书、具身智能、杭州和理想汽车 52:26 现在全世界就只有中美有AI能力,出海都是Low-Hanging Fruits(低垂的果实) 52:57 我今天看到在新加坡的泡泡玛特,买盲盒还要配货,你想到吗?!买盲盒都要配货!! 55:30 答DeepSeek问 59:50 最后的快问快答朱啸虎往期节目:你们要的朱啸虎,来了1年前的报道:《朱啸虎讲了一个中国现实主义AIGC故事》【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    1:03:08
  • 89. 逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”
    2025年这个春节,DeepSeek一举改写了全球AGI大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作,一起来研读这几篇关键的技术报道。今天这集节目,我邀请加州大学伯克利分校人工智能实验室在读博士生潘家怡,来做技术解读。他的研究方向是语言模型的后训练。这期播客中,家怡将带着大家一起来读,春节前DeepSeek发布的关键技术报告,他在报告中发布了两个模型DeepSeek-R1-Zero和DeepSeek-R1;并对照讲解Kimi发布的K1.5技术报告,以及OpenAI更早之前发布的o1的技术博客,当然也会聊到它春节紧急发布的o3-mini。这几个模型聚焦的都是大模型最新技术范式,RL强化学习。希望我们的节目能帮更多人一起读懂这几篇论文,感受算法之美,并且准确理解目前的技术拐点。(以下每篇技术报告都附了链接,欢迎大家打开paper收听✌️)期待2025,我们和AI共同进步!【嘉宾小记】加州大学伯克利分校人工智能实验室在读博士生,上海交通大学本科毕业。他的研究方向主要集中在语言模型的后训练领域,通过强化学习等方法提升AI在智能体行为决策与推理方面的能力。这是他做的有关R1-Zero小规模复现工作:github.com我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:46 讲解开始前,先提问几个小问题16:06 OpenAI o1技术报告《Learning to reason with LLMs》讲解报告链接:openai.com中文标题翻译:《让大语言模型学会推理》OpenAI在报告中有几个重点: Reinforcement Learning — 强化学习 It learns to recognize and correct its mistakes. It learns to break down tricky steps into simpler ones. It learns to try a different approach when the current one isn’t working. (它学会识别并纠正自己的错误,学会将复杂的步骤分解为更简单的步骤,学会在当前方法行不通时尝试不同的解决途径。)这些是模型自己学的,不是人教的。 我们还在技术早期,他们认为这个技术可拓展,后续性能会很快攀升。33:03 DeepSeek-R1-Zero and DeepSeek-R1技术报告《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》讲解报告链接:github.com中文标题翻译:《DeepSeek-R1:通过强化学习激励大语言模型的推理能力》35:24 摘要(Abstract)37:39 导论(Introduction)44:35 发布的两个模型中,R1-Zero更重要还是R1更重要?47:14 研究方法(Approach)48:13 GRPO(Group Relative Policy Optimization,一种与强化学习相关的优化算法)57:22 奖励建模(Reward Modeling)01:05:01 训练模版(Training Template)01:06:43 R1-Zero的性能、自我进化过程和顿悟时刻(Performance, Self-evolution Process and Aha Moment)值得注意的是,“Aha Moment”(顿悟时刻)是本篇论文的高潮:报告称,在训练DeepSeek-R1-Zero的过程中,观察到一个特别引人入胜的现象,即“顿悟时刻”。这一时刻出现在模型的中间版本中。在这个阶段,DeepSeek-R1-Zero通过重新评估其最初的方法,学会了为一个问题分配更多的思考时间。这种行为不仅是模型推理能力不断增长的有力证明,也是强化学习可能带来意想不到且复杂结果的一个迷人例证。这一时刻不仅是模型的“顿悟时刻”,也是观察其行为的研究人员的“顿悟时刻”。它凸显了强化学习的力量与美感:我们并没有明确地教导模型如何解决问题,而是仅仅为其提供了正确的激励,它便自主地发展出高级的问题解决策略。这种“顿悟时刻”有力地提醒我们,强化学习有潜力在人工智能系统中解锁新的智能水平,为未来更具自主性和适应性的模型铺平了道路。01:14:52 模型能涌现意识吗?01:16:18 DeepSeek-R1:冷启动强化学习( Reinforcement Learning with Cold Start)01:24:48 为什么同时发布两个模型?取名“Zero”的渊源故事?01:28:51 蒸馏:赋予小模型推理能力(Distillation: Empower Small Models with Reasoning Capability)01:35:27 失败的尝试:过程奖励模型(PRM)与蒙特卡罗树搜索(MCTS)01:42:33 DeepSeek-R1技术报告是一片优美精妙的算法论文,有很多“发现”,这是它成为爆款报告的原因01:43:50 对DeepSeek-R1训练成本的估算:往高里估,一万步GRPO更新, 每步就算1000的batch size(试一千次),一次算一万个token;模型更新用的 $2.2 / 1M tokens, 总共是100B tokens — 0.22M 算上效率损失,模型训练也有一定开销,说破天也就1M;如果优化的话很有可能只有10万美金左右的成本 相比之下,预训练用了600万美金,相当便宜01:49:05 KIMI K1.5技术报告《KIMI K1.5:SCALING REINFORCEMENT LEARNING WITH LLMS》讲解中文标题翻译:《KIMI K1.5:利用大语言模型扩展强化学习》报告链接:arxiv.org该报告公开了许多技术技巧细节,对于想要复现的人,两篇paper一起使用更佳。如,数据构造、长度惩罚、数学奖励建模、思维链奖励模型、异步测试、Long2short、消融实验等。02:20:07 DeepSeek论文的结尾谈未来往哪里发展?02:24:35 以上是三篇报告所有内容,接下来是提问时间,我们继续强化学习一下!“数据标注”在几篇论文中藏得都比较深,小道消息OpenAI一直以100-200美元/小时找博士生标数据“DeepSeek的论文隐藏了技术细节,但把算法的精妙之处和美展现给你,让你感受技术之美,给你震撼。”它解密了后训练范式革命可以何处去,让你发现原来算法这么简单!再一次验证——“最优美的算法永远是最干净的。”关于强化学习往期节目:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角王小川返场谈o1与强化学习:摸到了一条从快思考走向慢思考的路开源一场关于DeepSeek的高质量闭门会:一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    2:49:35

Más podcasts de Tecnología

Acerca de 张小珺Jùn|商业访谈录

努力做中国最优质的科技、商业访谈。 张小珺:财经作者,曾供职《财经》,现在是腾讯新闻科技主笔 ,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 也许你看过我的作品: 2024年中国AGI三部曲 《杨植麟复盘大模型创业这一年:向延绵而未知的雪山前进》 《朱啸虎讲了一个中国现实主义AIGC故事》 《王小川想提出中国AGI第三种可能性》 抖音上下篇 《抖音内幕:时间熔炉的诞生》 《TikTok内幕:张一鸣的巨浪征途》 共享单车上下篇 《ofo剧中人:我不愿谢幕》 《穿越废墟:共享单车剧未终》 企业调查 《百度最难捱的一夜:五名高管闪电辞职内幕》 VC与时代 《风投,大转弯》 《仅仅是昨天:我们亲历的萧条、繁荣和时代》 《徐小平退后一步,方爱之向前一步:中国风投第一起交接故事》 人物报道 《王石:老人与海》 《陆奇的大模型世界观》 如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖:)
Sitio web del podcast

Escucha 张小珺Jùn|商业访谈录, Desde el reloj y muchos más podcasts de todo el mundo con la aplicación de radio.es

Descarga la app gratuita: radio.es

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app
Aplicaciones
Redes sociales
v7.8.0 | © 2007-2025 radio.de GmbH
Generated: 2/22/2025 - 8:42:16 AM