全部

胖东来向左,银泰向右

阿里巴巴终于还是把银泰百货给卖了。在持有了将近十年之后,这场新零售巅峰时期的明星并购案最终以阿里亏损93亿而宣告结束。12月17日,阿里巴巴正式公告,公司与另一名少数股东同意将银泰100%的股权出售给由雅戈尔集团和银泰管理团队成员组成的购买方财团。公告中称,阿里巴巴目前持有银泰约99%的股权,银泰出售的所得款项总额约为人民币74亿元。阿里巴巴预计因出售银泰而录得的亏损约为人民币93亿元。对于阿里来说,银泰的调整是其新零售业务战略调整的重要一步,也符合近一年来阿里的转型方向。但此刻看来,真正的问题可能不在阿里,而是为什么同样都是做零售出身,胖东来如此红火,而银泰却没能给阿里带来新的想象空间?现在可能未必所有人都听说过银泰百货的名字。但如果时间倒退回20年前,要论中国零售界的顶流排行,其中一定有银泰的位置。银泰的故事,和胖东来有一些相似之处。1998年,银泰百货在杭州成立,在当年就以其时尚的商品选择、优质的客户服务和不断适应市场变化的能力著称。进入21世纪以来,银泰开启了全国化扩张的步伐。在其不断规模化的十余年间,恰好也赶上了电商崛起的上升年代。到了2014年,阿里和银泰强强联合,开始探索零售的新可能性。但今天看来,这个可能性的天花板有点低。为什么?这可能和零售的商业模式与电商的商业模式底层逻辑上存在不可调和的冲突有直接关系。电商的商业模式从一开始就是去中心化的、多点分布的平台逻辑,对企业核心素养的要求是运营能力和流量分配能力。但实体零售则完全不同。它对企业家和管理者提出的要求是精细供应链管理能力。平台要求的是低成本规模化的“大而全”,而后者某种程度上追求的是“小而美”——胖东来迟迟不走出河南,背后应该有此考量。在美国,电商和实体零售就没有试图融合过,但无论是电商还是实体商超,日子都不算难过。亚马逊和沃尔玛,市值和业绩增长都很稳定。其实,商学院过往的案例讲得很清楚,亚马逊和沃尔玛并非同一个物种,如果硬要融合,可能就会出现“驴唇不对马嘴”的四不像。曾几何时,我们的商业世界流行的是“所有行业都可以用互联网重做一遍”。在经济上升周期,这个方式可能没问题。技术革命确实对我们的生产生活方式产生了颠覆性的影响,很多行业也因为技术革命而前所未有地提升了效率。但也正如巴菲特所言,当潮水退去才知道谁在裸泳,在经济面临下行压力之时,对商业的考验,还是需要回归到最基本的问题上。过去这些年,因为技术和热情所造就的各种概念模式背后,商业的基本常识从来就没有变过——那就是能不能做好产品、能不能真正意义上满足用户的需求?对于互联网公司们来说,度过冬天需要有准备。2023年9月,阿里确立了“用户为先、AI驱动”的战略调整,紧接着,阿里逐步退出非核心资产。这样的收缩未必是件坏事。越是在下行周期,越能看清楚公司的核心护城河所在。而对实体商业来说,在今天的情境下,可能更需要考虑的不是要不要跟风做直播、搞数字化营销,而是要回归到生意的本源上——提高供应链效率,降低成本损耗率。这些本应该是实体商业的长板所在。从这个角度来说,银泰离开阿里,跻身雅戈尔旗下未必没有新机会。胖东来在经济面临下行压力、国内需求趋向转弱时依然走出了一条零售的新道路。这也给包括银泰在内的所有实体零售企业提了个醒:不要浪费一场“好的危机”。越是艰难时刻越要回归到生意本身,这也是应对技术变革挑战和不确定性困局的方法所在。
5小时前
8

苹果正在与英伟达合作,想让AI的响应速度更快

近日,苹果与英伟达宣布合作,旨在加速和优化大语言模型的推理性能。为了改善传统自回归LLM推理效率低和内存带宽小的问题,今年早些时候,苹果机器学习的研究人员发布并开源了一种名为ReDrafter的推测解码技术。目前,ReDrafter已经整合到英伟达的可扩展推理方案TensorRT-LLM当中,后者是基于TensorRT深度学习编译框架的专为优化LLM推理而设计的开源库,支持包括Medusa等推测解码方法。不过,由于ReDrafter所包含的算法使用了之前从未用过的运算符,因此英伟达方面添加了新的运算符,或者公开了现有的运算符,大大提高了TensorRT-LLM适应复杂模型和解码方式的能力。据悉,ReDrafter推测解码通过三个关键技术来加速LLM的推理过程:RNN草稿模型动态树注意力算法知识蒸馏训练RNN草稿模型是ReDrafter的核心组件。它使用循环神经网络,基于LLM的“隐藏状态”来预测接下来可能出现的tokens序列,其能够捕捉局部的时间依赖性,从而提高预测准确性。这个模型的工作原理是:LLM在文本生成过程中首先生成一个初始token,然后RNN草稿模型利用该token和LLM的最后一层隐藏状态作为输入进行束搜索,进而生成多个候选tokens序列。与传统自回归LLM每次只生成一个token不同,通过RNN草稿模型的预测输出,ReDrafter能够在每个解码步骤生成多个tokens,大大减少了需要调用LLM验证的次数,从而提高了整体的推理速度。图源:arXiv动态树注意力算法则是一种优化束搜索结果的算法。我们已经知道,在束搜索过程中会产生多个候选序列,而这些序列往往存在共享的前缀。动态树注意力算法会识别出这些共享前缀,并将它们从需要验证的tokens中去除,从而减少LLM需要处理的数据量。某些情况下,该算法能将需要验证的tokens数量减少30%到60%。这意味着使用动态树注意力算法后,ReDrafter能够更高效地利用计算资源,进一步提高推理速度。知识蒸馏是一种模型压缩技术,它能够将一个大型、复杂的模型的知识“蒸馏”到一个更小、更简单的模型中。在ReDrafter中,RNN草稿模型作为学生模型通过知识蒸馏从LLM中学习。具体来讲,蒸馏训练过程中,LLM会给出一系列下一个可能词的概率分布,开发人员会基于这个概率分布数据训练RNN草稿模型,然后计算两个模型概率分布之间的差异,并通过优化算法使这个差异最小化。在这个过程中,RNN草稿模型不断学习LLM的概率预测模式,从而在实际应用中能够生成与LLM相似的文本。通过知识蒸馏训练,RNN草稿模型更好地捕捉到语言的规律和模式,从而更准确地预测LLM的输出,并且因为其较小的规模和较低的推理计算成本,显著提高了ReDrafter在有限硬件条件下的整体性能。图源:阿里云开发者社区苹果的基准测试结果显示,在NVIDIA H100 GPU上对数十亿参数的生产模型使用集成了ReDrafter的TensorRT-LLM时,其贪心解码每秒生成的tokens数量提高了2.7倍。此外,在苹果自家的M2 Ultra Metal GPU上,ReDrafter也能实现2.3倍的推理速度提升。苹果的研究人员表示“LLM越来越多地用于驱动生产应用程序,提高推理效率既可以影响计算成本,也可以降低用户端延迟”。图源:Apple
8小时前
1