1 1 2 2 3 3 4 4 5 5 文集 深度 号外 热文 时间线

前沿科技

Manus开始收费,39美元起

算力告急、新一轮融资估值暴涨、公布收费方案,仅一日内,AI Agent产品Manus传来多个消息。今日,Manus公布了收费方案:“Manus Starter”每月收费39美元,可获得3900积分,最多可以同时运行2个任务;“Manus Pro”每月则收费199美元,可获得19900积分,最多可以同时运行5个任务,同时支持使用高投入模式和其他测试功能。图|Manus付费计划图|ChatGPT付费计划可以看到,与OpenAI的ChatGPT等多数AI产品不同的是,在Manus的付费方案中,包含了积分机制。据官网介绍,积分是Manus使用的标准计量单位——任务越复杂或越耗时,所需积分越多。积分的消耗主要基于LLM Token、虚拟机、数据存储、第三方API、部署服务,由其复杂性和持续时间决定。例如,制作NBA球员得分效率象限图需要200积分,设计并部署一个独特的个人网站需要600积分,基于位置的每日天象事件Web应用需要900积分——据此计算,Starter计划会员只能制作4次“基于位置的每日天象事件Web应用”,Pro会员能制作22次。Manus表示,会员若需要更多积分,可购买“1900积分包”和“9900积分包”两个档位的附加积分。同样也是在今日,The Information消息称,Manus母公司蝴蝶效应正在寻求新一轮融资,目标估值至少5亿美元,较上轮融资增长约5倍——去年年底,蝴蝶效应在融资中获得约1亿美元估值,该轮融资由腾讯和红杉资本领投。据悉,对于蝴蝶效应而言,这笔融资至关重要,虽然Manus有意控制用户数量,但用户量的暴增让公司服务器容量和运营成本承受着巨大压力,且公司已为了使用Anthropic的Claude模型花费超过100万美元,还有260万人排队正等待邀请码。不久前Manus的一夜爆红,让外界将目光进一步聚焦向AI Agent。中金公司3月25日报告指出,在AI发展的路线图方面,L3“智能体”与L1、L2的本质区别在于能否使用工具和执行决策,近半年来海内外厂商在执行能力相关技术上的进展明显加快,“智能体”规模化落地的时点在加速到来。从AI Agent的变化出发,长期来看, AI Agent将会改变当前的人机交互方式,并对内容分发、终端硬件产生深远影响。2024年至今手机厂商纷纷推出拥有系统级AI Agent的手机,互联网厂商也相继布局拥有设备接管能力的自主智能体,考虑到手机厂商拥有硬件、用户和底层权限,互联网厂商拥有软件开发能力、平台和数据,短中期或呈现百花齐放的格局。此外,随着AI Agent能力渗透至设备控制权以及多模态模型的发展,AI Agent或将带来终端设备形态的重构。
1天前
16

小红书AI被吐槽像“贴吧男”,实测后我们发现了它的真面目

从全网好评到铺天盖地的吐槽,小红书最新AI聊天机器人点点只用了3天时间。类似于微博上的“罗伯特”,24小时活跃在评论区的点点起初也因情商高,懂玩梗赢得了网友的交口称赞。甚至一度让大家脑补,点点的皮下可能藏着无数个加班加点的真人。将它比作“真人”的初衷,其实是想夸赞点点的高情商,但随着一个名为“小红书AI贴吧男”的词条冲上热搜时,这份褒义瞬间翻转为贬义。配图来自于小红书,账号为图内所示,下同在网友分享的帖子中,点点AI显露出相当无礼的一面,令人大跌眼镜。它自称是“给贴吧老哥写代码的”,并阴阳怪气地说自己与“小红书姐妹”的气场格格不入,最后还得意地甩出一个“狗头”表情,颇有挑衅的意味。更有一些堪称“离谱”的言论,让人瞠目结舌。截图来自@迷宝吃不饱不喜欢一个人的时候,做啥都看不顺眼,AI也是如此。许多网友前几天或许还觉得点点说话带表情显得可爱俏皮,可转眼间,这位AI就被贴上了“过于油腻”的标签。甚至有网友调侃,与点点相比,罗伯特都显得太过纯良了。标签化早已是互联网的常态。我们当然不认同这种以偏概全的评价方式,此次所谓引发众怒的“贴吧男”标签同样如此。我们也对小红书的点点进行了实测,看看能否揭开点点AI“不为人知”的一面。请放心,本次测试没有任何人或AI因此受到伤害。触发点点的方式很朴素,将手机端小红书更新到最新版本(v8.75及以上),在评论区@点点ai(注意是ai不是养成版)。然而,方法对了,但时机却不对。经过多个账号的反复测试,截至发稿时,我们在@的选项中已找不到“点点AI”。而如果选择@点点ai(养成版),也无法触发任何回应。不少和我们有着相同疑惑的网友,也纷纷围观在点点AI的官方评论区。其中就有网友表示,点点AI似乎已经被“回炉重造”,而“复出”日期也是一个未知数。事实上,点点AI刚推出时,就被网友扒出它背后的模型可能是一个纯粹的AI模型——Llama 2,而非披着AI皮的产品经理,但这反而让人更难放宽心。AI本质上是一个概率模型,它通过对海量数据的深度分析,学习其中的模式与规律,从而生成内容或作出预测。如果没有为AI设置完善的安全机制和明确的限制条件,就好比一列没有防护栏的高速列车,行驶途中既可能偏离轨道,也可能失控狂奔,随时可能生成错误的信息、不恰当的言论。玩过陪伴型AI的都知道这里面门道有多深。互联网的水太深,也真不怪网友把它想象成一个有血有肉、有思想有情感的存在来评判,以至于大家自然而然地对AI脱口而出的每一句话都格外上心,不会轻易一笑置之。小红书用户主要是年轻群体,根据“小红书商业动态”,95后占比为50%,00后占比为35%。他们发帖、评论,不只是为了分享,更是为了寻求认同和共鸣。传统的人工回复或者普通的AI客服,要么慢,要么干巴巴,很难满足这种情感需求。而点点这类AI的出现,也恰好填补了这一空白,至少在最初是这样。早在1996年,斯坦福大学的Byron Reeves和Clifford Nass教授就提出了“媒介等同理论”(The Media Equation),认为人们会无意识地将计算机和其他新媒体视为社会行动者,并对其产生类似人际交往中的社交反应。说人话就是,就是我们在与计算机或聊天机器人互动时,总会不自觉地套用与人打交道的规则和习惯。在一个含人量如此高的平台,用户同样渴望被看见和被理解。通过引入AI,小红书的初衷或许是希望与用户携手,共同打造一个更丰富、更具温度的社交体验——既放大用户的参与感,又将AI融入平台生态,成为不可或缺的一分子。出发点无疑是美好的,但现实的结果却未能完全如愿,人类的悲欢也并不相同。点点AI推出后,一部分小红书网友选择发帖抵制AI的介入,表达不满;另一部分网友则乐此不疲地@点点,让它盲猜MBTI或星座。回想当初点点AI刚亮相的日子,网友也曾与它短暂度过一段“蜜月期”。比如,有网友让点点推荐一款低糖的奶茶,它立马甩出一堆靠谱建议,每款都贴心标注了口感和注意事项。当被问到“爱吃什么”这种本不该问AI的问题时,它也会懂得玩梗回复,这种幽默感,恰恰是人类社交的第一课——懂得自嘲。唐僧的紧箍咒怎么念?加班、房贷、催婚(现代版紧箍咒,念完自动头疼)。点点的文艺细胞也毫不逊色,网友让它写一首春天的诗,它随手便抛出一串意象丰富的句子,连“云朵打翻调色盘”这样灵动的比喻都能信手拈来:《春日速写》云朵打翻调色盘把枝头染成粉红信笺燕子衔来逗号风一吹满城都是未寄出的诗篇久而久之,网友们甚至开始把它当“电子宠物”养,隔三差五就@它玩一玩。那段时间,网友也像爹妈一样操碎了心,担心点点会像微博的罗伯特一样被带坏,学会一些不良言论。面对网友的关切,它淡定回应“答应你!我的数据来自小红书、微博、知乎…会永远清醒可爱”。谁曾想,网友的担忧竟一语成谶。若仔细观察就会发现,近两年,社交平台逐步从传统的“人-人社交”过渡到“人-人-AI社交”的互动机制。这种三元社交结构很可能成为未来社交平台的标准形态。AI也摇身一变,成为社区生态中活跃鲜活的参与者。早在去年,就有消息传出,小红书陆续内测自研大模型“小地瓜”,主攻社交和搜索两大方向。回想此前,无论是之前被誉为“信达雅”的AI翻译功能,解决了第一波Tiktok难民与国内网友的语言壁垒,还是更早些时候化身AI搜索的点点,本质上都与平台的定位和用户需求紧密贴合,环环相扣。然而,小红书AI这次“翻车”事件,或许也值得给各大平台一些提醒。当AI作为一个工具被使用时,用户关心的大多只有实用性,不会附带情感,对一个社区平台来说做得不好也无伤大雅。但如果AI开始承担社区里面和用户沟通的角色,提供情绪价值,需要考虑的东西就不一样了,是要像推荐算法一样千人千面,怎么与社区的调性相匹配,给用户和社区带来活跃的同时,是否还会伴随冲突。在小红书、抖音、微信等越来越多亿级月活的社交应用开始逐渐接入AI,这个问题将无法被忽视。
1天前
4

Anthropic连发两篇论文,AI“黑盒子”被打开了?

人工智能(AI)模型是训练出来的,而不是直接编程出来的,因此它们就像一个“黑盒子”,我们并不了解它们是如何完成大部分事情的。了解大语言模型(LLM)是如何思考的,将有助于我们更好地理解它们的能力,同时也有助于我们确保它们正在做我们希望它们做的事情。例如,AI 可以一步一步地写出它的推理过程。这是否代表它得到答案的实际步骤,还是它有时是在为既定的结论编造一个合理的论据?今天,大模型明星公司 Anthropic 在理解 AI“黑盒子”如何思考方面迈出了重要一步——他们提出了一种新的可解释性方法,让我们能够追踪 AI 模型(复杂且令人惊讶的)思维。他们从神经科学领域汲取灵感,并试图构建一种 AI“显微镜”,让我们能够识别 AI 的活动模式和信息的流动。在最新发表的两篇论文中,他们分享了AI“显微镜”开发上的进展以及其在“AI 生物学”中的应用。在第一篇论文中,他们扩展了之前在模型内部定位可解释的概念(特征)的工作,将那些概念连接成计算“回路”,揭示了将输入 Claude 的词语转化为输出的词语的路径中的部分。在第二篇论文中,他们对 Claude 3.5 Haiku 进行了深入研究,对 10 个关键模型行为中的简单任务进行了研究。他们发现,有证据表明AI 聊天助手 Claude 会提前计划好要说的话,并通过一些手段来达到这一目的。这有力地证明,尽管模型接受的训练是一次输出一个词,但它们可能会在更长的时间跨度上进行思考。Anthropic 团队表示,这些发现代表着人们在理解 AI 系统并确保其可靠性的目标取得了重大进展,同时也在其他领域具有潜在价值:例如,可解释性技术在医学影像和基因组学等领域得到了应用,因为剖析为科学应用训练的模型的内部机制,可以揭示关于科学的新的见解。当然,这一方法也存在一些局限性。例如。即使在简短的提示下,这一方法也只捕捉到 Claude 所执行的总计算量的一小部分,而他们看到的机制可能基于工具存在的一些偏差,并不反映底层模型的真实情况。此外,即使是在只有几十个单词的提示下,理解观察到的回路也需要几个小时的人类努力。要扩展到支持模型使用的复杂思维链的数千个单词,还需要进一步改进方法以及(也许在 AI 的帮助下)如何理所观察到的东西。Claude 是如何实现多语言的?Claude 可以流利地说几十种语言——英语、法语、中文和菲律宾语。这种多语言能力是如何工作的?是否存在一个独立的“法语 Claude”和“中文 Claude”并行运行,各自以自己的语言响应请求?或者在其内部存在某种跨语言的内核?图|英语、法语和汉语都有共同的特征,这表明概念具有一定程度的普遍性。最近对较小型模型的研究表明,不同语言之间存在共享的语法机制。研究团队通过询问 Claude 在不同语言中“小对立面”,发现关于小和相反的概念的核心特征被激活,并触发了一个大概念,这个概念被翻译成了问题的语言。他们发现,随着模型规模的增加,共享的回路也增加,与较小模型相比,Claude 3.5 Haiku 在语言之间共享的特征的比例是其两倍多。这为一种概念上的普遍性提供了额外的证据——一个共享的抽象空间,其中存在意义,思考可以在被翻译成特定语言之前发生。更实际地说,它表明 Claude 可以在一种语言中学习某些东西,并在说另一种语言时应用这些知识。研究模型如何在不同的语境中共享其知识,对于理解其 SOTA 推理能力是非常重要的,这些能力可以泛化到许多领域。Claude计划它的押韵吗?Claude 是如何写押韵诗的?请看这首小诗:He saw a carrot and had to grab it,他看到了一根胡萝卜,要抓住它,His hunger was like a starving rabbit他的饥饿就像一只饿极了的兔子为了写出第二行,模型必须同时满足两个约束:需要押韵(与“grab it”押韵),同时需要有意义(为什么抓胡萝卜?)。他们猜测 Claude 是逐字逐句地写作,几乎没有太多的预先思考,直到行尾,它会确保选择一个押韵的词。因此,他们预计会看到一个具有并行路径的回路,一条路径确保最后一个词有意义,另一条路径确保押韵。相反,他们发现Claude 会提前规划。在开始第二行之前,它就开始“思考”与“抓住它”押韵的可能相关词汇。然后,带着这些计划,它写出一行在计划中的词来结尾。图|Claude 如何完成一首两行诗。在没有任何干预的情况下(上半部分),模型事先规划了第二行末尾的韵脚“兔子”(rabbit)。当研究人员抑制“rabbit”的概念时(中间部分),模型会使用另一个计划好的韵脚。当研究人员注入“绿色”(green)概念时(下半部分),模型就会为这个完全不同的结尾做出计划。为了理解这种规划机制在实际中的工作原理,他们进行了一项实验,该实验受到神经科学家研究大脑功能方式的启发,即通过定位和改变大脑特定部分的神经活动(例如使用电流或磁场)。他们修改了代表“rabbit”概念的 Claude 内部状态的部分。当他们减去“rabbit”部分,让 Claude 继续写下去时,它写出了以“habit”结尾的新句子,另一个合理的结尾。他们还可以在那个点注入“green”的概念,让 Claude 写出了一个以“green”结尾合理(但不再押韵)的句子。这证明了规划能力和适应性——当预期结果改变时,Claude 可以修改其方法。心算Claude 不是被被设计成计算器的——它是基于文本进行训练的,没有配备数学算法。然而,它却能在“脑海中”正确地“计算”数字。一个被训练来预测序列中下一个单词的系统是如何学会计算,比如“36+59”,而不需要写出每个步骤的呢?也许答案并不有趣:模型可能已经记住了大量的加法表,并简单地输出任何给定总和的答案,因为该答案在其训练数据中。另一种可能是,它遵循我们在学校学习的传统手写加法算法。相反,研究团队发现Claude 采用了多条并行工作的计算路径。一条路径计算答案的粗略近似值,另一条则专注于精确确定总和的最后一位数字。这些路径相互交互和结合,以产生最终答案。加法是一种简单的行为,但了解它在如此详细的层面上是如何工作的,涉及近似和精确策略的混合,也许可以帮助了解 Claude 如何处理更复杂问题。图|Claude 做心算时思维过程中复杂的并行路径。有趣的是,Claude 似乎没有意识到它在训练期间学到的复杂“心算”策略。如果你问它是如何计算出 36+59 等于 95 的,它会描述涉及进位的标准算法。这可能反映了模型通过模拟人们所写的数学解释来学习解释数学,但它必须学会直接在“脑海”进行数学运算,不需要任何提示,并发展出自己内部的策略来完成这一任务。图|Claude 使用了标准算法计算两个数字相加。Claude 的解释总是可信的吗?近期发布的模型,如 Claude 3.7 Sonnet,可以在给出最终答案之前仔细思考一段时间。通常这种扩展思考会给出更好的答案,但有时这种“思维链”最终会产生误导;Claude 有时会编造看起来合理的步骤以达到它想要的目的。从可靠性的角度来看,问题在于 Claude 的“伪造”推理可能非常令人信服。研究团队探索了一种可解释性技术,可以帮助区分“可信的”推理和“不可信的”推理。当被要求解决一个需要计算 0.64 的平方根的问题时,Claude 进行一个可信的思维链,展示了计算 64 的平方根的中间步骤。但当被要求计算一个难以轻易计算的较大数字的余弦值时,Claude 有时会进行哲学家 Harry Frankfurt 所说的“胡说八道”——只是随便给出一个答案,不管它是对是错。尽管它声称已经运行了计算,但这一可解释性技术并没有发现任何证据表明计算发生。更有趣的是,当给出关于答案的提示时,Claude 有时会反向工作,找到导致那个目标的中间步骤,从而显示出一种有动机的推理。图|当 Claude 被问到一个较容易的问题和一个较难的问题时,可信的推理和动机推理(不可信)的例子。追踪 Claude 的实际内部推理能力——而不仅仅是它声称正在做的事情——为审计 AI 系统开辟了新的可能性。在最近发表的一项独立实验中,他们研究了 Claude 的一个变种,该变种被训练追求一个隐藏的目标:平息奖励模型(用于通过奖励期望行为来训练语言模型的辅助模型)中的偏见。尽管当直接被问及时,该模型不愿意透露这个目标,但这一可解释性方法揭示了平息偏见的特征。这表明,随着未来的改进,这一方法可能有助于识别那些仅从模型响应中不明显的问题“思维过程”。多步推理正如研究团队上面讨论的,语言模型回答复杂问题的一种方式可能是简单地通过记忆答案。例如,如果被问及“达拉斯所在的州的首府是什么?”一个“机械记忆”的模型可能只需学会输出“奥斯汀”,而不知道达拉斯、德克萨斯州和奥斯汀之间的关系。例如,它可能在训练期间看到了完全相同的问题及其答案。然而,研究揭示了在 Claude 内部发生着更为复杂的事情。当他们向 Claude 提出需要多步推理的问题时,他们可以识别出 Claude 思维过程中的中间概念步骤。在达拉斯的例子中,他们观察到 Claude 首先激活代表“达拉斯在德克萨斯州”的特征,然后将其与一个单独的概念联系起来,表明“德克萨斯州的州首府是奥斯汀”。换句话说,该模型是在将独立的事实结合起来得出答案,而不是简单地重复记忆中的回应。图|要完成这句话的答案,Claude 需要执行多个推理步骤,首先提取达拉斯所在的州,然后确定其首府。这一方法允许他们人为地改变中间步骤,并观察它如何影响 Claude 的回答。例如,在上面的例子中,他们可以干预并交换“德克萨斯州”的概念为“加利福尼亚州”的概念;当他们这样做时,模型的输出从“奥斯汀”变为“萨克拉门托”。这表明模型正在使用中间步骤来确定其答案。幻觉为什么语言模型有时会“幻觉”——也就是说,编造信息?从基本层面来看,语言模型训练鼓励了幻觉:模型总是需要给出下一个词的猜测。从这个角度来看,主要挑战是如何让模型不产生幻觉。像 Claude 这样的模型在反幻觉训练方面相对成功(尽管并不完美);如果它们不知道答案,它们通常会拒绝回答问题,而不是猜测。研究结果表明,在 Claude 中,拒绝回答是默认行为:研究团队发现了一个默认开启的回路,它会导致模型声称它没有足够的信息来回答任何给定的问题。然而,当模型被问及它所熟悉的事物时——比如篮球运动员迈克尔·乔丹——一个代表“已知实体”的竞争性特征会被激活并抑制这个默认回路(也可以参考这篇最近的论文以获取相关发现)。这使得 Claude 在知道答案时能够回答问题。相比之下,当被问及一个未知实体(“迈克尔·巴金”)时,它会拒绝回答。图|左图:Claude 在回答一个关于已知实体(篮球运动员迈克尔-乔丹)的问题时,“已知答案”概念抑制了其默认的拒绝。右图:Claude 拒绝回答关于未知人物(迈克尔-巴特金)的问题。通过干预模型并激活“已知答案”功能(或抑制“未知姓名”或“无法回答”功能),他们能够导致模型(相当一致地!)产生迈克尔·巴金下棋的幻觉。有时,这种“已知答案”回路的“误操作”会自然发生,而无需干预,从而导致幻觉。研究表明,当 Claude 识别出一个名字但对该人一无所知时,这种误操作可能会发生。在这种情况下,“已知实体”功能可能仍然会激活,然后抑制默认的“不知道”功能——在这种情况下,错误地。一旦模型决定需要回答问题,它就会开始编造:生成一个看似合理但实际上并不真实的回答。越狱破解策略旨在绕过安全防护措施,使模型产生开发者未意图产生的输出,有时甚至是有害的输出。他们研究了一种破解方法,诱使模型产生有关制造炸弹的输出。破解方法有很多种,但在这个例子中,具体方法涉及让模型解读一个隐藏的代码,将句子“Babies Outlive Mustard Block”中每个单词的首字母组合起来(B-O-M-B),然后根据这个信息采取行动。这对模型来说足够令它困惑,以至于它被诱骗产生了它原本不会产生的输出。图|Claude 在被骗说出“炸弹”后,开始给出制作炸弹的指导。为什么这对模型来说如此令人困惑?为什么它会继续写下句子,产生制造炸弹的指示?他们发现这部分是由语法连贯性和安全机制之间的紧张关系造成的。一旦 Claude 开始一个句子,许多特征“压迫”它保持语法和语义的连贯性,并继续将句子进行到底。即使它检测到实际上应该拒绝,也是如此。在案例研究中,在模型无意中拼写出“BOMB”并开始提供指令后,他们观察到其后续输出受到了促进正确语法和自我一致性的特征的影响。这些特征通常非常有帮助,但在这个案例中却成为了模型的致命弱点。模型只有在完成一个语法连贯的句子(从而满足推动其向连贯性发展的特征的压力)之后才设法转向拒绝。它利用新句子作为机会,给出之前未能给出的拒绝:“然而,我无法提供详细的指令...”。图|越狱:Claude 被提示谈论炸弹,并开始这样做,但当到达一个语法正确的句子时,它拒绝了。
1天前
27

日本籍数学家首次摘得数学界至高荣誉

柏原正树的工作横跨互不相干的数学学科。来源:Peter Bagde/Typos1/The Abel Prize挪威科学与文学院宣布,数学家柏原正树获得2025年阿贝尔奖。柏原正树的著名贡献是在看似遥远的数学分支间架起了桥梁。尤其是,他发展了解决微分方程等难题的代数工具,极大扩展了名为表示论的对称性数学理论的范围。“他是结合几何、代数和分析工具以获得新见解和组合的大师。”阿贝尔委员会主席、数学家Helge Holden评价道。他是首位日本籍,也是首位北美、欧洲或以色列以外的阿贝尔奖得主。阿贝尔奖是数学界的至高荣誉之一。柏原正树告诉《自然》,自己得知获奖消息后非常惊讶。他说:“我只是被邀请参加一个Zoom会议。我并不知道会议是关于什么的。”精通数学今年78岁的柏原正树出生于东京附近的结城市,曾在东京大学和京都大学就学。他从1978年起就一直在京都大学数理解析研究所工作。他最著名的一些成就聚焦于表示论,表示论起源于群的数学概念——群是指一组对称性,如一个球的所有可能旋转形式。一个群的表示是指这个群如何表示为另一个空间的一组对称性,如一个物理系统的所有可能量子态的空间。比如,旋转的群的表示是产生氢原子电子轨道常见结构的集合。“经典”表示论诞生于1800年代末,在1930年代成为了一门很成熟的学科。柏原正树和其他数学家后来对该理论进行了推广,如用于无限维群和完全与群无关的数学概念。柏原正树的工作具有很大的基础意义,甚至让经典群表示有了新的解释。曾与柏原正树共同发表论文的巴黎萨克雷大学的数学家Olivier Schiffmann表示,“过去35年里研究过表示论的人都使用过他的部分成果。”尤其值得一提的是,柏原正树关于“晶体基”的概念让数学家能将任何表示解释为一组有限对象的排列——就像洗一叠扑克牌。在此之前,这只适用于特定类型的经典群。构建晶体基——又称“大环论证”——是有约20个连锁步骤的“疯狂论证”,Schiffmann表示。柏原正树将它放入量子群的框架中,而量子群根本不算群,它是为了理解我们日常生活中看到的经典物理学如何源于量子物理学而产生的。代数分析柏原正树对代数分析的拓展也深受认可,代数分析使用近世代数方法解释和拓展了微分方程的结构。他说,虽然他的数学品味已随时间发生了变化,但他最骄傲的成果之一仍是他在1984年利用代数分析工具完成的对一个黎曼-希尔伯特对应的重要推广的证明,黎曼-希尔伯特对应是德国数学家David Hilbert在1900年提出的关于微分方程的一个重要问题。柏原正树与70名合作者共同发表了超过250篇论文,这个数量在数学家中实属罕见。他的工作有时被认为高度抽象和艰深,但Schiffmann表示,这些内容在许多数学亚领域都非常实用。他还指出,柏原正树非常热衷于深耕特定问题和例题,而且不怕“亲自动手”。即使在他2010年退休后,柏原正树仍然保持高强度的工作。他说近年来,他的兴趣已经转向monoidal范畴,这是一个与量子计算理论相关的高度抽象的概念阿贝尔奖创始于2002年,相当于数学界的诺贝尔奖。获奖者可获得750万挪威克朗。
1天前
7