
您是否觉得不同公司的AI现在似乎变得愚蠢?这就是事情。几天前,我变得无情,并指控Openai向200美元的成员负责,想到了今天的Chatgpt有多强大。结果,我为她失去了算术问题,并将其解决了5.9 = x+5.11。我的朋友直接将其计算给我。 。 “这个问题真的是幼儿园的水平”?高贵的200美元人工智能不如我的20元计算器好吗?但是,我记得只有GPT-4发布时,我要求将其视为高水平吗?模型升级仍然会削减智能吗?所以我把它扔进了一个微生物。结果,我的朋友还可以更改元素过程。操作后,似乎没有问题。卢加尔(Lugar)的大学生可以证明真实性。因此,这两个计算使用GPT-5,您为什么还给我食物?我以为是Openai,但是在检查互联网之后,我发现GPT没有这样做,这意味着有点行业趋势。几天前,Meituan发布了开放的Longcat消息来源,提到它使用了路由器来提高效率。当发布DeepSeek v3.1时,它还说一个模型可以具有两种思维方式。 Gemini(也是巨型AI)在释放Gemini 2.5 Flash时引入了类似的模型,该模型允许该模型决定如何使用其大脑。总的来说,每个人都要求自己的模型“思考何时应该思考”,并在应该懒惰的时候变得懒惰。这样做的动机是疯狂的,也就是说,省钱。从Openai发布的信息来看,通过这种“让模型决定思考自我”的方法得出了许多令牌,而GPT5令牌的数量为50%-80%。 DeepSeek发布的图表还表明,新模型中令牌的消费也下降了约20%-50%。 i-储存的一半令牌,这是什么意思?普通百姓可能不了解这一点,但是对于像Openai这样的大型公司来说,这可能是巨大的成本。去年,闭路电视报道说,Chatgpt每天消耗超过500,000千瓦时的电力。在一个庞大的基础下,保存的部分足以让一天在拥有十名家庭的小镇中使用一天。毫不奇怪,Ultraman告诉网上网络人,您将花一十万美元为您所说的,感谢GPT。先前的高级模型,谢谢,可以思考几分钟,这确实是浪费的。那么,AI如何习惯开处方主题的能力呢? OpenAI并未发布特定原则,但在2023年有一篇论文称为“ Trunage:实时,智能的用户用户在大型语言模型中的途径”,该论文专门审查了此问题。当GPT-3.5出来时,大型模型没有调整其思考能力,每个问题都可能使AI在大脑中燃烧。为了提高效率,研究人员进入了一个名为“感知路由器”的模块,该模块基本上将小语言模型放在混合模型上。在早期培训期间,路由器对“最好使用哪种模型”(例如Pexercise问题)做出了自己的预测。当然,有标准答案哪种模型适合深入研究,哪种模型适合快速思考。系统将该预测标记与标准答案进行比较,并计算两者之间的误差。然后,通过固定路由器内部的参数,减少了此误差。在测试了数百万个问题之后,逐渐学习如何将适当的模型分配给您的直接单词。当一个新的提示单词进入时,AI中的小路由模型首先要瞥一眼,并检查此问题是否值得我大脑。由于路由器是轻量级的,因此此审核过程几乎立即是。除了Openai,AI还具有懒惰的想法,即将不同的令牌引导到不同的神经网络。 Lothe Meituan采用了此程序。根据报告的酌情权益,他们使用一种称为“零计算专家”的机制。通常,之后您输入即时单词,您的直接词将在令牌之后分为令牌,并在模型中以进行处理的神经网络。但是在处理之前,Longcat将其提供给一个称为“ Top-K路由器”的小路由器。它就像管道中的调度员。接收令牌时,它可以确定令牌是复杂还是易于处理。同时,在其中,有许多具有不同劳动分歧的神经网络,我们称之为专家。其中一些专家喜欢提出困难的问题,有些人喜欢提出简单的问题,当然,有些也是捕鱼行业的专家。例如,在句子中,“请摘要是一种快速的python”,“ python”和“ fast -paced -paced -following”要点,“请”和“一个”并不重要。对于这些无用的令牌,我们可以将它们置于放荡的国王中,因为它们不必处理。现在,您知道“零计算专家”的名称可以是“零计算”。通常,对于制造商的制造商来说,这是一件好事,但是用户的使用更快,价格更便宜。他们的思维方式很好,他们懒惰地思考所要求的任何东西。他们只知道“啊,是的,是的,对了”,也不能数数“蓝莓中有多少个BS?”此外,它还删除了选择权的用户。 Openai用大小尺寸切割了4O,这使许多网络在线哭泣,他们失去了朋友。它暂时将GPT-4O放置给用户,并允许Pro用户继续访问其他旧型号。在此操作没有掩饰之后,释放时该模型路由不正确。让我们再次谈论朗猫。它确实非常快,但是在思维限制方面,它仍然没有击败其他大型模型。像我一样,我在Longcat和Deepseek中失去了同样的问题:“ Danteis真的不是中国人,但丁真的是中国人”? Longcat提出了答案,但这并不意味着这个SE的幽默ntence;虽然DeepSeek稍慢一些,但笑声清楚地评估了。 Longcatdecepteek就像我问你是什么114*514,当然是58596,真的很快,但是实际上我当然想抽象,我们也为路由器提供了一些解决方案,可以在“深思熟虑”和“ Ultra Think Think”添加几个小时之前,几个小时才能到达之前。当然,大型模型的增长速度比我们想象的要快,我们可以等待更快,更好的模型出生。撰写者:Bugu编辑器:江江面条线编辑器:Xuanxuan图片,来源:longcat,deepseek,reddit,cat gpt,cctv.com,cctv.com一些照片来源
特别声明:上面的内容(包括照片或视频(如果有))已由“ NetEase”自助媒体平台的用户上传和发布。该平台仅提供信息存储服务。
注意:上面的内容(包括照片和视频)已上传并由NetASE HAO用户发布,该用户是一个社交媒体平台,仅提供信息存储服务。