五个疑问:纽约大学教授说,雅拉4剥离了层的层
发布时间:2025-04-12 09:55编辑:365bet体育浏览(126)
直到现在,AI公司的首席执行官仔细地窥视了有关Llama 4的五个主要疑问。一些Insidermen说,即使是Llama 4也证明了扩展已经结束,LLM无法证明可靠的合理性。但是,更令人恐惧的是,AI的全球发展可以完全稳定。 Llama 4失败只是最初的。接下来我们可以看到 - 全球情况的变化将完全停止开发AI!人类首席执行官达里奥(Dario)制作了很长的视频,并在骆驼4个步骤中拍了六个主要怀疑。同时,纽约大学教授马库斯(Marcus)发布了一个博客,总结了当前的AI圈。缩放结束了;该模型仍然是不合理的。财务泡沫是转弯;仍然没有GPT-5;不可靠的语言模型的过度希望使世界进入了世界。到目前为止,我的25个2025年预测看起来正确。大型语言模型不是解决方案。我们需要一些更可靠的技术。像Openai这样的公司和众人需要提高乐趣DS资助新型号的大规模培训,但他们的银行帐户没有400亿美元或1000亿美元来支持大型数据中心和其他费用。问题是,如果投资者猜对倒退,他们将不会投资或投资更少。较少的资金意味着较少的计算,这意味着AI开发较慢。 2025年布鲁金斯机构报告说,如果科学研究成本继续上升,那么在人工智能,生物技术和量子计算等主要领域的美国领导才是一个威胁。据估计,如果当前的政策在五年内继续实施,那么美国科学研究的产出可以降低8%-12%。在先前的采访中,拟人化的首席执行官达里乌斯(Darius)被问到:在此阶段,还有什么可以阻止AI发展?他指出了可能性 - 战争。出乎意料的是,出于这种可能性,我们确实亲眼目睹了系统中另一种干扰。达里乌斯还预言了如果相信“技术不会发展”它将出现,并且资本化不足将导致AI的发展。 Llama 4,导致了骆驼4的巨大丑闻,已经证明了这一点。很难说出笑着的三个Llama系列4型模型中的两个中有多少,很明显,比对该系列的发行的诚实评论,增加宣传的水分更多。问题1:在漫长的上下文中寻找针刺的针头真的是骗局吗?美洲驼(Llama)有一个被称为的行业的上下文窗口,可导致1000万个令牌和凉爽的声音。但是等待,在2014年2月,双子座1.5 Pro模型在上下文中达到了1000万个令牌!在极端情况下,它可以执行出色的任务,以寻找视频,音频和共享文本中的干草堆针头。 Google可能突然意识到,在干草堆中看起来像针头的任务具有重要意义。正如Llama 4所说的那样,如果您放了所有哈利·波特的书,则模型可以CAPTURE在此处放置的密码之一。但是,首席执行官说,这些结果是48h前的此结果并不像24小时前进行小说基准更新那么重要。为了深刻理解漫长的背景,该基准应该在十万或数十万个令牌或单词中融合在一起。在这里,Gemini 2.5 Pro在此基准测试中表现良好,而Llama 4的中等和小型模型的表现如此之多。随着令牌的长度的上升,它们越来越差。问题2:为什么在周六发布?首席执行官的第二大疑问是为什么Llama 4在周六发布?在整个美国AI技术圈中,此发布日期尚未发生。如果您考虑阴谋理论,我之所以选择在周六发布它的原因是因为元本身有罪并希望减少人们的注意。此外,Llama 4的最新截止日期培训数据是2024年8月,这是独一无二的。你应该知道双子座2.5的培训截止日期是2025年1月。这意味着在过去的9个月中,梅塔(Meta)尽了最大的努力将此模型符合标准。他们很可能会发布Llama 4,但是在9月,Openai推出了O系列模型,今年1月,DeepSeek R1再次到达,因此Meta的所有计划都被中断了。问题3:在大型模型竞技场上有作弊吗?但是,首席执行官还承认,虽然整个网络充满了关于骆驼4组的嘲笑声音,但它显示出一些稳定的发展。例如,Llama 4 Maverick的活动参数的数量约为DeepSeek V3的一半,但其性能很高。现在的主要问题是,Meta是否欺骗了LM竞技场并训练了测试场景?目前,LM竞技场已经迅速滑冰并揭示了2,000多个战斗数据集用于公众分析,并表示再次表示。如果我们现在不能计算它,那意味着我们有一个惊人的事充满强大的模型。看看这些实际数字,认为没有答案可以输入Llama 4的培训数据,因此该模型在GPQA Diamond(GoogleLelelubhas严格的STEM基准测试基准)上的性能实际上比DeepSeek V3更好。在此基础上,元数据可以完全创建SOTA级别的思维模型。唯一的问题是Gemini 2.5 Pro已经存在,并且DeepSeek R2随时可用。问题4:当Llama 4出于方便时,代码非常困难,性能将开始急剧下降。获取以ADA为例的Polyglot编码,它测试了几种系列编程语言的性能。但是,与许多基准不同,它不仅关注Python,而且集中在一系列编程语言上,并且仍然处于Gemini 2.5 Pro的顶部。但是,很难找到Llama 4 Maverick,您需要长时间滚动到鼠标。它的标记绝对可怕 - 只有15.6%。这与小ZHA有些不同的陈述,似乎有些富有。以前,他宣誓得出结论是,元的AI模型将要取代中级程序。问题5:“结果仅代表目前最佳的内部操作”也触发了AI社区组的嘲笑。在下表上,Meta将Llama 4与Gemini2.0 Pro,GPT-4.5和其他模型进行了比较,而且数字令人惊叹。但是仔细查看了脚注,据称Llama模型的结果代表了目前的最佳内部操作,因此Meta可能会在4 5次或10次的Llama运行并获得最佳效果。此外,他们故意不将Llama 4 Beymoth与DeepSeek V3进行比较,DeepSeek V3比一般参数小三倍,交互式参数小的八倍,但性能相似。如果我们从负面的角度判断,可以说,最大的Llama 4模型参数中DeepSeek V3的主要模型的性能通常在同一级别。在简单的长凳,Llama 4 Maverick的得分约为27.7%,与DeepSeek V3的水平相同,而不是难以想候的模型,例如Claude 3.5十四行诗。此外,首席执行官还发现了使用Llama 4的使用项目。如果您在欧洲,您仍然可以成为最终用户,但是您无权在此处开发模型。马库斯(Marcus):Llama 4的痛苦课程表明,缩放率已经完成,而Llama 4的悲伤表现也使纽约大学教授马库斯(Marcus)写了一篇长期的文章,坚持认为缩放已经结束并且仍然无法证明。他的要点如下。大型模型的规模类型已经完全完成,证实了我三年前在墙上崩溃的深入研究中的预测。 AI医生写道:Llama 4的发行证实,即使30万亿个令牌和200万亿个参数也无法使非属性模型更好地比小象征性模型更好。量表不起作用。真正的情报需要目的,而Hangarin需要洞察力,WHICH不是AI可以做的事情。尽管LLM有时会提供正确的答案,但识别模式或启发式的捷径通常是一个捷径。例如,ETU团队最近在美国LLM在美国数学奥林匹克运动中表现不佳的研究完全损害了“ LLM可以解决数学问题”的神话。最终,生成的AI可能是未能重返经济的产品。气泡确实可以爆炸。 NVIDIA在2025年的崩溃超过了三分之一。以及关于元的美洲驼的苛刻事实,再次证实了马库斯在2024年3月的预言 - 达到GPT -5级别的模型将非常困难。许多公司将有类似的模型,但没有护城河。尽管价格战仍在上升,但许多人只有很少的收入。最后,马库斯(Marcus)由他的演讲组成 - 大型语言模型当然不是解决方案,我们需要一些更可靠的方法。加里·马库斯(Gary Marcus)正在寻找对Deve感兴趣的投资者吸引更多可靠的继任者。参考:https://www.youtube.com/watch?v=wobqh9jqccyhttps://garymarcus.substack.com/p/scaling-is-is-ut-the-the-bubble-be-be-be-be-be-be-be-be-be-be-be.com/p/scaling-is-is-un-is-is-of-is-ut-is-of-is-is-of-be-be-be-be,