全国首创:中车造双股道电气化移动式装车机助力可门港实现海铁联运

IT之家 4 月 9 日消息,据中国中车消息,近日,随着首列满载约 3000 吨铁矿石的列车从可门铁路支线 Ⅲ 场装车区鸣笛启程,由中国中车研制的全国首台双股道电气化移动式装车机正式启用。助力可门港港口作业区泊位与铁路运输实现无缝衔接,开启海铁联运新模式。

据介绍,可门铁路支线采用的双股道电气化移动式装车系统是国家综合货运枢纽补链强链的重点项目,该工程的通车,标志着可门港迈入“公水铁”高效联运新时代,为福建构建“一带一路”陆海枢纽增添新引擎,也为全国智慧港口建设提供了可复制的“铁港样本”。

IT之家从中国中车获悉,中国中车集团旗下中车四方所提供的双股道电气化移动式装车机采用绿色低碳、高精度装车、多机协同等多项先进技术,是整个装车系统的核心设备,能够灵活适应各种散货装车作业需求,具有精准、高效、环保、灵活等特点。设备最大装车能力可达每小时 4000 吨,年设计通过能力 500 万吨,远期有望达到 1100 万吨。

相较于传统的装车方式,双股道电气化移动装车机可以沿着铁路股道灵活行走,敞车无需机车牵引移动,实现“机动车不动”,还能与可门港智能远控斗轮堆取料机、带式输送机三者紧密协作,形成一套闭环流量自动监控系统。

Read More

SK海力士1c DRAM良率大幅提升至80% 即将进入量产阶段

据报道,SK 海力士的 1c DRAM 模块实现了“惊人的”成品率,使这家韩国巨头成为该领域的主导力量。HBM 赛道竞争相当激烈,SK 海力士似乎已经成功控制了其他竞争对手。该部门专注于推出 HBM4 内存模块,据说该标准将带来计算能力的“下一次革命”。

据韩国媒体Hankooki报道,SK 海力士已大幅提高 1c DRAM 的良率,这意味着该公司可以在消费级内存和 HBM 领域占据优势,尽管该公司预计将利用后者。

据称,10nm 第六代 DRAM 的良率现已达到 80%-90%,这是一个巨大的进步,早在 2024 年下半年该公司的良率就已达到 60%。由于目前工厂专注于 HBM4 的生产,预计“基于 1c”的 DDR5 内存解决方案不会很快进入市场。然而,我们可以看到 DRAM 技术在 HBM4 上发挥作用,很可能是更出色的 HBM4E。

凭借这一成就,SK 海力士目前已超越三星,在技术优势方面领先于 DRAM 领域。尽管三星开发自己的 1c DRAM 模块已有一段时间了,但该公司仍难以掌握主动权,SK 海力士将成为第一家开始大规模生产 HBM4 的公司,遥遥领先于竞争对手,而且看起来差距还会继续扩大。

Read More

[讨论]有战绩app这个游戏输了之后不会难受很久了。

有了战绩查询系统不管输赢都没有以前那种难受劲了,因为至少知道队友为啥输为啥赢的那么难了。[s:ac:哭笑]

[s:ac:哭笑]一个定级辅助到大师,但是c位打黄金都很弱和一个只会奶人的安娜,你站他旁边他都奶不到的人。[s:ac:哭笑]我让他换个天使,他说我不配上分,查询下战绩比他高了整整一个大段位。
这两天队友神神鬼鬼的,打辅助难受的很。[s:a2:偷吃] 但是再难受看到排到的人的战绩就平静了。[s:ac:哭笑]

Read More

五大疑点曝光:Llama 4 逐层扒皮,NYU 教授称 AI Scaling 彻底结束

刚刚,一位 AI 公司 CEO 细细扒皮了关于 Llama 4 的五大疑点。甚至有圈内人表示,Llama 4 证明 Scaling 已经结束了,LLM 并不能可靠推理。但更可怕的事,就是全球的 AI 进步恐将彻底停滞。

令人失望的 Llama 4,只是前奏而已。接下来我们恐将看到 —— 全球局势的改变,将彻底阻止 AI 进步!Anthropic CEO Dario 做出长视频,逐级对 Llama 4 身上的六大疑点进行了扒皮。

同时,纽约大学教授马库斯发出博客,总结了目前这段时间 AI 圈的状况。

Scaling 已经结束;模型仍然无法可靠推理;金融泡沫正在破裂;依然没有 GPT-5;对不可靠的语言模型的过度依赖让世界陷入了困境。我的 25 个 2025 年预测中的每一个,目前看起来都是对的。

大语言模型不是解决之道。我们确实需要一些更可靠的方法。

OpenAI 和 Anthropic 这样的公司,需要筹集资金来资助新模型本后的大规模训练运行,但他们的银行账户里并没有 400 亿或 1000 亿美元,来支撑庞大的数据中心和其他费用。

问题在于,如果投资者预见到了经济衰退,那就要么不会投资,要么投资较少。

更少的资金,就意味着更少的计算,也就是更慢的 AI 进展。

布鲁金斯学会 2025 年的一份报告称,若科研成本持续上升,美国在人工智能、生物技术和量子计算等关键领域的领先地位可能受到威胁。据估算,当前政策若持续实施五年,美国科研产出可能会下降 8%-12%。

在以前的一个采访里,Anthropic CEO Dario 曾被问到:到了如今这个阶段,还有什么可以阻止 AI 的进步?他提到了一种可能 —— 战争。

没想到,在这个可能性之外,我们居然提前见证了系统的另一种混沌。

而 Dario 也提前预测到,如果出现「技术不会向前发展」的信念,资本化不足,AI 进步就将停止。

逐级扒皮 Llama 4

最近闹出大丑闻的 Llama 4,已经证明了这一点。

我们很难说,Llama 4 系列三款模型中的两款代表了多少进展,显然在这个系列的发布中,夸大宣传的水分要比诚实的分析多得多。

疑点 1:长上下文大海捞针,其实是骗人?

Llama 拥有所谓业界领先的一千万个 token 的上下文窗口,听起来似乎很酷炫。

可是等等,24 年 2 月,Gemini 1.5 Pro 的模型,就已经达到 1000 万 token 的上下文了!

在极端情况下,它可以在视频、音频和共同文本上,执行惊人的大海捞针任务,或许,是谷歌忽然意识到,大海捞针任务意义非常重大。

正如这篇 Llama 4 博客所说,如果把所有哈利波特的书都放进去,模型都能检索到放入其中的一个密码。

不过,这位 CEO 表示,这些 48h 前发布的结果,不如 24 小时前更新的这个 fiction livebench 基准测试这么重要。

这个基准测试,用于长上下文的深度理解,LLM 必须将数万或数十万个 token 或单词拼凑在一起。

在这里,在这个基准测试中,Gemini 2.5 Pro 的表现非常好,而相比之下,Llama 4 的中等模型和小模型,性能极其糟糕。

而且随着 token 长度的增加,它们的表现越来越差。

疑点 2:为何周六发布?

这位 CEO 察觉到的第二大疑点就在于,Llama 4 为何选在周六发布?

在整个美国 AI 技术圈里,这个发布日期都是史无前例的。

如果阴谋论一点想,之所以选在周六发布,是因为 Meta 自己也心虚了,希望尽量减少人们的注意力。

此外,Llama 4 的最新训练数据截止时间是 2024 年 8 月,这就很奇怪。

要知道,Gemini 2.5 的训练知识截止时间是 2025 年 1 月。

这就意味着,在过去的 9 个月里,Meta 一直在使尽浑身解数,拼命让这个模型达到标准。

有一种可能性是,或许他们本打算早点发布 Llama 4,但就在 9 月,OpenAI 推出了 o 系列模型,今年 1 月,DeepSeek R1 又来了,所以 Meta 的所有计划都被打乱了。

疑点 3:大模型竞技场,究竟有没有作弊?

不过,这位 CEO 也承认,尽管全网充斥着对 Llama 4 群嘲的声音,但它的确也展示出了一些坚实的进展。

比如 Llama 4 Maverick 的活动参数量大概只有 DeepSeek V3 的一半,却取得了相当的性能。

那现在的核心问题就在于,Meta 究竟有没有在 LM Arena 上进行作弊,在测试集上进行训练?

目前,LM Arena 已经迅速滑跪,公开了 2000 多组对战数据给公众检阅,并且表示会重新评估排行榜。

目前姑且按照没有算,那就意味着我们拥有一个强大得惊人的基础模型了。

看看这些真实数字,假设没有任何答案进入 Llama 4 的训练数据,这个模型在 GPQA Diamond 上的性能(谷歌验证的极其严格的 STEM 基准测试)实际上是比 DeepSeek V3 更好的。

而在这个基础上,Meta 就完全可以创建一个 SOTA 级别的思维模型。

唯一的问题是,Gemini 2.5 Pro 已经存在了,而 DeepSeek R2 也随时会问世。

疑点 4:代码很差

还有一点,当 Llama 4 走出舒适区时,性能就会开始狂降。

以 ADA 的 Polyglot 这个编码基准测试为例,它测验了一些系列编程语言的性能。

但与许多基准不同,它不仅仅关注 Python,而是一系列编程语言,现在依然是 Gemini 2.5 Pro 名列前茅。

但是想要找到 Llama 4 Maverick,可就很难了,得把鼠标滚动很久。

它的得分当然惨不忍睹 —— 只有 15.6%。

这就跟小扎的言论出入很大了,显得相当讽刺。

就在不久前,他还信誓旦旦地断定说,Meta 的 AI 模型将很快取代中级程序员。

疑点 5:「结果仅代表目前最好的内部运行」

这一点,同样已经在 AI 社区引发了群嘲。

在下面这个表格中,Meta 将 Llama 4 和 Gemini2.0 Pro、GPT-4.5 等模型进行了比较,数字非常漂亮。

但仔细看脚注,却说的是 Llama 模型的结果代表了目前最好的内部运行情况,所以很大可能是,Meta 把 Llama 4 跑了 5 遍或 10 遍,取了其中的最好结果。

而且,他们还故意不将 Llama 4 Behemoth 跟 DeepSeek V3 进行比较,后者比它在整体参数上小三倍,在互动参数上小八倍,性能却相似。

如果从消极的角度下判断,就可以说 Llama 4 最大的模型参数上 DeepSeek V3 基础模型的许多倍,性能却基本处于同一水平。

还有在 Simple Bench 中,Llama 4 Maverick 的得分大概为 27.7%,跟 DeepSeek V3 处于同一水平,还低于 Claude 3.5 Sonnet 这类非思维模型。

另外,这位 CEO 还在 Llama 4 的使用条款中发现了这么一条。

如果你在欧洲,仍然可以成为它的最终用户,但却没有权利在它的基础上进行构建模型。

马库斯:Llama 4 的惨痛教训表明,Scaling 已经结束

而 Llama 4 的惨淡表现,也让 NYU 教授马库斯写出长文,断言 Scaling 已经结束,LLM 仍然无法推理。

他的主要观点如下。

大模型的 Scaling 已经彻底结束了,这证实了我三年前在《深度学习正在撞墙》中的预测。

一位 AI 博士这样写道:Llama 4 的发布已经证实,即使 30 万亿 token 和 2 万亿参数,也不能让非推理模型比小型推理模型更好。

规模化并不奏效,真正的智能需要的是意图,而意图需要远见,这都不是 AI 能做到的。

即使 LLM 偶尔能提供正确的答案,往往也是通过模式识别或启发式的捷径,而非真正的数学推理。

比如最近 ETU 团队关于 LLM 在美国奥数上糟糕表现的研究,就彻底击碎了「LLM 会做数学题」这个神话。

最终,生成式 AI 很可能会变成一个在经济回报上失败的产品。

泡沫可能真的要破灭了。英伟达在 2025 年的跌幅,就已经超过了三分之一。

而 Meta 的 Llama 4 的残酷真相,再次证实了马库斯在 2024 年 3 月预测 ——

达到 GPT-5 级别的模型,将会非常困难。很多公司都会有类似模型,但没有护城河。随着价格战进一步升级,许多只会有微薄的利润。

最终,马库斯以这样的方式总结了自己的发言 —— 大语言模型绝对不是解决之道,我们需要一些更可靠的方法。Gary Marcus 正在寻找对开发更可靠替代方法有兴趣的投资者。

参考资料:

  • https://www.youtube.com/watch?v=wOBqh9JqCDY

  • https://garymarcus.substack.com/p/scaling-is-over-the-bubble-may-be

Read More

比亚迪腾势 N9 汽车交付节奏公布,预定非选装版本交付周期 3-4 周

IT之家 4 月 8 日消息,针对近期腾势 N9 车主催交付的情况,比亚迪腾势销售事业部总经理赵长江今日发文公布了最新的交付节奏:

  • 选装吸顶屏,6 月交付

  • 选装电动门,5 月交付

  • 选装无人机,6 月交付

赵长江表示,订单增长快,交付慢了一些,现在预定非选装版本交付周期 3-4 周

据IT之家此前报道,腾势 N9 旗舰 SUV 于 3 月 23 日开启交付,该车采用 2+2+2 的六座布局,提供玄璟墨、雪玉莹、烟晶灰、翠华瑶四种外观配色,以及铂檀灰、云锦米两种内饰配色,尺寸为 5258×2030×1830mm轴距 3125mm

腾势 N9 初期提供插混动力,搭载 2.0T 涡轮增压发动机,最大功率 207 马力、电机总功率 680 千瓦、CLTC 纯电续航超 200km,综合续航达到 1300km。该车搭载易三方平台,支持三电机协同与后轮独立转向技术,可提供蟹行模式、圆规调头等功能。腾势 N9 还搭载云辇-A 空气悬架与天神之眼 B 智驾系统。

相关阅读:

Read More

快毕业咯,准备当社畜了,有啥职场建议没

NueXini:

实习了一年了,这家公司强度太高了,准备换下一家了。

代码与月光在此停泊,而思想的潮汐仍向未知奔涌。所有深夜的变量、断点与 重构,终将风化成长卷边角的注脚。此刻合页,如同拾起一片落叶的纹路——那些 曾令人窒息的庞杂逻辑,原不过是万物递归的寻常一瞬。长夏倾尽,算法归于星 群,而答案永远流浪在下一个春天。

Read More

AICode 工具大家怎么选? Cursor 、Trae、通义灵码、MarsCode 或者其他?

acnes:

大家工作中 AICode 工具使用的情况如何?使用频率高吗?都在使用哪个工具?

近期进行了 AICode 工具测评,针对 AICode 工具核心多个维度的能力项进行测试用例的编写以及录屏对比。 分享测评的结果和详细测评过程: https://github.com/SFLAQiu/web-develop/blob/master/AICode%E6%B5%8B%E8%AF%84.md

当前我这里测评的几个工具中,Cursor 的效果最好!~

Read More

美国司法部正在解散加密货币执法部门 备忘录显示,美国司法部正在解散其国家加密货币执法小组,并命令检察官将重点放在涉及使用数字货币为非法业务提供资金的卡...

美国司法部正在解散加密货币执法部门

备忘录显示,美国司法部正在解散其国家加密货币执法小组,并命令检察官将重点放在涉及使用数字货币为非法业务提供资金的卡特尔和恐怖组织的刑事调查上。司法部副部长托德·布兰奇在周一深夜发给员工的备忘录中指责前民主党总统拜登政府对数字资产行业采取了 “鲁莽的起诉监管策略”。布兰奇表示,今后该部门将优先调查“那些侵害数字资产投资者的个人,或者利用数字资产实施恐怖主义、毒品和人口贩卖、有组织犯罪、黑客攻击以及卡特尔和帮派融资等犯罪行为的个人”。布兰奇写道,正在进行的与这项新政策 “不一致” 的调查 “应当被终止”。

—— 路透社

Read More