📢 GM!Gate 广场|4/5 热议:#假期持币指南
🌿 踏青还是盯盘?#假期持币指南 带你过个“松弛感”长假!
春光正好,你是选择在山间深呼吸,还是在 K 线里找时机?在这个清明假期,晒出你的持币态度,做个精神饱满的交易员!
🎁 分享生活/交易感悟,抽 5 位锦鲤瓜分 $1,000 仓位体验券!
💬 茶余饭后聊聊:
1️⃣ 休假心态: 你是“关掉通知、彻底失联”派,还是“每 30 分钟必刷行情”派?
2️⃣ 懒人秘籍: 假期不想盯盘?分享你的“挂机”策略(定投/网格/理财)。
3️⃣ 四月展望: 假期过后,你最看好哪个币种“春暖花开”?
分享你的假期姿态 👉 https://www.gate.com/post
📅 4/4 15:00 - 4/6 18:00 (UTC+8)
我注意到,在过去的一年里,关于我们已经达到了人工通用智能(AGI)的声明变得越来越响亮。自然界的最新研究当然也为此添油加醋。但这里有一个许多人忽视的根本问题。
关键在于:人们混淆了两件完全不同的事物。一方面,我们拥有在测试中表现出令人印象深刻、能够应对各种任务的语言模型;另一方面,这并不意味着我们已经创造出了真正的通用智能。这就像是将越来越复杂的模式识别与真正的智能混为一谈。
如果回顾历史上的AGI定义,那里总是强调不同的特质:在不同环境中的可靠性、面对新颖事物时的泛化能力、灵活性。而不仅仅是在人工条件下获得高分。
有趣的是,最近的研究显示,那些在测试中表现出色的系统,在条件稍有变化时往往会崩溃。例如,医疗模型即使缺少关键数据也能给出正确答案,但在分布发生微小偏移时就变得不稳定。这不是智能,而是针对特定场景的训练。
在经济层面,情况更为明显。即使是最先进的系统,也只能可靠地完成一小部分实际工作任务,尽管在测试条件下表现优异。最新数据显示,大多数公司目前还未从AI的应用中看到显著的回报。这看起来不像是通用智能。
还有一个经常被忽视的点。当语言模型和人类给出相同答案时,并不意味着它们的推理方式相同。我见过一些例子,模型在不确定的情况下给出自信的结论,而人类专家则因为信息不足而保持谨慎。表面上的一致掩盖了推理过程中的深层差异。
目前的系统仍然很脆弱。它们依赖于请求的表达方式,没有稳定的目标,不能在长远的角度上进行可靠的推理。甚至关于模型解决开放数学问题的故事,也主要是现有方法的组合和穷举,而非新策略的创造。
问题不仅仅在于术语。当这些系统开始在科学和政府决策中应用时,过高估计它们的能力可能会导致在信任和责任分配上的严重错误。因此,将先进的统计逼近与ИИ、общий интеллект混为一谈,不仅是概念上的错误,也存在实际风险。
我们现有的模型是强大的工具,但它们仍然只是工具,而不是具有真正灵活能力的代理。这一点差异非常重要。