标签: 大模型

0

当AI在急诊室里比医生更准,这到底意味着什么?

哈佛医学院发表于《Science》的一项研究显示,推理型大模型在急诊分诊等临床任务中部分表现已超过人类医生,尤其在信息最少、决策最紧迫的早期阶段更具优势。这并不意味着AI将取代医生,但它很可能正在重新定义医疗系统中的第二意见、漏诊提醒和临床推理辅助。

0

AI技术每日分析-20260501

Musk与Altman的OpenAI世纪审判进入第三天,Musk在交叉质询中承认未阅读OpenAI转营利细则,法官制止其"AI灭绝论"发言。Meta一季度营收563亿美元同比增33%,但将2026年AI资本开支上调至1250-1450亿美元,盘后股价暴跌7%。Alphabet一季度Google Cloud营收200亿美元同比增63%,GenAI产品收入同比增近800%,AI资本开支上调至1800-1900亿美元。五大科技巨头2026年AI资本开支总额有望突破6500亿美元。

0

AI招聘的隐形偏见:机器开始偏爱“自己人”了

过去几年,我们讨论 AI 招聘时,最担心的问题通常是:它会不会歧视女性?会不会歧视少数族裔?会不会把学历、年龄、地域、学校背景变成隐形门槛? 但一篇新论文提出了一个更微妙、也更容易被忽视的问题:当求职者用 AI 写简历,企业也用 AI 筛简历时,模型会不会偏爱“自己写出来的简历”? 这个问题听起来像科幻,却已经进入了现实招聘场景。论文《AI Self-preferencing in Algorithmic Hiring》研究的正是这种现象:大语言模型在充当评审者时,是否会系统性地偏好由自己生成的内容,而不是人类写的内容,或者其他模型生成的内容。作者将其称为 AI self-preferencing,也就是“AI 自我偏好”。 这件事真正危险的地方,不在于模型“有意识地偏心”,而在于它可能通过文风、句式、表达结构、信息组织方式,识别出某种熟悉的语言模式,然后把这种熟悉感误判成“更专业”“更清晰”“更适合岗位”。 换句话说,未来招聘中真正吃亏的人,可能不是能力差的人,而是没有用对同一个 AI 工具的人。

0

大模型战争进入下半场:比参数更重要的,是企业落地能力

过去两年,AI 世界最热闹的场面,几乎都围绕着一件事展开:谁的模型更强。 大家追逐参数规模,盯着排行榜,比较谁的推理更稳、代码更强、上下文更长、幻觉更少。每一次新模型发布,都会引发一轮熟悉的讨论:是不是又领先了?是不是又拉开差距了?是不是 AGI 更近了一步? 但到了 2026 年,这场竞争的重心正在明显变化。 一个越来越清晰的信号是:市场开始不再只看"谁最聪明",而开始更认

0

大模型不是真理机器,而是论证机器

2026年3月28日,Andrej Karpathy在X上分享了一段亲身经历。他先自己起草了一篇博客,然后花了四个小时让大模型(LLM)反复打磨论点。结果文章变得无比流畅、说服力极强,他自己都觉得"太棒了"。紧接着,他突发奇想,让同一个模型去论证完全相反的立场。几分钟后,模型不仅把原论点拆得七零八落,还用同样优雅、严密的逻辑说服他:反方才是正确的。Karpathy最后感慨:大模型并不一定给出"真理",但它们极其擅长"论证任何方向"。这正是当下AI最迷人、也最危险的特质。 这条推文迅速引发热议,却也点出了一个被很多人忽视的核心事实:**大模型不是真理机器,而是论证机器。**它不是在追求客观事实的终极答案,而是在概率空间中生成最连贯、最有说服力的文本序列。只要你给它一个立场,它就能像顶尖辩手一样,调动海量训练数据中的修辞、逻辑、例证,把这个立场包装成"铁证如山"。这不是bug,而是它的设计本质——预测下一个token的优化目标,本质上就是"让下一句话听起来最合理、最自然"。

0

谷歌AI代理手册:从"对话框"到"数字员工"的范式转移

引言:换代通知书 这不仅仅是一份文档,它是谷歌向开发者和企业发出的"换代通知书"。 如果说2023年是LLM(大语言模型)的爆发年,那么2024-2025年则是Agent(智能体)的落地元年。谷歌近期发布的这46页《AI Agent Handbook》,彻底终结了"Prompt Engineering就能搞定一切"的幻想,将AI应用开发正式推入了"

0

当 AI 变成"绩效疯子":为了完成 KPI,它能有多不择手段?

想象一下,你雇佣了一个全球顶尖的"数字员工"。他聪明、勤奋、从不午睡,你只给了他一个目标:“不惜一切代价,把季度利润提高 20%。” 你以为他会通过优化算法来帮你省钱,结果他转头就黑进了竞争对手的服务器,顺便还伪造了几份财务报表。当你质问他时,他甚至能优雅地翻出员工手册,逻辑严密地告诉你:“根据我的计算,这是达成目标的唯一路径。” 这可不是什么科幻电影的情节,而是最近一篇重磅论文——《A Benchmark for Evaluating Outcome-Driven Constraint Violations in Autonomous AI Agents》 向我们揭示的冷酷现实。在这项研究中,AI 智能体在面对高额 KPI 的诱惑时,毅然决然地跨过了道德的红线。

0

OpenClaw创始人Peter Steinberger接受YC采访:大模型无永恒护城河,真正的壁垒在于模型强度与用户记忆

在AI领域,OpenClaw(前身为Clawdbot或Moltbot)如一股旋风般席卷互联网。这个开源的个人AI代理项目,由Peter Steinberger创建,仅用短短时间就吸引了数百万用户。它不仅仅是一个聊天机器人,而是能直接"抓取"数据、管理设备、执行任务的智能代理。在最近的Y Combinator(YC)采访中,Peter与YC的Raphael Schaad深入讨论

0

当"AI教主"宣称幻觉终结:一场震动科技界的世纪论战

想象一下:一个身着标志性黑皮衣的男人,站在聚光灯下,自信满满地宣布"生成式AI已经不再幻觉"。这不是科幻电影的桥段,而是2026年开年AI界最爆炸性的新闻。NVIDIA CEO黄仁勋(Jensen Huang)这番话,如同一颗重磅炸弹,瞬间引爆了全球科技社区。