🔥51CTO热榜:2026-03-04

如果要用一句话总结我对 Cursor 这轮演进的判断:它不是在做“更聪明的编辑器”,它在做“面向开发交付的操作系统”。你依然要懂代码、懂系统、懂业务,但你每天亲手敲的代码比例,可能会越来越低。
GPT-5.3 Instant不卷跑分,专治「聊天翻车」:不再动不动拒绝回答,不再满嘴说教免责,幻觉率暴降27%,写作能力也跳了一个台阶。
如何把庞大的大模型塞进受限的车载芯片?面对端侧算力瓶颈,最新的「软硬协同设计定律」给出破局解法:只需输入芯片参数,即可免训练算出最优模型架构。同等算力下,模型智商跃升近20%,研发周期从数月缩至一周。
Claude Code 正式上线语音模式:输入 /voice,长按空格说话,松开即完成输入。语音转录实时流入光标位置,和键盘无缝切换,转录Token完全免费。编程的下一个战场不是模型智商,而是交互方式。
强化学习已经成为大模型后训练阶段的核心方法之一,但一个长期存在的难题始终没有真正解决:现实环境中的反馈往往稀疏且延迟,模型很难从简单的奖励信号中推断出应该如何调整行为。
大模型训练的现实是:显存和吞吐决定一切。工业界普遍在混合精度里使用 BF16/FP16,甚至把 FFN 推到 FP8,以换取更高的训练效率。
DreamZero 核心思想是:在同一个模型里,同时预测未来视频和机器人动作。也就是说,DreamZero 让机器人在行动前,先在模型内部想象未来。
来自 SGIT AI Lab,UCSD, HKUST 等机构的研究团队给出了肯定的答案。他们提出的 FlowRVS,跳出了传统‘冻结骨干提取特征 + 独立解码器预测’的桎梏。
现在的 AI 工具,大部分还是在“帮你获取信息”这个层面打转。你问它答,你搜它找。但真正的效率提升,应该是“帮你干活”——不只是告诉你信息,而是直接帮你处理完。
近日,一家名为 Math, Inc. 的公司宣称利用 Gauss 智能体,已经完成了一个关乎 8 维和 24 维空间中的最优球体堆积定理的形式化证明,代码量约为 20 万行(LOC)。
近期,中山大学人机物智能融合实验室 (HCP Lab) 联合拓元智慧 X-Era AI 提出了一种新型的高效世界模型框架。
你不在键盘前,它就不工作。它不能凌晨 2 点自动扫描代码仓库然后把质量报告发到钉钉群。它不能在每次有人提 PR 的时候自动做一轮审查。它不能批量处理 100 个文件的文档生成。
ReVision的出现,为多模态大模型的训练打开了一扇新的大门。
为量化 Aegis 系统性能退化诊断的效能,作者与模型训练团队深度协作,获取了所有训练任务的迭代时间记录。如下图 Figure 14 所示,Aegis 系统的性能退化诊断功能于 2024 年 6 月部署,该功能将性能退化现象显著降低了 71%。
本文则从Roofline模型框架角度,对 LLM 推理技术进行系统性分析,这个框架能够识别 LLM 在硬件设备上部署时的瓶颈,例如 LLM 为何受内存限制、推理需要多少内存和计算资源、以及如何选择合适的硬件等。
2026年初的科技界,一个名字以几乎不可思议的速度渗透了硅谷的每一个角落——Clawdbot。在公开报道中,它也被称作Moltbot或OpenClaw,但无论名字如何变换,围绕它的核心叙事始终如一:这是一个"真正做事的AI"。
自从ChatGPT横空出世以来,AI“黑话”层出不穷,什么RAG、Agent、MCP、A2A... 现在又来了个Context Engineering(上下文工程),这篇文章会一一给你解答。让我们开始这场"上下文"之旅!
当前大语言模型(LLM)的发展主要集中在助手型AI(如ChatGPT、Claude),目标是成为"全知全能的预言家"——知识渊博、乐于助人、真实无害。然而,另一类同样重要的场景——社交型AI(如Character.ai、Replika)——却缺乏系统性研究。
本文为你介绍四种本地运行大语言模型的方法。
现在升级,是主动权。等问题逼你升级,是被动应对。技术债不会消失。它只会计息。今天清理,是理性。明天爆炸,是必然。