🔥51CTO热榜:2026-03-02

惊爆硅谷!Anthropic对五角大楼坚决说不,特朗普一言不合就拉黑。如今,OpenAI、谷歌600多名员工,以及Ilya、Jeff Dean大佬纷纷站队为其声援。
西湖大学张驰研究团队提出了PMI(Prox-Mean-Inversion)。PMI的核心思想是利用RF模型内部固有的平均流结构,在逆向ODE的每一步加入一个轻量的proximal修正步骤,从而在不改变模型结构、不引入额外参数的情况下,有效抑制逆向轨迹的偏移与发散。
就在过去的半个月里,全球AI巨头似乎集体接到了一份名为“做自己的OpenClaw”的剧本。
来自南京大学章宗长俞扬团队和腾讯叶德珩团队的研究者们注意到,GPT这类大模型已经内化了大量日常常识,如果能一次性让它总结出“在这个环境下普遍有用的行为准则”,那么后续所有任务都可以共享同一份知识,省去反复调用。
阿里团队的这项工作(Expert Divergence Learning),并没有盲目地堆砌算力或修改模型架构,而是从损失函数的数学本质入手,重新思考了MoE的“专家”定义。
Anthropic 因为坚持「底线」拒绝与美国军方妥协,因而受到了惩罚,而 OpenAI 是否全盘接受了军方此前对 Anthropic 的强硬要求?
当代大模型面临一个核心困境:知识库是有限的,世界在不断变化。于是业界发展出了深度搜索智能体(Deep Research Agent)这一新范式。这类系统做的事情听起来很简单——反复执行"思考-搜索-再思考"的循环,直到搜集足够信息后给出最终答案。
VPP-TC 为被动力矩控制的安全性问题提供了一套优雅而高效的解决方案。
整个具身智能领域都在探索世界模型的实用化路径。这个被寄予厚望的「数字模拟器」,本应成为机器人训练的核心工具,却因物理保真度低等问题成为「空中楼阁」。
长视频理解的核心难点在于:视觉 token 随帧数快速膨胀,均匀抽帧又容易漏掉关键证据;而现有关键帧方法存在着训练代价高、依赖模型结构的问题,或者虽免训练仍需全帧预编码,难以满足真实系统的效率要求。
连日来,Anthropic 和五角大楼就前沿 AI 技术的使用方式及其在军事行动中的应用展开了愈演愈烈的争论。
近日,中科大王杰教授团队(MIRA Lab)和华为诺亚方舟实验室(Huawei Noah's Ark Lab)联合提出了大模型注意力模式的统一分析框架 TAPPA。
如果你真的需要 V5 这种基于 SHA-1 的弱哈希 UUID 怎么办?社区的回答是:自己写,或者继续用第三方库。标准库不应该为这种罕见且安全性存疑的场景买单。
Agentic RAG 为你提供了在简单检索失效时的“补救工具”。请谨慎使用。那些在生产中表现最好的系统,都是只在有正当理由时才增加复杂度、对一切进行度量、并把用户体验放在首位的系统。
如果我们把时间拨回到 2023 年之前,一个开源项目的诞生往往伴随着一位或几位核心维护者(Maintainer)数周甚至数月的辛勤耕耘。但在刚刚过去的几个月里,我们见证了一种全新的物种崛起。
一句话:Hooks 是你预先定义的脚本,在 Claude 操作的特定时刻自动执行。打个比方:工厂流水线上有很多"质检工位"——产品经过某个环节后自动进行质检,不合格的自动拦下。Hooks 就是 Claude Code 流水线上的质检工位。
CAG根据预先缓存的知识生成响应。如果正在处理一个非常大的数据集 (例如,超过 1000 个示例) ,预加载模型和生成 KV 缓存变得计算成本很高。
我们需要建立新的“算法公平性”标准,这种标准不仅要防范传统的社会偏见,更要警惕这种新兴的、针对人类整体的“反人类偏见”(antihuman bias)。在将LLM部署于任何具有经济或社会后果的决策场景之前,对其进行此类偏见的严格审计,应当成为一项强制性的规范。
勒索软件攻击正从高调加密转向隐蔽潜伏与数据窃取,报告显示,攻击者更侧重持久化与防御规避,甚至利用OpenAI、AWS等受信任平台隐藏C2流量。
Anthropic 选择了一条艰难的路——宁可在商业上受挫,也要守住道德底线。而 OpenAI 选择了一条现实的路——在妥协中寻求合作,用“可执行的安全措施”换取发展空间。