🔥51CTO热榜:2025-11-07

微软 AI 部门首席执行官穆斯塔法・苏莱曼(Mustafa Suleyman)透露了公司的核心规划:逐步摆脱对 OpenAI 的依赖,实现 AI 技术自主化。目前,OpenAI 的技术已深度嵌入微软面向客户的多款产品中。
TrajSelector 给大模型推理优化提供了一个重要思路:与其追求更大的模型,不如更聪明地利用现有模型的能力。
这篇试图说清楚:Claude Code Hook 的快速扫盲、Hook 运行机制拆解、Hook 配置三要素说明以及三个实用的 Hook 用例参考。
是只会打字的 Chat Bot,只会看图的 VLM,还是只能分辨声音的 ALM?
在人类最后的考试(HLE)、测试自主网络浏览能力的BrowseComp,和复杂信息收集推理基准测试SEAL-0等评测基准中,Kimi K2 Thinking都刷新了SOTA,超越GPT-5、Claude Sonnet 4.5(Thinking)等闭源模型。
ICML 2026 将于 2026 年 7 月 7 日至 12 日在韩国首尔举办,届时所有论文将采用双盲审稿机制,最终被录用的论文将在大会上进行展示。
近年来,shadcn/ui 可谓前端圈的现象级项目。它凭借极简的设计风格和出色的开发者体验,在各种技术榜单中霸榜前行,GitHub Star 数持续飙升,不仅成为 React 开发者的首选 UI 组件库,更被许多人视为现代前端开发组件库的优先选择。
这篇由 NTU、Caltech、Westlake、UCSD、Oxford、Harvard、MIT 等 12 所机构联合撰写的综述论文,主要总结了过去五年(2021–2025)间涌现的数百项创新工作,首次建立了完整的 Feed-Forward 3D 方法谱系与时间线。
新星闪耀!28位学者获1800万美元,华人天才齐上阵。AI2050瞄准AI普惠与安全。一文速览谷歌前CEO看好的AI方向和研究项目。
清华、北大、CMU 等机构联合推出了一套面向流匹配 VLA(π0, π0.5)的在线强化学习(PPO 和 GRPO)微调框架 πRL。该框架基于 RLinf(首个面向具身智能的大规模强化学习系统)实现,提出 Flow-Noise 和 Flow-SDE 两种微调方案,在公开测试平台 LIBERO 达到平均 97.6% (π0) 和 98.3% (π0.5),验证了微调方案的有效性。
重新思考企业人工智能数据平台,并探索数据开发者平台以扩展这些人工智能系统。
一项来自北京大学的最新研究引发关注:他们推出了全球首个面向古希腊陶罐的3D视觉问答数据集——VaseVQA-3D,并配套推出了专用视觉语言模型VaseVLM。
AlphaEvolve 是谷歌在今年 5 月发布的一项研究,一个由 LLMs 驱动的革命性进化编码智能体。它可以发现极其复杂的算法,甚至跨越数百行代码,远超简单函数的范畴。
在AI对话系统日益普及的今天,LLM的"记忆"能力成为用户体验的关键瓶颈。本文解析LightMem——一个受人类记忆机制启发的轻量级记忆框架,它在保持甚至提升性能的同时,将计算开销降低百倍。这项来自浙大和新国大的研究,为AI记忆系统设计提供了新范式,有望推动智能助手从"健忘"走向"善记"。
AdaSPEC 为推测解码提供了一种精准、高效、通用且具有广泛适用性的加速新范式。它通过「选择性蒸馏 + 自适应过滤」实现了 draft–target 的动态对齐,为未来 LLM 高效推理的研究与工业部署开辟了新方向。
奥特曼称GPT-6或让「AI创造新科学」成真。与此呼应,类「AI科学家」Kosmos登场:12小时读1500篇文献、跑4.2万行代码,生成可溯源报告,并在材料等方向提出新发现。它凭持续记忆自主规划,正由工具迈向合作者;但受数据来源与复现性制约,约20%结论仍需人类裁判。人机协作或将重塑科研,科研范式加速演进,前景可期。
AI卷走饭碗,17万大军一夜失业。别慌,Scale AI新作一锤定音:全球六大顶尖AI,现在能自动处理的事情连3%都不到。
很多教程都在重复基础内容,比如异步函数和手写 Promise。如果你已经熟悉这些知识,下面这十个高级技巧可以帮助你更深入地理解 JavaScript 。这些方法来自实际项目经验,能够解决真实问题,比如内存泄漏、性能瓶颈和资源管理。
ShadowRealm 现在在 TC39 Stage 3。一旦在浏览器与 Node.js 着陆,我们就有了标准化、轻量的 Realm 创建方式。 与此同时,你完全可以现在就用 polyfill 预演:做个小型插件系统、写个安全的代码执行器,踩一踩边界,心里更有数。
Kosmos,一款全程不用人类插手,自己查文献、写代码、出报告、写论文的AI科学家。