🔥51CTO热榜:2025-10-29

ypeScript 6.0 正式发布了。这次更新不仅仅是增加几个新功能,而是从根本上提升了开发体验。无论你是开发 react 应用、Next.js 项目,还是其他 JavaScript 应用,这个版本都会改变你对类型安全的看法。
ArkUI 提供了一套底层 CAPI 的高性能渲染接口 Native Drawing,通过初步的实验和测试,发现其可以在保证性能的同时避免 Graph 内存增量,并且不会带来额外包增量。对此,我们从 25Q1 启动了适配工作,并于近期整体适配完成。
对于前端开发者来说,Vite 应该是一个耳熟能详的名字。作为一款基于原生 ES 模块的构建工具,它在性能上超越了 Webpack 等传统工具,不仅开发体验更为流畅,其社区生态也日益繁荣。
这项工作揭示了 LLM 在推理阶段的一少部分高熵词会显著影响输出正确性,并提出了 Minimal Test-Time Intervention (MTI),其中包含 Selective CFG intervention 和 Lightweight negative-prompt guidance。该方法无需训练并即插即用,易于与现代加速框架和各种解码策略或测试时扩展方法进行结合。
OpenAI官方通告中表示,OpenAI在2015年时作为一家非营利机构成立,使命是“确保通用人工智能能造福全人类”。
研究团队通过发布Time-HD基准,开源Time-HD-Lib框架,和提出U-Cast方法,为高维时间序列预测设立了新的标杆。
自然图像是否也能作为文本的压缩呢?中科院&字节联合提出的「Grasp Any Region」提供了新思路。
清华与快手可灵团队也带着无VAE潜在扩散模型SVG来了。
华为联合上海交通大学、华中科技大学推出了世界模型WorldGrow,可以生成1800㎡超大室内场景(19x39块),单卡30分钟就跑了272㎡。
让LLM帮忙投资,赚取被动收入,听起来就感觉逼格挺高的。 万一,我是说万一,就像是以毒攻毒,把不确定性交给另外一种看似科学的不确定性,结果会变得确定了呢?
来自北京大学、小红书 hi lab 等机构的华人研究者共同提出了名为 Uni-Instruct 的单步生成大一统理论框架,目前已被 NeurIPS 2025 接收。该框架不仅从理论上统一了超过 10 种现有的单步扩散模型蒸馏方法,更是在多项任务上取得了当前最佳(SoTA)性能。
今天我们来聊聊一个让很多DBA和开发者头疼的话题——千万级大表的数据删除。有些小伙伴在工作中,一遇到大表数据删除就手足无措,要么直接DELETE导致数据库卡死,要么畏手畏脚不敢操作。
哥德尔机是一种自我改进型通用智能系统理论模型,设计灵感来自于哥德尔(Kurt Gödel)的不完备性定理。
未来,OpenAI 基金会将首先在以下两大领域集中发力,并承诺投入 250 亿美元。这些工作将在 5000 万美元的「以人为本的人工智能基金」和非营利委员会的建议基础上展开。
Apache软件基金会已发布多个安全补丁,修复影响Tomcat 9、10和11版本的三个新披露漏洞。
香港大学 CVMI Lab 和阶跃星辰 AIGC 团队提出一个大胆假设:原本为视觉理解任务设计的预训练视觉基础模型,其潜在特征是否也能直接作为图像重建与生成的鲁棒结构化表征?
这篇文章由论坛主持人 Oana Olteanu 撰写,深入探讨了这次圆桌论坛的核心洞见:从上下文工程的最佳实践、记忆架构设计、多模型编排,到治理框架和用户体验设计。如果你正在构建 AI 产品、基础设施或智能体系统,这些来自一线工程师的实战经验,或许能帮你避开一些失败陷阱。
Grokipedia 是一个 AI 驱动的百科全书,内容由 AI 生成,所有内容都将经过 xAI 驱动的算法系统进行事实核查、偏见检测与逻辑一致性评估。
从大规模 GPU 部署和量子突破,到安全的 AI 工厂、机器人技术和自动驾驶,黄仁勋在 NVIDIA GTC Washington 的舞台上勾勒出了美国 AI 世纪 (America’s AI century) 的蓝图。
大语言模型(LLM)的效果取决于输入的数据是否准确、有条理(也就是说数据的质量),单纯部署LLM并不能发挥潜力,Palantir的Ontology是这个关键的数据桥梁,它可以在数据输入大语言模型前,将数据清理、整理,再输入LLM,使LLM在一个强大、受控的数据生态系统中运行,输出有意义的、上下文丰富的见解 Palantir已帮助组织进行复杂数据管理,尤其在国防、金融、医疗和供应链等关键领域。