🔥51CTO热榜:2026-01-04

研究者们提出了「世界模型」这一概念,即让智能体在脑海中构建一个物理模拟器,通过预测未来状态来进行演练。
随着大模型的发展,编程不再是一场苦修,而是一场大型即时策略游戏。在这个游戏里,很多人学会了与 AI 并肩作战,学会了用一种更纯粹、更直抵本质的方式去构建自己想要的世界。
2026年架构革命的枪声已经打响!ResNet用十年证明了「加法捷径」能救训练,但也暴露了「只加不减」的天花板。DeepSeek新年王炸之后,普林斯顿和UCLA新作DDL让网络学会忘记、重写和反转。
KAN网络作者刘子鸣新作直击痛点:Scaling Law虽然能通过「穷举」达成目标,但其本质是用无限资源换取伪智能。而真正的AGI应大道至简。
清华朱军等团队提出了 UniCardio,旨在在一个以统一生成框架同时完成两大类核心能力。
多目标(Multi-target) 以及 视觉参照(Visual Reference) 为视觉定位(Visual Grounding)任务的推理速度和性能同时带来了全新的挑战。 为了解决这一难题,来自UIC和Adobe的研究团队提出了VGent模型。
Neuralink将于2026年开始大规模生产脑机接口设备,并转向一种精简、几乎完全自动化的手术流程。
来自 Meta FAIR 和 Meta TBD 实验室的的一项全新研究工作,打破了这一关键瓶颈,提出了 SSR(自对弈 SWE-RL),旨在通过使软件代理能够自主生成学习经验,从而摆脱人类数据的限制。
Video-Thinker 的核心价值,在于打破了 “视频推理必须依赖外部工具” 的固有认知,通过 “高质量数据合成 + 精准强化训练” 的全链路设计,让 MLLM 真正实现内生 “时序定位” 与 “片段描述” 能力,实现了端到端的自主视频思考。
来自南京大学、腾讯 ARC Lab 和上海 AI Lab 的联合研究团队提出了 TimeLens(时间透镜),系统性地揭示了现有数据的“评测陷阱”,构建出更可靠的评测基准和高质量训练数据,并探索出一套简洁有效的算法优化。
LSTM 之父 Jürgen Schmidhuber 的 USI & SUPSI 瑞士 AI 实验室团队提出了新的方案:极坐标位置嵌入(Polar Coordinate Position Embedding ),简称 PoPE。
近日,Astera 研究所、英伟达、斯坦福大学、加州大学伯克利分校、加州大学圣地亚哥分校的一个联合团队提出的 TTT-E2E(端到端测试时训练)沿着这条 AGI 的必经之路迈出了重要一步。
DeepSeek 的研究团队提出了 Manifold-Constrained Hyper-Connections (mHC,流形约束超连接)。
悉尼科技大学(UTS)研究团队提出了一种全新的漂移感知协作辅助混合专家学习框架 —— CAMEL (Collaborative Assistance Mixture of Experts Learning)。
谷歌推出 Gemini 3 大语言模型、Nano Banana 图像生成模型、Veo3 视频生成模型以及 TPU 芯片,在各个战线全面开花,重夺技术制高点。
这份连大神卡帕西和OpenAI总裁Greg Brockman都在转发推荐的Coding Agents指南,用3招教你快速交付。
CurlDotNet 让在 C# 中使用 curl 命令变得简单自然。你可以把文档中的 curl 命令直接复制到代码里,而不需手动转换。这能节省时间、减少错误,并让 API 集成更加轻松。
随着大模型能力的提升和存储技术的发展,AI的记忆机制肯定会变得更加智能和高效。但无论如何变化,有一点是确定的——真正的智能,离不开良好的记忆管理。
Step-GUI作为阶跃星辰推出的AI Agent系列模型,凭借其智能化任务执行、广泛的平台兼容性、坚实的隐私屏障、高效的任务协作处理和逼真的场景模拟等核心功能,为GUI自动化任务提供了强大的解决方案。
来自香港城市大学的研究团队提出了一种全新的神经形态机器人电子皮肤(neuromorphic RE-skin,NRE-skin)。