🔥51CTO热榜:2025-06-23

只要受到威胁,AI就会敲诈人类?在Anthropic最新的研究中,16款顶尖大模型(如Claude、GPT-4.1等)为避免自己被替换,竟会主动敲诈高管、泄露机密。
一个融合真实地理空间与AI生成技术的开放世界模拟平台,由Genesis物理引擎驱动,支持人类与机器人在社区中共同互动、成长与演化。
大语言模型(LLMs)在决策场景中常因贪婪性、频率偏差和知行差距表现欠佳。研究者提出强化学习微调(RLFT),通过自我生成的推理链(CoT)优化模型,提升决策能力。实验表明,RLFT可增加模型探索性,缩小知行差距,但探索策略仍有改进空间。
一种叫做 Sparse Autoencoder(简称 SAE) 的新兴技术正迅速崛起,成为当前最热门的 mechanistic interpretability(机制可解释性) 路线之一。
本文涵盖了你需要了解的关于 GRPO、强化学习 (RL) 和奖励函数的所有内容 —— 从初学者到高级,还有基于 Unsloth 使用 GRPO 的基础知识。
近日,中国科学院自动化研究所的研究人员提出了一种创新性框架 ——DrSR (Dual Reasoning Symbolic Regression):通过数据分析与经验归纳 “双轮驱动”,赋予大模型像科学家一样 “分析数据、反思成败、优化模型” 的能力。
这次对话为我们理解 AI 的当下与未来,以及其背后核心驱动者的思考,提供了一个直接且全面的视角。
南洋理工大学 S-Lab 和商汤科技的研究团队推出 OpenUni,一个开源版 MetaQuery,仅用 1.1B 参数达到 8B 模型性能,更将代码、权重、数据全部开源!
在「人类最后一场考试」(Humanity's Last Exam) 中,Kimi-Researcher 取得了 26.9% 的 Pass@1 成绩,创下最新的 SOTA 水平,Pass@4 准确率也达到了 40.17%。
一篇来自新加坡国立大学、上海 AI Lab、同济大学等机构并被 ICML 2025 接收为 Oral Presentation 的论文,为我们带来了全新的解题思路。
最近,上海交通大学与上海人工智能实验室联合团队最新研究表明,一个仅依赖 7B 参数大模型的 AI 智能体(ML-Agent),采用 “经验学习” 新范式,只在 9 个机器学习任务上持续探索学习,迭代进化,最终就能设计出超越 671B Deepseek-R1 驱动的智能体设计的 AI 模型,首次实现了在自主机器学习领域从 “提示工程” 到 “经验学习” 的范式跃迁,开创了 AI4AI 的新路径。
近日,CMU 助理教授贾志豪(Zhihao Jia)团队创新玩法,推出了一个名为「Mirage Persistent Kernel(MPK)」的编译器,可以自动将 LLM 转化为优化的巨型内核(megakernel),从而将 LLM 推理延迟降低 1.2 到 6.7 倍。
今天,我将带你构建一套生产级的重复提交防御体系,涵盖从基础到架构的全套方案。
清华大学与英伟达、斯坦福联合提出新的监督学习方案——NFT(Negative-aware FineTuning),在RFT(Rejection FineTuning)算法基础上通过构造一个“隐式负向模型” 来额外利用负向数据进行训练。
这个研究中不同AI出现一致性行为说明,这并非某家公司方法的怪癖,而是大模型存在更根本风险的迹象。
本文通过对象组合取代继承、可监视锁、final不可变安全发布等核心技术演示了并发编程中一些开发技巧,希望对你有帮助。
浙江大学高云君、柯翔宇团队联手向量检索领域大佬傅聪,开源新方法PSP(Proximity graph with Spherical Pathway),突破RAG两大难题。
来自蚂蚁技术研究院自然语言组联合中科院自动化所和香港中文大学开源ViLaSR-7B。
作为菲尔兹奖得主,陶哲轩一直被认为是当世最伟大的数学家之一,而这次在与MIT技术背景的播客大神Lex Fridman的对话,也是他近年来首次接受超3小时的非学术机构访谈,内容覆盖数学前沿、AI形式化验证、科研方法论等多个硬核议题。
你只需要告诉 AI “去哪边调用个接口”或“查查哪个文件”,MCP Server 就会替它跑腿,稳稳地把结果带回来。下面推荐几个值得开发人员关注的MCP服务。