🔥51CTO热榜:2025-10-27

聚焦大型语言模型(LLMs)的安全漏洞,研究人员提出了全新的越狱攻击范式与防御策略,深入剖析了模型在生成过程中的注意力变化规律,为LLMs安全研究提供了重要参考。论文已被EMNLP2025接收
在AI浪潮裹挟下,硅谷掀起新一轮裁员:Salesforce、谷歌、Meta等边裁边招,甚至简单粗暴到按代码量决定裁员名单,而资源转向前沿大模型;独角兽与传统企业亦被波及。基层岗位被自动化压缩,顶尖AI人才炙手可热。裁员不止于降本,而是职位版图重塑的前奏。
3D点云异常检测对制造、打印等领域至关重要,可传统方法常丢细节、难修复。上海科大与密歇根大学携手打造PASDF框架,借助「姿态对齐+连续表征」技术,达成检测修复一体化,实验显示其精准又稳定。
推理热潮之下,我们是否高估了它的普适价值?这项基于 1.6M 配对样本的受控研究揭示:推理并非万能,其有效性高度依赖任务类型与模型规模。
如何科学地给大模型「找茬」?Anthropic联合Thinking Machines发布新研究,通过30万个场景设计和极限压力测试,扒了扒OpenAI、谷歌、马斯克家AI的「人设」。那谁是老好人?谁是效率狂魔?
一篇超长的硬核博客文章:《Inside vLLM: Anatomy of a High-Throughput LLM Inference System》针对 vLLM 的架构、代码和原理进行了深入的分析,这可能是关于 LLM 推理引擎和 vLLM 工作原理的最深入解读。
Fast-dLLM v2 提供了一条务实路线:用很少的数据(~1B tokens)把 AR 模型适配为 Block Diffusion LLM,相较等规模 AR 的端到端吞吐量约提升 2.5×,精度保持可比,并且关键开关(块大小、阈值、缓存)都能工程化地按目标调优,这是一个成本与收益比较均衡的解法。
来自苹果的研究团队提出 Pico-Banana-400K,一个包含 40 万张图像的基于指令的图像编辑综合数据集。
在本文中,作者分析了二元奖励(binary reward)设置下的 GRPO 优化目标,发现了由其群体相对优势函数引起的问题难度偏差的固有局限性,并且揭示了 GRPO 与传统判别式监督学习方法之间的联系。
随着机器学习和多模态模型的迅速发展以及大规模机器人数据的拓展,机器人学习逐步转向了基于学习的范式,强化学习、模仿学习,以及研究热门的 VLA 模型,都正在为自主决策的机器人开辟全新的潜力。
浙大与阿里联合提出 DATAMIND 框架,仅用 12K 高质量轨迹即训练出超越 GPT-5 的开源数据分析智能体,系统性解决了数据合成、训练策略与执行稳定性三大挑战。
论⽂提出了 Pos2Distill,⼀个创新的“位置到位置”蒸馏框架。该框架旨在将模型在优势位置的强⼤能⼒迁移⾄劣势位置,从⽽有效缓解位置偏⻅。
屠龙少年终究还是迷上了恶龙的金库。来自Meta的高管们正推动着OpenAI向商业巨头转型,不仅将Sora等产品社交化,更由CEO奥特曼亲自「改口」,组建团队探索广告业务。
三十年后,浏览器又打起来了。不过这次不是IE和Chrome的,而是ChatGPT。OpenAI推出Atlas浏览器,让AI自己上网、自己动手——它既能带你去网页,又能替你完成任务。当奥特曼把ChatGPT嵌入浏览器,谷歌所谱写了十年的传奇,也开始动摇。
在ICFP 2025编程大赛中,日本Sakana AI的「Team Unagi」以人机共创模式夺冠。其AI系统「ShinkaEvolve」通过迭代优化让代码性能提升近十倍,并反向启发人类思维。Sakana AI以自然进化为理念,正开创AI自我进化与人机协作的新范式。
Yoshua Bengio成为全球首位论文引用量突破百万的学者,Hinton以97万紧随其后,标志着AI学术影响力进入新高峰。
本文提出的 ARGRE,是一种能显式建模 LLM 表征空间中毒性转变的新型测试时解毒方法。其核心突破在于通过将稀疏的毒性标注转化为密集训练信号,高效学习出可提供稳定、精准指导的自回归奖励模型,为后续表征编辑提供关键支撑。
VLA-R1 是一个 “先推理、后执行” 的 VLA(视觉 - 语言 - 行动)基础模型。它把链式思维(CoT)监督与可验证奖励的强化学习(RLVR,基于 GRPO)结合起来,同时优化 “推理质量” 和 “执行正确性”。
Go HTTP/3 的推进,可以说是 "起了个大早,赶了个晚集"。2019 年就有人提议,2025 年提案又被搁置,这个过程确实有点魔幻。但换个角度想,这也是 Go 一贯的风格:稳字当头,又或是 ”less is more“。至于什么时候能在标准库中用上 HTTP/3,就看 Go 核心团队的魄力和资源分配了。
本文中,来自 Anthropic、Thinking Machines Lab 等机构的研究者提出了一种系统化的模型规范压力测试方法(stress-testing methodology),可自动识别并刻画当前模型规范中存在的大量原则矛盾与解释歧义等问题。