🔥51CTO热榜:2025-11-03

LayerComposer革新了个性化图像生成,让用户像在Photoshop里一样自由操控元素位置、大小,解决传统方法交互性与多主体扩展难题,实现更自然、高效的创作,推动个性化生成迈向主动交互新阶段。
香港大学黄超团队开源的DeepCode在「论文复现代码」方面,首次在PaperBench测试中超过来自剑桥、伯克利等8所顶尖高校的机器学习博士,并领先Claude Code、Cursor等先进的商用代码智能体。
当AI开始决定哪篇AI论文能被接收,「同行评审」这件事就显得格外讽刺。近日,一位AAAI 2026审稿人在Reddit匿名发帖,称自己经历了「史上最奇怪」的评审流程:好论文被拒、弱论文晋级,还有疑似「关系稿」在护航。更离谱的是,连AI也在帮忙总结评审意见。当算法与人情交织,学术的公正,还能被相信吗?
在AI时代,莫让大脑「裸泳」!认知卸载如计算器取代心算,久之忘本。莫等AI断供,才悔恨脑子空空。
UniLIP 提出创新的 CLIP 微调框架,通过两阶段重建训练与自蒸馏损失,在不损失模型原有理解性能的同时,实现了卓越的图像重建能力。UniLIP 可直接替换 MLLM(如 InternVL)中的原有 CLIP 模块(如 InternViT),并保持甚至略微提升其理解性能。
一篇来自加州大学圣迭戈分校、Nvidia 等机构的新论文提出了一个大胆的设想 —— 让机器自动读懂整个学科,并告诉研究者下一步该往哪里走。
本文一开始提到 Shadow Brokers 泄露事件加剧了整个网络安全行业的一次大升级,而这次事件咋看之下似乎影响并没有那么严重,也没有任何泄露的 0day。
奥特曼称与微软的合作为「有史以来最伟大的技术合作之一」。Satya 也透露,当年微软从 10 亿美元投资加注到 100 亿,正是在看到早期 Codex(代码生成模型)演示后做出的关键决定。
硅谷AI圈最近魔幻事件,不会中文进不了AI核心小组。开完会,全说汉语,老外懵了!连模型在思考时,也在说中文~
在NeurIPS 2025论文中,来自「南京理工大学、中南大学、南京林业大学」的研究团队提出了一个极具突破性的框架——VIST(Vision-centric Token Compression in LLM),为大语言模型的长文本高效推理提供了全新的「视觉解决方案」。值得注意的是,这一思路与近期引起广泛关注的DeepSeek-OCR的核心理念不谋而合。
微软AI CEO苏莱曼领导的17名核心高管阵容曝光:新增9名核心成员中有5位来自谷歌(包含DeepMind)系;8名老将中有2名来自苏莱曼共同创办的Inflection AI;17人中有7位是原微软的资深高管。新核心团队将聚焦AI产品落地、安全与隐私、增长与商业化。
从OpenAI新组织结构的影响,到微软与OpenAI的后续合作,再到AI未来,两人在1个多小时的时间里,深入聊了不少外界感兴趣的话题。
来自于上海创智学院刘鹏飞老师团队,提出上下文工程2.0,剖析上下文工程的:本质、历史与未来。
AI编程TOP应用Cursor和Windsurf最近不是前后脚发了新模型嘛。前者打出“自家首个编码模型”、“智能体编程最佳方式”的旗号,后者自称“速度新标杆”。
来自人大与清华的研究团队推出DeepAnalyze —— 你的专属「数据科学家」。只需一个指令,它便能自动化分析你的数据、自主完成各类数据科学任务。
LiveTradeBench 的研究启动于数月前,并连续进行了为期五十天的实盘测试,覆盖美股市场与去中心化预测市场 PolyMarket,是最早探索「实盘智能体评测」的工作之一。
arXiv 新规:综述、立场论文不再随意接收,会议、期刊接收之后才给发
SERES 把跨视角的语义一致性与结构层面的区域约束,变成一种低成本、可解释、可复用的训练期先验。
本文将循着《Acquired》这期节目的讨论脉络,同时深入挖掘并征引节目中提及的两本关键著作《In the Plex》与《Genius Makers》(中文版:深度学习革命)中的相关细节,结合当下 AI 圈现状,对 AI 的发展历史与大公司战略博弈进行一次深度的复盘。
中国人民大学高瓴人工智能学院与快手 Klear 语言大模型团队联合提出 Agentic Entropy-Balanced Policy Optimization(AEPO),一种面向多轮智能体的熵平衡强化学习优化算法。