🔥51CTO热榜:2025-10-21

一个开源项目 UniVid,提出了一个「融合」方向:把理解 + 生成融为一体 —— 他们希望用一个统一的模型,兼顾「看懂视频」+「生成视频」的能力。
近期研究提出了极低比特(extreme low-bit)LLM,例如使用 1.58 比特(即三值 {-1, 0, 1})表示的 BitNet。这种方法旨在显著降低内存占用并加速推理,从而为 LLM 在下游应用中的高效部署提供一条可行途径。
来自来自加州大学圣地亚哥分校、斯坦福大学的研究人员提出了一个创新的强化学习框架。
海报上透露出的信息,在此次宇树发布的官宣视频里都有展示。 宇树H2在视频里其实就干了三件事,分别是跳舞、功夫、走秀。
PostgreSQL 基于数据库表存储历史版本的方式实现了 MVCC,这种实现方式的优点是读取历史版本更加方便,不用像 MySQL 那样依赖额外的 Undo Log 存储。缺点是在高并发的场景下,数据库表会保存大量的过期 tuple(dead tuples),可能会导致表膨胀。
简单来说,由于一张图能包含大量文字(用的token还更少),所以他们想到并验证了“将视觉作为文本压缩媒介”这一方法——就好比优秀的人看书都是扫一眼就知道内容,不必一字一句读完才理解内容。
Apex通过 RuleSync 与 ProjectService 实现CursorRules规则模板一键同步,依托配置化 MCP 加速工具集成和能力提升,以安全令牌与白名单机制强化治理,并借助 UsageRecorder 与 TraceService 提供可观测性,全面支持高效、安全、可控的使用交付与版本去迭代化管理。
Lynx 是一个基于 JavaScript 的 UI 框架,目标是“一套代码,同时构建 Web 与移动端,且拥有原生般的体验”。多端统一、体验不妥协——这是前端/界面工程师追了很多年的“写一次,到处跑”的老梦想。因此,它值得被认真观察。
Anthropic 上线了「Claude Code on the web」(即网页版 Claude Code)功能,这种全新的方式可以让用户直接从浏览器中委派编程任务。
在签署新的数据平台合同或续签合同之前,不要只追求最低的运行成本——要考虑总拥有成本。问问它如何影响互操作性、人力投入、灵活性和长期变化。因为在数据世界中,启动成本低往往意味着维持成本高昂。
全球大学生已达2.64亿,相当于「世界第五人口大国」。近日,《Nature》一篇新文章揭示了全球高等教育大变局。西方国家不再是主要的留学目的地;建立海外分校也成为跨国教育的一条新路径,学生不出国也能留学。
​@Formula​​ 是 JPA 世界里的一把利刃,它让我们能在实体层优雅地表达计算逻辑。​ 无论是聚合查询、衍生属性还是条件标识,都能在不破坏 ORM 结构的情况下完成。
“存、算、智、理、惠”五大趋势,并非孤立存在,而是相互交织、协同演进,共同勾勒出下一代数据库的完整面貌:它是一个能够存储海量、多模数据,融合计算、智能使能,内置强大治理能力,并能以普惠方式交付的一体化数据智能平台。
在这项研究中,UIUC 和 Amazon 团队提供了实证和理论的双重证据,挑战了 “领域 SFT 会显著损害通用能力” 的普遍认知。
一个围绕真实 map reasoning 任务场景设计的多阶段强化学习框架,用难度感知的细粒度奖励与从易到难的课程式训练,系统提升 MLLMs 的细粒度视觉理解与空间推理能力。
天天刷推,大模型的脑子也会坏掉。
「我很喜欢新的 DeepSeek-OCR 论文…… 也许更合理的是,LLM 的所有输入都应该是图像。即使碰巧有纯文本输入,你更应该先渲染它,然后再输入。」
来自北京大学与华为的研究团队联合提出了LouisKV——一个专为长输入、长输出等各类长序列场景设计的高效KV cache 检索框架。
全球顶级咨询公司麦肯锡,居然收到了OpenAI最近给Tokens消耗大客户颁发的奖牌。
由于亚马逊AWS服务器宕机,大量互联网服务被迫中断,ChatGPT也被殃及。