🔥51CTO热榜:2026-04-14

全球第2掉到第10,Claude最强模型被曝「降智」,BridgeBench实锤了!但Anthropic不在意呢?
现有大模型评测分数日趋饱和,但与真实体验差距显著。南京大学傅朝友团队牵头,在Google Gemini评测团队邀约下推出视频理解新基准Video-MME-v2。
开源项目 StarVLA 没有选择堆砌算力或盲目刷榜,而是从系统抽象层面直击痛点,提出了一套Backbone-Action Head的「乐高式」统一架构。
最近,来自复旦大学可信具身智能研究院姜育刚、马兴军团队开源的 「 XSafeClaw 」,给出了一个让人眼前一亮的答案。
这篇文章是我半年深度使用后的完整复盘:哪个场景该用哪个工具,钱该怎么花,以及怎么把三者组合成一个真正高效的工作流。
共享语义 latent space 并不只是一个更「统一」的建模方案,它确实有机会把视觉生成变成推理与建模过程中的有效中间变量。
现在的龙虾,称之为「Claw」是有道理的,笨拙的龙虾爪的确很难进行复杂操作。让它打开浏览器逛逛电商平台比价,都要寻找各种对应的 Skills,而且执行的吭哧瘪肚的,这的确让人很难放心地将正经工作流交给龙虾。
从传统上以视觉为主导的模仿学习(看着学),逐步走向了以力触觉为核心的全感知物理交互(在接触中理解世界)。
该综述系统性填补了大模型潜在空间研究的碎片化空白,以 “基础 — 演进 — 机制 — 能力 — 展望” 五大视角构建完整研究框架,清晰剖析了潜空间从概念验证到全面爆发的演进路径与底层逻辑。
众所周知,老马惦记微信也不是一天两天了,之前还公开竖大拇指:微信什么都能做,而西方没有这样的产品。
在UMI框架基础上做了全方位升级——不是只给一个采集设备或训练代码,而是构建了视触感知融合+精度与便携兼顾+数据可靠性增强+持续进化的数据闭环。
这款“强到不敢公开发布”的Mythos模型,确实刺激了人们对下一代LLM架构的想象。
目前,这个由独立开发者Virat Singh打造的项目,开源后迅速登上GitHub Trending榜单,斩获51.7k Star、9k+Fork。
近日,复旦大学、上海创智学院邱锡鹏教授领衔的OpenMOSS团队联合初创公司模思智能(MOSI)开源MOSS-VL——一个11B参数的多模态视觉理解模型,支持图像、视频、文档等多种输入模态。
清华大学与北京中关村学院联合发布的AutoSOTA项目,正是一次旨在将原创性从这种低效循环中解放出来的尝试。
OpenAI的首席营收官Denise Dresser,周末给员工发了一封本该保密的内部信,结果被The Verge拿出来发了。
我花了一整周,盯着自己每一次点击、每一次翻菜单、每一次明明该停却还在傻等的瞬间。最后发现,真正偷走时间的,根本不是思考本身,而是那些没必要的操作:点来点去、来回滚动、干等回复、还有把本可一次说清的话硬生生补发第二遍。
内核里的自旋锁、RCU、原子操作、SMP 并发,无一不依赖 CPU 访存模型才能真正理解。为什么屏障必不可少?为什么变量会出现可见性问题?为什么同一套代码在不同架构上表现迥异?这些问题的答案,不在进程调度器里,也不在 TCP 协议栈中,而在 CPU 读取与写入数据的每一个细节里。
最近编程圈炸翻了!Z.AI直接放出GLM-5.1,公然叫板Claude Opus 4.6,还甩上了实测数据——作为天天用Claude Code写后端脚本、做自用工具、搞开发的人,我第一时间扒完了所有细节,今天就给大家唠唠:它到底凭什么能打?值不值得我们带娃搞技术的人入手?
很多人以为“用了缓存 = 会用缓存”。但真实情况是:不会设计 Redis 的人,只是在用缓存;会设计的人,才是在做系统扩展能力。