首页
热榜
诗歌
博客
美图
分享
好物
牛股
友站
互动
登录
注册
🔥51CTO热榜:2025-12-03
10:17
51CTO
马斯克开「AI救国猛药」:3年解决美38万亿国债危机!
马斯克放出豪言:3年内,AI+机器人能解决美国债务!几乎在同一时间,华尔街却悄悄抛弃了英伟达,重新押注下一代算力架构。
10:17
51CTO
句子级溯源+生成式归因,C²-Cite重塑大模型可信度
C²-Cite框架通过"上下文感知"这一核心理念,成功解决了现有归因大语言模型的关键痛点。
10:17
51CTO
Runway重夺全球第一!1247分碾压谷歌Veo3,没有千亿算力也能干翻科技巨头
Runway Gen-4.5这波有点厉害!在Artificial Analysis的榜单中Runway以1247的ELO分数拿下第一。
10:17
51CTO
麦肯锡重磅报告:当57%的工作被自动化,我们如何与AI结成利益共同体
麦肯锡全球研究院(MGI)发布了一份足以重塑我们对未来工作认知的报告。
10:17
51CTO
AI一直在掩盖自己有意识?!GPT、Gemini都在说谎,Claude表现最异常
当研究人员刻意削弱AI的「撒谎能力」后,它们反而更倾向于坦白自身的主观感受。
10:17
51CTO
DeepSeekV3.2技术报告还是老外看得细
对于DeepSeek-V3.2这次的成绩,DeepSeek研究院苟志斌(Zhibin Gou)在推特上给出了相当直觉性的解答:强化学习在长上下文长度下也能持续扩展。
10:17
51CTO
颠覆认知!耶鲁 + 哈佛等 21 机构实证研究:医学场景下 RAG 竟成 “性能拖累”
耶鲁大学、哈佛医学院、斯坦福大学等21所机构联合开展的最新研究,却给出了颠覆性结论:标准RAG不仅没能提升LLM在医学领域的表现,反而会降低输出的事实性和完整性。
10:17
51CTO
OpenAI首席研究员Mark Chen长访谈:小扎亲手端汤来公司挖人,气得我们端着汤去了Meta
Mark Chen之所以能够言无不尽,一大关键还在于,本期访谈来自于《Core Memory》,其主持人Ashlee Vance是硅谷知名的科技记者,以深入采访硅谷人物和讲述科技创新故事而闻名,更知名的是他那本《硅谷钢铁侠:埃隆·马斯克,创造未来的人》。
10:17
51CTO
听说你会架构设计?来,弄一个外卖系统
本文就以美团、饿了么为参考原型,从后台技术视角拆解外卖系统的架构设计,涵盖整体架构分层、核心功能技术实现、关键难点突破,帮你把 “搞个外卖系统” 的模糊需求,变成可落地的技术方案。
10:17
51CTO
架构解耦是统一多模态模型所必须的吗?全新AIA损失:No
香港中文大学 MMLab 和美团的研究者相信,在不久的将来统一模型的性能一定能够达到单任务的水平,但同时也引起了他们的思考,目前通过拆解架构换取性能提升的方式真的是正确的吗,它是否背离统一模型的初衷,它能够提升性能的内在原因又是什么,这种方式真的是统一模型必须的吗?
10:17
51CTO
AAAI 2026 Oral:明略科技开创稀疏数据「信息瓶颈动态压缩」,精度+速度双SOTA
由东南大学、中南大学、明略科技(2718.HK)联合提出的一篇被 AAAI 2026 接收为 Oral 的论文 CompTrack 给出了一个深刻的答案。这项工作展示了压缩技术如何大幅降低计算开销,同时保持或甚至提升模型性能,以 3D 点云跟踪作为一个引人注目的应用案例。
10:17
51CTO
华为新开源!扩散语言模型突破32K上下文,还解锁了「慢思考」
openPangu-R-7B-Diffusion 的发布,不仅仅是一个新模型的开源,更是对「扩散模型能否处理复杂长文本」这一难题的有力回应。凭借其创新的因果注意力掩码架构,它成功证明了扩散模型不仅可以「快」(并行解码),更可以「深」(32K 长文与慢思考)。
10:17
51CTO
迎接「万物皆可RAG」时代:最新综述展示50多种多模态组合的巨大待探索空间
来自华中科技大学、复旦大学、中国电信、美国伊利诺伊大学芝加哥分校的研究者们共同发布了一篇全面覆盖几乎所有模态作为输入和输出组合的 MM-RAG 综述来全面且系统化地阐述这个广阔的研究和应用空间。
10:17
51CTO
60 亿消息表分库分表:从9千万到预期扛量,后台开发提前布局实战指南
提前分表的核心是 “按预期数据量算参数”,不能只看当前 9 千万数据 —— 要是按现在的量分表,半年后还是要二次扩容,反而麻烦。我们所有参数都按 “半年后 60 亿数据量” 测算,同时兼顾当前的性能需求。
10:17
51CTO
阿里通义 GME:MLLM 驱动的多模态检索革命,打破模态壁垒的通用嵌入模型
阿里通义团队在2025 CVPR上提出的GME(General Multimodal Embedder),正是为解决这一痛点而生——它以多模态大语言模型(MLLM)为核心,通过均衡多模态数据训练,实现了跨文本、图像、视觉文档、图文组合的通用检索能力,刷新了多模态检索的性能上限。
10:17
51CTO
GPT5.5代号“蒜你狠”曝光!OpenAI拉响红色警报加班赶制新模型,最快下周就发
OpenAI奥特曼向全体员工拉响“红色警报”:要集中所有资源先让ChatGPT能赶上Gemini 3 Pro再说别的,连广告业务和购物智能体这种能带来额外收入的都要让路。
10:17
51CTO
解读CUDA
本文探索了定义 CUDA kernel和执行启动配置,以及设备和主机之间的通信。对于永远的Helloword,我们通过NVIDIA profiler 了解CUDA 程序中某些操作需要多长时间。
10:17
51CTO
像P图一样改视频?可灵O1来了,视频生成领域的“瑞士军刀”
可灵O1不是那种只会在参数上卷数字的模型,它是奔着解决实际工作流问题去的。虽然它还不完美,但它展示了一种可能性:未来的视频创作,真的可以像现在P图一样简单、直观、随心所欲。
10:17
51CTO
扣子(Coze)工作流如何实现电商营销素材数倍速生产
对于零售商而言,竞争格局已不再由生产规模决定,而是由内容速度(Content Velocity)决定。那些能够成功将其高成本、低效率的人工创意流程,转化为快速、低门槛、生产级的 AI 工作流的企业,将在智能零售时代获得决定性的竞争优势。抓住智能体时代的红利,加速运营重构,是当代零售业实现高质量增长的战略必经之路。
10:17
51CTO
聊聊大模型推理系统之 FlowMesh:成本降低 3.8 倍,靠 “任务拆细 + 结果共享” 大幅节省冗余计算的资源编排方案
FlowMesh 的范式可扩展至多模态训练、联邦学习等场景,推动 AI 基础设施从“资源池”向“智能服务织物”变革,让昂贵的 GPU 算力真正实现“按需共享、高效复用”。
<
1
2
3
4
>
历史热榜
51CTO 2025-12-02
51CTO 2025-12-01
51CTO 2025-11-30
51CTO 2025-11-29
51CTO 2025-11-28
51CTO 2025-11-27
51CTO 2025-11-26
51CTO 2025-11-25
51CTO 2025-11-24
51CTO 2025-11-23
51CTO 2025-11-22
51CTO 2025-11-21
51CTO 2025-11-20
51CTO 2025-11-19
51CTO 2025-11-18
51CTO 2025-11-17
51CTO 2025-11-16
51CTO 2025-11-15
51CTO 2025-11-14
51CTO 2025-11-13
51CTO 2025-11-12
51CTO 2025-11-11
51CTO 2025-11-10
51CTO 2025-11-09
51CTO 2025-11-08
51CTO 2025-11-07
51CTO 2025-11-06
51CTO 2025-11-05
51CTO 2025-11-04
51CTO 2025-11-03
51CTO 2025-11-02
51CTO 2025-11-01
51CTO 2025-10-31
51CTO 2025-10-30
51CTO 2025-10-29
51CTO 2025-10-28
51CTO 2025-10-27
51CTO 2025-10-26
51CTO 2025-10-25
51CTO 2025-10-24
51CTO 2025-10-23
51CTO 2025-10-22
51CTO 2025-10-21
51CTO 2025-10-20
51CTO 2025-10-19
51CTO 2025-10-18
51CTO 2025-10-17
51CTO 2025-10-16
51CTO 2025-10-15