🔥51CTO热榜:2025-10-30

短信不再是瓶颈,而是开发效率的助推器。 用 SMS4J 打造一个真正可切换、可扩展、可维护的多厂商短信网关—— 让每一次短信发送,都成为你系统稳定与高效的体现。
DeepSeek团队最近开源的DeepSeek-OCR模型,给出了一个全新解法:把文本“画”成图像,用视觉Token实现高效压缩。原本需要1000个文本Token存储的内容,现在100个视觉Token就能搞定,还能保持97%的OCR精度。这种“光学压缩”思路,不仅让长文本处理效率飙升,更给大模型的“记忆机制”研究打开了新窗口。
历经体系化治理,百度搜索已实现大规模微服务体系的稳定性跃升。通过微观机制改造、预案建设并经生产环境验证,百度在过去多个季度中消除了系统雪崩事件。
今天我们系统性地探讨了SQL优化的三个关键前置知识:​​EXPLAIN​​工具、索引列选择和在线DDL方案,并结合六个贴近生产的案例进行了深入剖析。
09:47  51CTO  RAG—Chunking策略实战
在 RAG 系统中,即便采用性能卓越的 LLM 并反复打磨 Prompt,问答仍可能出现上下文缺失、事实性错误或拼接不连贯等问题。多数团队会频繁更换检索算法与 Embedding模型,但收益常常有限。
RICE 作为 MVT 系列的新模型,继续延续前作 Unicom(MVT v1.0)和 MLCD(MVT v1.1)的视觉预训练理念,秉持着 margin 表征代表语义的核心观点,在顶级学术会议 ICCV25 上获得 Highlight 荣誉。
本文提出的 Cache-to-Cache(C2C)范式,成功实现了大模型间高效、通用的直接语义通信。
关于扩散模型的一切,宋飏等人写成了 460 多页的书。
火山 HTTPDNS Cache2.0 通过 “自研网段库 + 动态适配” 的创新架构,实现了对上述方案的突破:一方面,其依托自研的 IP 网段库,实现了网段级别的细粒度缓存能力,解析精准度不逊于海外某厂商的动态方案;另一方面,该方案不依赖权威 DNS 的 ECS 协议实现 —— 即便面对实现 ECS 协议不标准的权威 NS,仍可通过自研网段库确定合理的缓存粒度,将 “缓存污染” 的影响范围控制在
Ling-1T 作为一个非推理(non-reasoning)模型,其性能却直逼业界顶尖的闭源模型,这背后隐藏着一个关键的技术转向。
本文将从宏观架构、微观机制、业务场景三个维度,深入剖析高效异构算力调度面临的挑战,并探讨其本质、根源与潜在的解决之道。
近日,加州大学圣地亚哥分校与美国东北大学的研究人员发布了一篇综述,系统梳理了这一现象背后的数学结构:神经网络参数空间中的对称性(parameter space symmetry)。
中国人民大学与百度团队联合发表于2025年SIGIR的研究《Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation》,首次从宏观知识流与微观模块功能两个维度,系统性拆解了RAG中LLM的知识利用机制。
牛津 VGG ,港大,上交大团队这篇论文旨在提供一种方法,能够用学术界的资源来增强视觉语言大模型的预训练 (Enhance Language-Image Pre-training),使得其可以更好地用于文字 - 图片检索。
当前T2V模型在“骆驼打包行李”这类想象力提示前集体失语。ImagerySearch通过语义距离感知的动态搜索与奖励机制,首次在无需训练的前提下,让AI真正“看见”人类想象中的动作关系。
下游服务消费消息时,需通过 “订单 ID” 实现幂等(避免重复扣库存),同时记录消费状态,为后续对账提供查询依据;消费失败时返回RECONSUME_LATER,触发 RocketMQ 重试,重试耗尽后进入死信队列。
微软表示已部署修复方案,正在回滚至"最后已知良好配置",并对受影响基础设施进行流量重定向。
OpenAI 公司推出 gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b 两款开源权重模型,专门用于根据用户提供的策略对内容进行推理、分类和标记。
这次不仅发布自研编码模型Composer,还重构了IDE交互逻辑,可以最多8个智能体同时跑,早期测试和开发者都说Cursor 2.0真的太快了。
吴恩达指出,当下大模型的卷生卷死,谁是赢家不重要。关键的是谁能构建可信的AI应用,谁才能成为真正塑造未来之人,顺便成为下一个通过AI财富自由者。