🔥51CTO热榜:2025-06-30

Nginx负载均衡是现代Web架构中不可或缺的一部分,它通过合理分配请求和资源,显著提升了系统的性能、稳定性和可扩展性。
Anthropic让Claude独立经营一家商店,结果AI当场翻车。不仅因「氛围管理」亏掉底裤,还自我认知混乱,一度坚信自己是人,还要穿西装给顾客送货员。
OpenAI的首席研究官Mark Chen刚刚向全体员工发送了一封措辞强硬的全员信,承诺将在顶级研究人才的争夺战中与小扎正面交锋
俄亥俄州立大学研究团队在2亿生物图像数据上训练了BioCLIP 2模型。大规模的训练让BioCLIP 2取得了目前最优的物种识别性能。
上海交通大学航空航天学院李元祥教授团队、上海创智学院、复旦大学数据科学学院团队以航空发动机运维为背景,提出高效、可迁移的时序-语言桥接架构——ITFormer。
来自 CMU 和小红书的研究团队对这一问题进行了深入研究,他们首次提出了针对多模态 RoPE 扩展策略的理论评估框架,指出现有多模态 RoPE 泛化能力不足的原因之一是保留 RoPE 中所有频率对长上下文语义建模有负面影响。
华为发布了一篇60页的重磅论文,提出了他们的下一代AI数据中心架构设计构想——Huawei CloudMatrix,以及该构想的第一代产品化的实现CloudMatrix384。相对于简单的“堆卡”,华为CloudMatrix给出的架构设计原则是,高带宽全对等互连和细粒度资源解耦。
只有小小的12B,更少的参数,更快的推理,性能更是媲美GPT-image-1等一众闭源模型。
Karpathy 深入探讨了这一变革对开发者、用户以及软件设计理念的深远影响。他认为,我们不只是在使用新工具,更是在构建一种全新的计算范式。
来自中国人民大学高瓴人工智能学院 GeWu-Lab 实验室、上海人工智能实验室的研究团队在最新论文中给出了一种全新的思考方式。
阿里带着全新多模态模型Qwen-VLo开启炸场模式。
近期,来自美国东北大学、香港中文大学、Adobe Research 等机构的研究团队提出了一种无需训练、即插即用的,基于动态稀疏注意力的视频扩散模型加速方法 ——DraftAttention,显著降低了注意力机制的计算开销,并且在几乎不损失生成质量的前提下,实现高达 2 倍的 GPU 端到端推理加速。
作者从理论上推导得到全新能量引导理论框架,并进一步提出多样的实际能量引导算法,可以根据任务特性进行灵活选择。
来自纽约大学、南洋理工大学、伊利诺伊大学香槟分校、KTH 皇家理工学院、悉尼大学、新加坡国立大学的研究者们,推出 AgentAuditor—— 一个通用、免训练、具备记忆增强推理能力的框架,让 LLM 评估器达到了人类专家的评估水平,精准识别智能体的安全风险。
近期,吉林大学人工智能学院发布了一项基于强化学习训练的 VLM 智能体最新研究《ScreenExplorer: Training a Vision-Language Model for Diverse Exploration in Open GUI World》。它让视觉语言模型(VLM)真正学会了「自我探索 GUI 环境」。
本文将详细介绍Hudi、Iceberg和Paimon这三种湖格式的发展历程、架构、特性,并对它们共有的特点进行对比分析。
大家好,我是肆〇柒。长篇小说生成一直是大型语言模型(LLM)颇具挑战性的任务。话语连贯性(discourse coherence)与叙事复杂性(narrative complexity)是长篇小说生成,具有挑战性的难点。我扒拉论文的时候发现由清华提出的一篇论文《WRITER: A Multi-Agent Framework for Long Story Generation》,以其创新性的架构设计
企业级人工智能聊天机器人已从早期的简单客户服务工具发展到如今的较高水平。根据 Gartner 的预测,到 2025 年底,超过 80% 的客户互动预计将涉及聊天机器人。这不仅仅是一种趋势,而是客户期望的根本转变。
我们将分析三款领先的开源 LLM——Llama、Mistral 和 DeepSeek——并比较它们在以下几个方面的性能。
FullGC 内存泄漏就像棉袄漏风,刚开始你可能没感觉,但时间一长,寒气就会慢慢侵入你的身体。同样,内存泄漏刚开始可能不会对系统造成明显影响,但随着时间的推移,内存会被慢慢耗尽,最终导致系统崩溃。