🔥51CTO热榜:2025-07-10

推理能力是衡量模型先进性的重要指标之一。ASTRO 框架,为开源语言模型推理能力的提升带来了新的思路,让我们重新思考如何赋予模型更接近人类的思考方式。
毕业季来临,年轻人面临职场竞争和AI冲击的双重挑战。Reid Hoffman建议毕业生将AI危机转化为机遇,通过掌握AI技术、动态规划职业、利用人际关系和快速学习,创造属于自己的未来。
很多AI产品在设计时就给自己贴标签——"这是写作工具"、"这是翻译工具"、"这是编程工具"。但用户的需求往往是跨界的,他们希望一个工具能解决多种问题。
谷歌上线AI摘要功能,表面上让搜索更高效,背后却在悄悄摧毁互联网的根基!网站流量断崖式下跌,内容创作者被「白嫖」,得不到回报。一场由AI引发的互联网生态危机,正在逼近。
LLM用得越久,速度越快!Emory大学提出SpeedupLLM框架,利用动态计算资源分配和记忆机制,使LLM在处理相似任务时推理成本降低56%,准确率提升,为AI模型发展提供新思路。
重磅开源!新一代最强小模型SmolLM3横空出世:30亿参数,支持128k长上下文!而且训练、对齐、架构、数据等全链路,Hugging Face这次100%开放——堪称真「Open AI」。
模型BlueLM-2.5-3B,融合文本和图文的理解和推理能力,支持长短思考模式自由切换,并引入思考预算控制机制。
在最受关注的语言任务上,Mamba-3B超越同等规模的Transformer,与两倍大的Transformer匹敌,因此被视为Transformer架构的有力挑战者。
上海人工智能实验室 AI4S 团队推出了 Scientists’ First Exam(以下简称 SFE)—— 系统评估多模态大模型(MLLMs)多学科、高难度的科学专业领域认知能力的评测基准。
Claude团队最新研究结果显示:对齐伪装并非通病,只是有些模型的“顺从性”会更高。
近日,Mamba 作者、CMU 助理教授、Cartesia AI 首席科学家 Albert Gu 撰写了一篇新博客,探讨了状态空间模型(SSM)和 Transformer 之间的权衡,并提出了这样一种观点。
MIT一项新研究表明,如果患者跟AI沟通的时候,消息中包含拼写错误或者大白话,它更有可能建议你不要看医生。
近日,来自卡耐基梅隆大学(CMU)、阿联酋穆罕默德・本・扎耶德人工智能大学(MBZUAI)、加州大学圣迭戈分校(UCSD)的研究者们探讨了当前 AI 领域最前沿方向 —— 世界模型(World Models)的局限性。
过去几年,我亲眼见证了它们的不断趋同。曾经各执一词的多种开发思路,如今相互借鉴之深,让人时常分不清自己到底在用哪个框架。
通过 ASA 攻击,研究者们不仅系统地表征了这一脆弱性,还构建了标准化的评估工具 ASABench,并提出了有效的防御策略 LAPT。
std::unique_ptr​​ 是一种独占所有权的智能指针。它确保只有一个指针可以访问资源,并在不再需要时自动释放内存。它适合用于单个所有者场景,例如拥有一个对象或管理动态分配的数组。
在实际开发中,你可以根据业务一致性要求与格式控制自由度进行灵活选型。千万不要小看这些格式化技巧,它们正是代码整洁性与工程稳定性的关键。
当前成果验证了Rust在负载均衡产品中改造中的工程价值:依托线程安全的运行时结构(如 Arc> )、高效前缀树路由( HostSelector )及最长前缀匹配,性能与可维护性均突破传统方案边界。
在大型语言模型的推理能力提升之路上,OctoThinker 研究直击核心——通过精妙的中期训练策略,成功唤醒 Llama 模型在强化学习中的巨大潜力,跨越性能屏障,与 Qwen2.5 模型并驾齐驱,为模型优化带来创新思路。
当信息如潮水般涌来,人类的认知却受限于生理与思维的边界。智能体技术成为破局利器,可开源智能体却长期被性能瓶颈所困。WebSailor 开源项目,凭借创新的训练方法和数据合成策略,赋予开源智能体强大的复杂推理能力,为我们带来构建智能体的创新思路