🔥51CTO热榜:2025-04-14

大模型微调(Fine-tuning)是一种迁移学习技术,通过在预训练大模型(如GPT、BERT、LLAMA等)的基础上,使用领域特定数据进行额外训练,使模型适应特定任务(如医疗问答、法律文本分析、代码生成等)。
Qwen 团队最近发布了一款统一多模态大模型 Qwen2.5-Omni,开放了 7B 版本的权重。能够同时处理文本、图像、音频和视频输入,并以流式方式生成文本和语音响应。
随着人工智能(AI)技术的不断发展,所谓的“推理”AI 模型成为了研究热点。这些模型能够像人类一样逐步思考问题,在特定领域,如物理学中,被认为比非推理模型能力更强。然而,这种优势却伴随着高昂的测试成本,使得独立验证这些模型的能力变得困难重重。
Go 1.3 的栈上精确 GC 是一个重要的里程碑,提高了内存管理的效率和准确性,并为连续栈等优化铺平了道路。但开发者必须更加注意 ​​unsafe​​ 包的正确使用,避免进行非法的类型转换,否则程序将在新的运行时机制下变得不稳定甚至崩溃。​
得益于2024年浏览器的最新进展,许多新特性已经在所有主流浏览器引擎中得到了支持。以下是十大亮点,可以立即开始使用它们。
MCP 虽然用起来很方便,但搞不懂背后的实现原理,总感觉这个知识点还没完全掌握,所以接下来,我们一起来看它的实现原理。
最新的一些功能,出于人身安全考虑,部分相对安全的后续才会OTA升级给客户使用。人形机器人太新,使用难度还很高,请大家务必小心使用。
受推理领域越来越多不一致的经验说法的推动,我们对推理基准的现状进行了严格的调查,特别关注了数学推理领域评估算法进展最广泛使用的测试平台之一 HuggingFaceH4,2024;AI - MO。
我们看到华为盘古发布的这篇新研究,证明了基于全国产的昇腾也可以实现领先的大规模语言模型的研究与开发。
苹果在2024年全球开发者大会上为Siri描绘了诱人的蓝图,承诺将成为iPhone的「超级大脑」。然而,仅仅九个月后,内部技术方向的反复摇摆和高管间的矛盾让这一愿景化为泡影。
多线程优化就像走钢丝,看着简单,其实处处都是陷阱。咱得把基础打扎实,多在实践中总结经验,遇到问题别慌,用调试工具和性能分析工具慢慢排查。希望大家看完这篇文章,能避开这些坑,在多线程优化的路上少走弯路,写出高效、稳定的代码。
先来解释什么是“状态”( State )。现实事物是有不同状态的,例如一个自动门,就有 open 和 closed 两种状态。我们通常所说的状态机是有限状态机,也就是被描述的事物的状态的数量是有限个,例如自动门的状态就是两个 open 和 closed 。
作为国内最早All in AIGC赛道的先行者之一,昆仑万维自2023年起便构建了全方位的前沿布局:从基础大模型到垂直应用,从技术研发到生态建设。尤其值得注意的是,昆仑万维持续为开发者社区提供高质量的模型和工具链,这种坚持普惠的技术理念也为其提供了独特竞争力。
近日,LLM360 推出了 MegaMath:全球目前最大的开源数学推理预训练数据集,共计 3710 亿(371B)tokens,覆盖网页、代码和高质量合成数据三大领域。
AI名流化身三国杀,奥特曼被GPT-4o认作AGI霸主!继吉卜力风全家福后,GPT-4o卡牌风、个性化罗塔牌让人眼前一亮。而纽约客曝料:吉卜力风全家福掀翻全网,背后最大功臣不是奥特曼,而是亚马逊前高级软件工程师Grant Slatton!
从编程到论文,AI无处不在! 一项针对百万条学生对话的分析显示,AI不仅能调试代码,还能润色文章,甚至生成学习资料。但这背后,学术诚信的边界在哪里?
康奈尔大学 (科技校区) 博士生 JACK MORRIS 发表了一个新颖的观点:从 2012 年到现在,AI 的根本性突破并非来自全新的算法创新,而是来自我们能够利用的新数据源和更好的数据利用方式。
代码截图泄露,满血版o3、o4-mini锁定下周!更劲爆的是,一款据称是OpenAI的神秘模型一夜爆红,每日处理高达260亿token,是Claude 用量4倍。奥特曼在TED放话:将推超强开源模型,直面DeepSeek挑战。
AIMO2最终结果出炉了!英伟达团队NemoSkills拔得头筹,凭借14B小模型破解了34道奥数题,完胜DeepSeek R1。
根据竞技场官方消息,Llama 4首发时提交的是名为“实验版”、实为“针对人类偏好优化”的模型Llama-4-Maverick-03-26-Experimental。