https://leafw-blog-pic.oss-cn-hangzhou.aliyuncs.com/avatar.jpg

苹果芯片Mac使用Docker部署MinerU api服务

最近试了下 Mineru 解析 PDF,感觉还是挺好的,但为了本地开发方便,就直接在电脑上部署个 API 服务,官网上虽然也有部署教程,但感觉对于 Mac 用户并不算友好,就自己又瞎折腾了好久,现在总算 OK 了,也把我的部署方式分享下,主要还是依靠 ChatGPT 的大力支持 🐶。

高效智能体设计:如何在不牺牲效果的前提下降低成本?

本文解读的是 OPPO AI Agent 团队于 2025 年 8 月发布的论文
《Efficient Agents: Building Effective Agents While Reducing Cost》
arXiv: 2508.02694v1

引言

大语言模型驱动的智能体(Agent)近年来在复杂任务上展现了惊人的能力——从多轮推理、跨工具调用,到信息检索与整合。然而,性能的提升往往伴随着成本的飙升:更多的推理步数、更多的工具调用、更复杂的记忆机制,都意味着更多的 token 消耗与 API 调用费用。

大语言模型的上下文工程(Context Engineering for Large Language Models)

LLM 刚开始火热的时候,有个词非常热门,叫做提示词工程,甚至有各种网文声称市面上可能会招聘大量的提示词工程师,当初在一些招聘网站上倒是也的确能搜索到这样的岗位。但随着大模型技术的发展和应用复杂度的激增,单独依赖写一句好的提示词已经不能满足工业级的生产场景。一个新的概念产生了,叫做 Context Engineering(上下文工程)

让 LLM 拥有“可治理的记忆”:MemOS:A Memory OS for AI System 论文解读

随着大语言模型(LLM)能力的持续扩展,研究者和开发者逐渐意识到,若要真正迈向通用人工智能(AGI),模型不仅需要强大的语言生成能力,更应具备长期一致性、知识演化能力与用户个性化适配能力。因此,越来越多的系统开始尝试将 LLM 作为智能体(Agent)进行封装,并探索其在多轮对话、长期任务、知识积累等真实场景中的表现。

大模型真的能做推荐系统吗?ARAG论文给了我一个颠覆性的答案

前两天刷微博无意间刷到了一位老师转发的关于大模型做推荐系统的论文,这是 Walmart AI 团队近期发布的一篇论文:《ARAG: Agentic Retrieval-Augmented Generation for Personalized Recommendation》。老实说,在看这篇论文之前,我一直觉得大模型做推荐系统跟传统推荐系统是不值得比较的,自己虽然没做过推荐系统,但也看过一些科普,觉得这应该主要还是依靠机器学习、特征工程、协同过滤和排序模型等技术来实现,而大语言模型(LLM)擅长的是对话、写代码、写文案、问答推理这些,拿来做推荐?感觉不太靠谱。但这篇论文,用一个代理式多智能体 RAG 框架,把我从这条旧路径中拽了出来。

Tool Calling、 MCP、A2A一文透析

这两年随着大模型的能力的飞速发展,我们可以依赖大模型做很多更加复杂的任务,为了完成这些任务,我们经常需要依赖于外部环境提供的能力,为了整合这些能力,涌现了多种扩展技术,目前很常用的就是工具/函数调用(Tool/Function Calling)和模型上下文协议(MCP, Model Context Protocol),此外就是最近才发布不久的 Agent2Agent 协议。它们的功能在某些角度来看十分相近,但又有着各自的特点,本文将会分别就这几种技术进行介绍和分析,帮助大家对它们能有个总体的认知。