https://leafw-blog-pic.oss-cn-hangzhou.aliyuncs.com/avatar.jpg

大语言模型的上下文工程(Context Engineering for Large Language Models)

LLM 刚开始火热的时候,有个词非常热门,叫做提示词工程,甚至有各种网文声称市面上可能会招聘大量的提示词工程师,当初在一些招聘网站上倒是也的确能搜索到这样的岗位。但随着大模型技术的发展和应用复杂度的激增,单独依赖写一句好的提示词已经不能满足工业级的生产场景。一个新的概念产生了,叫做 Context Engineering(上下文工程)

让 LLM 拥有“可治理的记忆”:MemOS:A Memory OS for AI System 论文解读

随着大语言模型(LLM)能力的持续扩展,研究者和开发者逐渐意识到,若要真正迈向通用人工智能(AGI),模型不仅需要强大的语言生成能力,更应具备长期一致性、知识演化能力与用户个性化适配能力。因此,越来越多的系统开始尝试将 LLM 作为智能体(Agent)进行封装,并探索其在多轮对话、长期任务、知识积累等真实场景中的表现。

大模型真的能做推荐系统吗?ARAG论文给了我一个颠覆性的答案

前两天刷微博无意间刷到了一位老师转发的关于大模型做推荐系统的论文,这是 Walmart AI 团队近期发布的一篇论文:《ARAG: Agentic Retrieval-Augmented Generation for Personalized Recommendation》。老实说,在看这篇论文之前,我一直觉得大模型做推荐系统跟传统推荐系统是不值得比较的,自己虽然没做过推荐系统,但也看过一些科普,觉得这应该主要还是依靠机器学习、特征工程、协同过滤和排序模型等技术来实现,而大语言模型(LLM)擅长的是对话、写代码、写文案、问答推理这些,拿来做推荐?感觉不太靠谱。但这篇论文,用一个代理式多智能体 RAG 框架,把我从这条旧路径中拽了出来。

Tool Calling、 MCP、A2A一文透析

这两年随着大模型的能力的飞速发展,我们可以依赖大模型做很多更加复杂的任务,为了完成这些任务,我们经常需要依赖于外部环境提供的能力,为了整合这些能力,涌现了多种扩展技术,目前很常用的就是工具/函数调用(Tool/Function Calling)和模型上下文协议(MCP, Model Context Protocol),此外就是最近才发布不久的 Agent2Agent 协议。它们的功能在某些角度来看十分相近,但又有着各自的特点,本文将会分别就这几种技术进行介绍和分析,帮助大家对它们能有个总体的认知。

Windsurf使用技巧分享

最近使用了差不多半个月的 Windsurf,使用下来的感觉就是这玩意血强,不比 cursor 差。之前体验过免费的 cursor,但 completion 的次数很快就用完了,体验的确很好,但 20 美刀的价格的确需要仔细考虑考虑,后来就开始体验 Windsurf,只有 cursor 一半的价格(不知道啥时候会变成 15),但也依然保持着优秀的体验,因此今天我就写几点关于我使用 Windsurf 的一些心得。

Paper-Agent支持论文问答转聊天功能

本周有点偷懒,没想好写什么技术文章,就给 Paper-Agent 加了点花样,支持基于首页的论文问答进行对话,直接切换到聊天菜单就会自动带上。目前只做了 Deepseek 的适配,当然理论上所有的符合 OpenAI 规范的模型都可以适配,只是还未经过测试,不能保证。