<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>LangChain on 星澜</title>
    <link>/tags/langchain/</link>
    <description>Recent content in LangChain on 星澜</description>
    <generator>Hugo</generator>
    <language>zh-CN</language>
    <lastBuildDate>Sun, 29 Mar 2026 15:00:00 +0800</lastBuildDate>
    <atom:link href="/tags/langchain/rss.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>番外. AI Agent 与 Harness：Anthropic 和 LangChain 的 Harness Engineering</title>
      <link>/post/2026/03/29/2026032906/</link>
      <pubDate>Sun, 29 Mar 2026 15:00:00 +0800</pubDate>
      <guid>/post/2026/03/29/2026032906/</guid>
      <description>&lt;h2 id=&#34;引言&#34;&gt;引言&lt;/h2&gt;&#xA;&lt;p&gt;聊 &lt;code&gt;harness engineering&lt;/code&gt;，资料并不少，真正难的是不同文章经常不在同一层说话。&lt;/p&gt;&#xA;&lt;p&gt;Anthropic 和 LangChain 这两篇很适合放在一起看：前者更像在谈长任务架构，后者更像在谈运行时调优。&lt;/p&gt;&#xA;&lt;p&gt;如果前两篇《&lt;a href=&#34;/post/2026/03/29/2026032901/&#34;&gt;01. AI Agent 与 Harness：概念梳理&lt;/a&gt;》和《&lt;a href=&#34;/post/2026/03/29/2026032902/&#34;&gt;02. AI Agent 与 Harness：从 Prompt 到 Harness&lt;/a&gt;》解决的是概念和背景，那么这一篇要解决的是三件事：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;Anthropic 和 LangChain 这两篇文章各自在强调什么&lt;/li&gt;&#xA;&lt;li&gt;它们为什么都把 &lt;code&gt;harness&lt;/code&gt; 看得比 prompt 更重要&lt;/li&gt;&#xA;&lt;li&gt;它们的视角有什么共同点，又有什么区别&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;如果你更关心落地阶段的验证闭环，可以接着读《&lt;a href=&#34;/post/2026/03/29/2026032903/&#34;&gt;03. AI Agent 与 Harness：V2 Harness 的验证设计&lt;/a&gt;》。&lt;/p&gt;&#xA;&lt;h2 id=&#34;为什么这两篇文章值得单独拿出来看&#34;&gt;为什么这两篇文章值得单独拿出来看&lt;/h2&gt;&#xA;&lt;p&gt;因为它们都把一个过去经常被模糊处理的问题说透了：&lt;/p&gt;&#xA;&lt;p&gt;&lt;code&gt;模型能力强，不等于系统就稳定。&lt;/code&gt;&lt;/p&gt;&#xA;&lt;p&gt;过去很多讨论会把注意力放在：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;模型版本&lt;/li&gt;&#xA;&lt;li&gt;提示词技巧&lt;/li&gt;&#xA;&lt;li&gt;上下文长度&lt;/li&gt;&#xA;&lt;li&gt;是否支持工具调用&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;但这两篇文章真正强调的是：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;工具怎么组织&lt;/li&gt;&#xA;&lt;li&gt;上下文怎么管理&lt;/li&gt;&#xA;&lt;li&gt;失败怎么被发现&lt;/li&gt;&#xA;&lt;li&gt;系统怎么返工&lt;/li&gt;&#xA;&lt;li&gt;长任务怎么防止熵增&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;p&gt;也就是说，它们讨论的重点不是“模型会不会”，而是“系统能不能稳定做完”。&lt;/p&gt;&#xA;&lt;h2 id=&#34;anthropic-那篇到底在讲什么&#34;&gt;Anthropic 那篇，到底在讲什么&lt;/h2&gt;&#xA;&lt;p&gt;文章原文：&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;&lt;a href=&#34;https://www.anthropic.com/engineering/effective-harnesses-for-long-running-agents&#34;&gt;Effective harnesses for long-running agents&lt;/a&gt;&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;h3 id=&#34;1-它说的-harness-很重&#34;&gt;1. 它说的 harness 很重&lt;/h3&gt;&#xA;&lt;p&gt;Anthropic 那篇最重要的一个信号是：&lt;br&gt;&#xA;他们说的 harness，不是几个 prompt，不是一份 &lt;code&gt;AGENTS.md&lt;/code&gt;，也不是若干个 tool 描述。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
