OutputParserException: Failed to parse LLM output
LangChainでLLM出力のパースに失敗した場合のエラー
概要
LangChainの出力パーサーがLLMの応答を期待する形式にパースできない場合に発生するエラーです。
エラーメッセージ
langchain.schema.output_parser.OutputParserException: Failed to parse LLM output. Expected a JSON object, got: "I'll help you with that..."
OutputParserException: Could not parse function call: 'function_call' key not found in response
pydantic.error_wrappers.ValidationError: 1 validation error for Response
原因
1. LLMが期待する形式で応答しない
2. プロンプトの指示が不十分
3. モデルのJSON出力能力の限界
4. Pydanticモデルとの不一致
解決策
1. フォーマット指示を明確にする
| |
2. リトライパーサーを使用
| |
3. OutputFixingParserを使用
| |
4. JSONモードを使用(OpenAI)
| |
5. 構造化出力を使用
| |
6. エラーハンドリングを追加
| |
7. 正規表現パーサーを使用
| |
8. マークダウンコードブロックの処理
| |
関連エラー
関連エラー
AI の他のエラー
この記事は役に立ちましたか?