Reevol

GLOSSARY

ヒューマン・イン・ザ・ループ

定義済みのポイントで人間がエージェントの判断をレビュー、承認、または上書きするAIシステム設計。完全自律がまだ正当化できない高リスクの貿易意思決定におけるデフォルトの統制メカニズム。

**ヒューマン・イン・ザ・ループ(HITL)**は、意思決定が実行される前に人間の審査者へ送られるあらゆるAIワークフローを指す。相互作用は、確認型(エージェントが提案し、オペレーターが承認)、是正型(オペレーターがエージェントの誤りにラベル付けして再学習に用いる)、エスカレーション型(エージェントの信頼度がしきい値を下回ったときにのみ問い合わせのために停止する)になり得る。

なぜ重要か

高リスクの貿易業務: 制裁ヒットのクリア、デュアルユース品のHS分類の承認、AMLしきい値超の電信送金の実行、などにおいて、HITLはエージェントをEU AI Act Article 14、OCC SR 11-7のモデルリスク期待事項、その他同等の監督制度の下で法的に擁護可能にする要件である。問うべきなのは人をループに残すかどうかではなく、どの判断にHITLが必要か、そして審査者にどのコンテキストを提供するかである。

関連用語

  • 人による監督
  • 説明可能性
  • モデルリスク管理
  • エスカレーション

参考資料