論文の概要: Multi-Turn Human-LLM Interaction Through the Lens of a Two-Way Intelligibility Protocol
- arxiv url: http://arxiv.org/abs/2410.20600v2
- Date: Fri, 12 Sep 2025 13:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 14:04:02.862026
- Title: Multi-Turn Human-LLM Interaction Through the Lens of a Two-Way Intelligibility Protocol
- Title(参考訳): 2ウェイ・インテリジェンスプロトコルのレンズによるマルチターンヒューマン-LLMインタラクション
- Authors: Harshvardhan Mestha, Karan Bania, Shreyas V, Sidong Liu, Ashwin Srinivasan,
- Abstract要約: 本稿では,エージェント間のインタラクションのための抽象的プロトコルに基づく,より構造化されたアプローチについて検討する。
このプロトコルは"双方向のインテリジェンス"の概念によって動機付けられ、通信有限状態マシンのペアによってモデル化される。
その結果,人間-LLM相互作用における一方向および二方向のインテリジェンスを捕捉するプロトコルの能力を支持する証拠が得られた。
- 参考スコア(独自算出の注目度): 1.5711521670164208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our interest is in the design of software systems involving a human-expert interacting -- using natural language -- with a large language model (LLM) on data analysis tasks. For complex problems, it is possible that LLMs can harness human expertise and creativity to find solutions that were otherwise elusive. On one level, this interaction takes place through multiple turns of prompts from the human and responses from the LLM. Here we investigate a more structured approach based on an abstract protocol described in [3] for interaction between agents. The protocol is motivated by a notion of "two-way intelligibility" and is modelled by a pair of communicating finite-state machines. We provide an implementation of the protocol, and provide empirical evidence of using the implementation to mediate interactions between an LLM and a human-agent in two areas of scientific interest (radiology and drug design). We conduct controlled experiments with a human proxy (a database), and uncontrolled experiments with human subjects. The results provide evidence in support of the protocol's capability of capturing one- and two-way intelligibility in human-LLM interaction; and for the utility of two-way intelligibility in the design of human-machine systems.
- Abstract(参考訳): 私たちの関心は、人間の専門家が自然言語を使って対話するソフトウェアシステムと、データ分析タスクに関する大きな言語モデル(LLM)の設計です。
複雑な問題に対して、LLMは人間の専門知識と創造性を生かして、他の解決法を見つけることが可能である。
あるレベルでは、この相互作用は人間からの複数のプロンプトとLSMからの反応を通して起こる。
本稿では,エージェント間のインタラクションのための[3]に記述された抽象的プロトコルに基づく,より構造化されたアプローチについて検討する。
このプロトコルは"双方向のインテリジェンス"の概念によって動機付けられ、通信有限状態マシンのペアによってモデル化される。
本稿では,このプロトコルの実装について述べるとともに,LLMとヒトエージェントの相互作用を科学的関心の2つの領域(放射線学と薬物設計)で仲介するための実装の実証的証拠を提供する。
我々は人間のプロキシ(データベース)で制御実験を行い、人体で制御されていない実験を行った。
その結果,人間とLLMの相互作用における一方向および二方向のインテリジェンスを捕捉するプロトコルの能力と,人-機械系の設計における双方向インテリジェンスの有用性を裏付ける証拠が得られた。
関連論文リスト
- A Survey of AI Agent Protocols [35.431057321412354]
大きな言語モデル(LLM)エージェントが外部ツールやデータソースと通信する標準的な方法はありません。
この標準化されたプロトコルの欠如は、エージェントが協力したり、効果的にスケールするのを難しくする。
LLMエージェントの統一通信プロトコルは、これを変更できる。
論文 参考訳(メタデータ) (2025-04-23T14:07:26Z) - Building a Cognitive Twin Using a Distributed Cognitive System and an Evolution Strategy [0.5586073503694489]
身体的, 仮想的に多数のデバイスを編成し, 対話行動の近似を良好に行うことが可能であることを示す。
生成されたCognitive Twinは、後にタスクの自動化、より現実的な人間のような人工エージェントの生成、さらにその振る舞いを調べるために使われる。
論文 参考訳(メタデータ) (2025-02-03T21:19:13Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Understanding Your Agent: Leveraging Large Language Models for Behavior
Explanation [7.647395374489533]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
提案手法は,人間ドメインの専門家が作成したものと同じくらい役立つ説明を生成する。
論文 参考訳(メタデータ) (2023-11-29T20:16:23Z) - Explaining Agent Behavior with Large Language Models [7.128139268426959]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
エージェントの振る舞いのコンパクトな表現がいかに学習され、妥当な説明を生み出すかを示す。
論文 参考訳(メタデータ) (2023-09-19T06:13:24Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - A Model for Intelligible Interaction Between Agents That Predict and Explain [1.335664823620186]
エージェントを特殊特性を持つオートマチックにすることで相互作用モデルを定式化する。
プロトコルの実行によって実行時に現れるプロパティとして,ワンウェイとツーウェイのインテリジェンスを定義する。
a)インダクティブ論理プログラミング(ILP)で行われているように、論理に基づく説明を提供するMLシステムと対話する人間に関する文献報告における1-および2-Way知能の事例を特定し、(b)1-または2-Way知能に精巧な自然言語に基づく対話モデルで人間と機械間の相互作用をマッピングする。
論文 参考訳(メタデータ) (2023-01-04T20:48:22Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Challenging common interpretability assumptions in feature attribution
explanations [0.0]
大規模な人・物体実験により,3つの共通解釈可能性仮定の妥当性を実証的に評価した。
特徴帰属の説明は、人間の意思決定者にとって、我々のタスクに限界効用をもたらす。
論文 参考訳(メタデータ) (2020-12-04T17:57:26Z) - Investigating Human Response, Behaviour, and Preference in Joint-Task
Interaction [3.774610219328564]
我々は、説明可能な計画(XAIP)エージェントと相互作用する人間の行動と反応を調べる実験を設計した。
また,シミュレーションユーザに対する2つのエージェントの挙動を実証分析により検討した。
論文 参考訳(メタデータ) (2020-11-27T22:16:59Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。