論文の概要: Dimensions of Disagreement: Unpacking Divergence and Misalignment in
Cognitive Science and Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2310.12994v1
- Date: Tue, 3 Oct 2023 16:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-29 16:22:15.510047
- Title: Dimensions of Disagreement: Unpacking Divergence and Misalignment in
Cognitive Science and Artificial Intelligence
- Title(参考訳): 不一致の次元:認知科学と人工知能における相違と不一致を解き放つ
- Authors: Kerem Oktar, Ilia Sucholutsky, Tania Lombrozo, Thomas L. Griffiths
- Abstract要約: 人工エージェントの普及により、人間と人工エージェントの相違を管理する必要性が高まっている。
心理学における過去の研究は、2つのエージェントが同じ対象の異なる評価を形成するとして、しばしば意見の相違を生んでいるが、エージェントがその対象をどう表現するかの相違から意見の相違が生じることもある。
ばらつきと不一致がどう相互作用するかを理解することは、様々な種類のエージェント間の効果的な協調を促進する鍵となる。
- 参考スコア(独自算出の注目度): 11.236150405125754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing prevalence of artificial agents creates a correspondingly
increasing need to manage disagreements between humans and artificial agents,
as well as between artificial agents themselves. Considering this larger space
of possible agents exposes an opportunity for furthering our understanding of
the nature of disagreement: past studies in psychology have often cast
disagreement as two agents forming diverging evaluations of the same object,
but disagreement can also arise from differences in how agents represent that
object. AI research on human-machine alignment and recent work in computational
cognitive science have focused on this latter kind of disagreement, and have
developed tools that can be used to quantify the extent of representational
overlap between agents. Understanding how divergence and misalignment interact
to produce disagreement, and how resolution strategies depend on this
interaction, is key to promoting effective collaboration between diverse types
of agents.
- Abstract(参考訳): 人工エージェントの普及は、人と人工エージェント間の不一致や、人工エージェント自体間の不一致を管理する必要性を増大させる。
心理学における過去の研究は、2つのエージェントが同一のオブジェクトの異なる評価を形成しているため、しばしば意見の相違が生じるが、エージェントがそのオブジェクトをどう表現するかの相違からも意見の相違が生じる。
人間と機械のアライメントに関するAI研究と、コンピュータ認知科学における最近の研究は、この後者の相違に注目し、エージェント間の表現的重複の程度を定量化するツールを開発した。
ばらつきと不一致がどう相互作用するかを理解することは、様々な種類のエージェント間の効果的な協調を促進する鍵となる。
関連論文リスト
- Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Theory of Mind as Intrinsic Motivation for Multi-Agent Reinforcement
Learning [5.314466196448188]
本稿では,深いネットワークによってモデル化された政策の中で意味論的・人間解釈的信念を基礎づける手法を提案する。
各エージェントが他のエージェントの信念を予測する能力は,マルチエージェント強化学習の本質的な報奨信号として利用できることを提案する。
論文 参考訳(メタデータ) (2023-07-03T17:07:18Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Diversifying Agent's Behaviors in Interactive Decision Models [11.125175635860169]
他のエージェントの振る舞いをモデル化することは、複数のエージェント間の相互作用に関する決定モデルにおいて重要な役割を果たす。
本稿では,その相互作用に先立って,被験者の意思決定モデルにおける他のエージェントの行動の多様化について検討する。
論文 参考訳(メタデータ) (2022-03-06T23:05:00Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。