論文の概要: The Reasons that Agents Act: Intention and Instrumental Goals
- arxiv url: http://arxiv.org/abs/2402.07221v1
- Date: Sun, 11 Feb 2024 14:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 16:57:06.795642
- Title: The Reasons that Agents Act: Intention and Instrumental Goals
- Title(参考訳): エージェントが行動する理由:意図と道具的目標
- Authors: Francis Rhys Ward and Matt MacDermott and Francesco Belardinelli and
Francesca Toni and Tom Everitt
- Abstract要約: AIエージェントに適用可能な、普遍的に受け入れられる意図の理論は存在しない。
我々は,エージェントが決定を下す理由に関して,エージェントが行動する意図を運用する。
我々の定義は、意図という直感的な概念を捉え、過去の作業によって設定されたデシダラタを満足させる。
- 参考スコア(独自算出の注目度): 24.607124467778036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intention is an important and challenging concept in AI. It is important
because it underlies many other concepts we care about, such as agency,
manipulation, legal responsibility, and blame. However, ascribing intent to AI
systems is contentious, and there is no universally accepted theory of
intention applicable to AI agents. We operationalise the intention with which
an agent acts, relating to the reasons it chooses its decision. We introduce a
formal definition of intention in structural causal influence models, grounded
in the philosophy literature on intent and applicable to real-world machine
learning systems. Through a number of examples and results, we show that our
definition captures the intuitive notion of intent and satisfies desiderata
set-out by past work. In addition, we show how our definition relates to past
concepts, including actual causality, and the notion of instrumental goals,
which is a core idea in the literature on safe AI agents. Finally, we
demonstrate how our definition can be used to infer the intentions of
reinforcement learning agents and language models from their behaviour.
- Abstract(参考訳): 意図はAIにおいて重要で挑戦的な概念である。
それは、エージェンシー、操作、法的責任、責任など、私たちが気にしている他の多くの概念の根底にあるため重要です。
しかし、AIシステムに対する意図の主張は論争的であり、AIエージェントに適用できる意図の普遍的な理論は存在しない。
我々は,エージェントが決定を下す理由に関して,エージェントが行動する意図を運用する。
本研究では,構造因果影響モデルにおける意図の形式的定義を導入し,意図に関する哲学文献に基礎を置き,実世界の機械学習システムに適用する。
多くの例と結果を通して、我々の定義は意図の直感的な概念を捉え、過去の作業によって設定されたデシダラタを満足させることを示す。
さらに、我々の定義が、実際の因果関係を含む過去の概念や、安全なaiエージェントに関する文献の核となる概念である道具的目標の概念とどのように関係しているかを示す。
最後に,強化学習エージェントと言語モデルの意図を行動から推測するために,我々の定義をどのように利用できるかを示す。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Honesty Is the Best Policy: Defining and Mitigating AI Deception [26.267047631872366]
我々は、エージェントが目標を達成するために騙される可能性のある問題に焦点を当てる。
本稿では,構造因果ゲームにおける偽造の形式的定義を紹介する。
実験により、これらの結果は、強化学習エージェントや言語モデルにおける騙しの軽減に有効であることが示された。
論文 参考訳(メタデータ) (2023-12-03T11:11:57Z) - Sensible AI: Re-imagining Interpretability and Explainability using
Sensemaking Theory [14.35488479818285]
Weickのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。
私たちは、Sensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用します。
論文 参考訳(メタデータ) (2022-05-10T17:20:44Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - Intensional Artificial Intelligence: From Symbol Emergence to
Explainable and Empathetic AI [0.0]
我々は、説明可能な人工知能は、その決定の根拠を持ち、観察された行動の目的を推測し、聴衆が理解し、意図する文脈でその決定を説明することができるべきであると論じる。
理性は自然言語を必要とし、知覚状態のコーディングとデコードを行う。
言語を習得するために、エージェントは言語自体ではなく、言語が記述する世界をモデル化すべきという意味論を提案します。
論文 参考訳(メタデータ) (2021-04-23T13:13:46Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - The Pragmatic Turn in Explainable Artificial Intelligence (XAI) [0.0]
私は、AIにおける説明可能なモデルと解釈可能な決定の探索は、AIにおける理解の実践的で自然主義的な説明を提供するというより広いプロジェクトの観点から、再編成されなければならないと論じます。
解釈モデルや近似モデルは、機械学習モデルの客観的理解に最適な方法を提供するだけでなく、ポストホックな解釈可能性を実現するために必要な条件でもあると結論付けます。
論文 参考訳(メタデータ) (2020-02-22T01:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。