論文の概要: Consent as a Foundation for Responsible Autonomy
- arxiv url: http://arxiv.org/abs/2203.11420v1
- Date: Tue, 22 Mar 2022 02:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 14:47:13.146327
- Title: Consent as a Foundation for Responsible Autonomy
- Title(参考訳): 責任ある自律性の基盤としての同意
- Authors: Munindar P. Singh
- Abstract要約: 本稿は、自律責任の動的な側面、すなわち、インテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
エージェントによる意思決定が、他のエージェントが認識する結果に影響を及ぼすような設定を検討する。
- 参考スコア(独自算出の注目度): 15.45515784064555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on a dynamic aspect of responsible autonomy, namely, to
make intelligent agents be responsible at run time. That is, it considers
settings where decision making by agents impinges upon the outcomes perceived
by other agents. For an agent to act responsibly, it must accommodate the
desires and other attitudes of its users and, through other agents, of their
users.
The contribution of this paper is twofold. First, it provides a conceptual
analysis of consent, its benefits and misuses, and how understanding consent
can help achieve responsible autonomy. Second, it outlines challenges for AI
(in particular, for agents and multiagent systems) that merit investigation to
form as a basis for modeling consent in multiagent systems and applying consent
to achieve responsible autonomy.
- Abstract(参考訳): 本稿では,自律責任の動的側面,すなわちインテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
すなわち、エージェントによる意思決定が他のエージェントが知覚する結果に影響を及ぼすような設定を考える。
エージェントが責任を持って行動するためには、そのユーザの欲求やその他の態度、および他のエージェントを通じて、そのユーザの欲求を満たさなければならない。
この論文の貢献は2つある。
まず、同意の概念的な分析、その利益と誤用、そして同意の理解が責任ある自主性を達成するのにどのように役立つかを提供する。
第2に、AI(特にエージェントとマルチエージェントシステム)が、マルチエージェントシステムにおける同意をモデル化し、責任ある自律性を達成するために同意を適用するための基盤として、調査に貢献する課題を概説する。
関連論文リスト
- Agency Is Frame-Dependent [94.91580596320331]
エージェンシーは、目標に向かって成果を操縦するシステムの能力である。
私たちは、エージェンシーは基本的にフレーム依存であると主張している。
我々はあらゆる基礎科学がフレーム依存を必要とすると結論付けている。
論文 参考訳(メタデータ) (2025-02-06T08:34:57Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Delegating Responsibilities to Intelligent Autonomous Systems: Challenges and Benefits [1.7205106391379026]
AIシステムは自律性と適応性で機能するので、技術的社会システムにおける伝統的な道徳的責任の境界が課題となっている。
本稿では,知的自律エージェントへの責任委譲に関する議論の進展と,そのような実践の倫理的意味について考察する。
論文 参考訳(メタデータ) (2024-11-06T18:40:38Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Hiding Behind Machines: When Blame Is Shifted to Artificial Agents [0.0]
この記事は、我々の代理として決定するエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合に、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを検討する。
論文 参考訳(メタデータ) (2021-01-27T14:50:02Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。