論文の概要: Responsibility in Extensive Form Games
- arxiv url: http://arxiv.org/abs/2312.07637v1
- Date: Tue, 12 Dec 2023 10:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 17:45:36.857265
- Title: Responsibility in Extensive Form Games
- Title(参考訳): 広範なフォームゲームにおける責任
- Authors: Qi Shi
- Abstract要約: 2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
- 参考スコア(独自算出の注目度): 1.4104545468525629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two different forms of responsibility, counterfactual and seeing-to-it, have
been extensively discussed in the philosophy and AI in the context of a single
agent or multiple agents acting simultaneously. Although the generalisation of
counterfactual responsibility to a setting where multiple agents act in some
order is relatively straightforward, the same cannot be said about seeing-to-it
responsibility. Two versions of seeing-to-it modality applicable to such
settings have been proposed in the literature. Neither of them perfectly
captures the intuition of responsibility. This paper proposes a definition of
seeing-to-it responsibility for such settings that amalgamate the two
modalities.
This paper shows that the newly proposed notion of responsibility and
counterfactual responsibility are not definable through each other and studies
the responsibility gap for these two forms of responsibility. It shows that
although these two forms of responsibility are not enough to ascribe
responsibility in each possible situation, this gap does not exist if
higher-order responsibility is taken into account.
- Abstract(参考訳): counterfactual と see-to-it の2つの異なる責任形態は、一つのエージェントまたは複数のエージェントが同時に行動するという文脈で哲学とaiにおいて広く議論されてきた。
複数のエージェントが何らかの順序で行動する状況に対する反実的責任の一般化は比較的単純であるが、対人的責任についても同じことは言えない。
このような設定に適用可能な対itモダリティの2つのバージョンが文献で提案されている。
どちらも責任感を完全に捉えていない。
本稿では,この2つのモダリティを満たすような設定において,it の可視的責任の定義を提案する。
本稿では,新たに提案された責任概念と反事実的責任概念を相互に定義できないことを示し,これら2つの責任形態の責任ギャップを考察する。
この2つの責任形態は、考えられる各状況において責任を負うのに十分なものではないが、上位責任を考慮すれば、このギャップは存在しない。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Measuring Responsibility in Multi-Agent Systems [1.5883812630616518]
マルチエージェントプランニングにおける責任の定量的尺度のファミリーを紹介する。
行動と責任の確率を3つの指標でリンクすることで、特定の結果のエージェントに責任を割り当てます。
エントロピーに基づく責任測定は、時間の経過とともに結果の因果責任特性を捉えた最初のものである。
論文 参考訳(メタデータ) (2024-10-31T18:45:34Z) - Responsibility in a Multi-Value Strategic Setting [12.143925288392166]
責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
マルチエージェント・マルチバリュー設定における責任帰属モデルを提案する。
責任の考慮は、エージェントがその価値に沿った戦略を選択するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-10-22T17:51:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Dual Semantic Knowledge Composed Multimodal Dialog Systems [114.52730430047589]
本稿では,MDS-S2という新しいマルチモーダルタスク指向対話システムを提案する。
コンテキスト関連属性と関係知識を知識ベースから取得する。
また、合成された応答表現から意味情報を抽出するために、潜在クエリ変数のセットを考案する。
論文 参考訳(メタデータ) (2023-05-17T06:33:26Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Consent as a Foundation for Responsible Autonomy [15.45515784064555]
本稿は、自律責任の動的な側面、すなわち、インテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
エージェントによる意思決定が、他のエージェントが認識する結果に影響を及ぼすような設定を検討する。
論文 参考訳(メタデータ) (2022-03-22T02:25:27Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Degrees of individual and groupwise backward and forward responsibility
in extensive-form games with ambiguity, and their application to social
choice problems [0.0]
確率単位の責任度を評価するために,様々な量的責任度尺度を提示する。
広義のゲームツリーの適応版と公理的アプローチに基づくフレームワークを使用する。
ほとんどの特性は、そのような責任計量を望んでも、ある変種によって達成できるが、他の指標より明らかに優れている最適な計量は見つからない。
論文 参考訳(メタデータ) (2020-07-09T13:19:13Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。