論文の概要: Responsibility in Extensive Form Games
- arxiv url: http://arxiv.org/abs/2312.07637v1
- Date: Tue, 12 Dec 2023 10:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 17:45:36.857265
- Title: Responsibility in Extensive Form Games
- Title(参考訳): 広範なフォームゲームにおける責任
- Authors: Qi Shi
- Abstract要約: 2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
- 参考スコア(独自算出の注目度): 1.4104545468525629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two different forms of responsibility, counterfactual and seeing-to-it, have
been extensively discussed in the philosophy and AI in the context of a single
agent or multiple agents acting simultaneously. Although the generalisation of
counterfactual responsibility to a setting where multiple agents act in some
order is relatively straightforward, the same cannot be said about seeing-to-it
responsibility. Two versions of seeing-to-it modality applicable to such
settings have been proposed in the literature. Neither of them perfectly
captures the intuition of responsibility. This paper proposes a definition of
seeing-to-it responsibility for such settings that amalgamate the two
modalities.
This paper shows that the newly proposed notion of responsibility and
counterfactual responsibility are not definable through each other and studies
the responsibility gap for these two forms of responsibility. It shows that
although these two forms of responsibility are not enough to ascribe
responsibility in each possible situation, this gap does not exist if
higher-order responsibility is taken into account.
- Abstract(参考訳): counterfactual と see-to-it の2つの異なる責任形態は、一つのエージェントまたは複数のエージェントが同時に行動するという文脈で哲学とaiにおいて広く議論されてきた。
複数のエージェントが何らかの順序で行動する状況に対する反実的責任の一般化は比較的単純であるが、対人的責任についても同じことは言えない。
このような設定に適用可能な対itモダリティの2つのバージョンが文献で提案されている。
どちらも責任感を完全に捉えていない。
本稿では,この2つのモダリティを満たすような設定において,it の可視的責任の定義を提案する。
本稿では,新たに提案された責任概念と反事実的責任概念を相互に定義できないことを示し,これら2つの責任形態の責任ギャップを考察する。
この2つの責任形態は、考えられる各状況において責任を負うのに十分なものではないが、上位責任を考慮すれば、このギャップは存在しない。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unravelling Responsibility for AI [4.651940161506203]
本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Dual Semantic Knowledge Composed Multimodal Dialog Systems [114.52730430047589]
本稿では,MDS-S2という新しいマルチモーダルタスク指向対話システムを提案する。
コンテキスト関連属性と関係知識を知識ベースから取得する。
また、合成された応答表現から意味情報を抽出するために、潜在クエリ変数のセットを考案する。
論文 参考訳(メタデータ) (2023-05-17T06:33:26Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Actual Causality and Responsibility Attribution in Decentralized
Partially Observable Markov Decision Processes [22.408657774650358]
我々はこれらの概念を、不確実性の下でのマルチエージェントシーケンシャルな意思決定のための広く使われている枠組みの下で研究する。
実際の因果関係は特定の結果に焦点を当て、関心の成果を実現する上で重要な決定(行動)を識別することを目的としている。
責任帰属(Responsibility attribution)は相補的であり、意思決定者(エージェント)がこの結果にどの程度の責任を持つかを特定することを目的としている。
論文 参考訳(メタデータ) (2022-04-01T09:22:58Z) - Consent as a Foundation for Responsible Autonomy [15.45515784064555]
本稿は、自律責任の動的な側面、すなわち、インテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
エージェントによる意思決定が、他のエージェントが認識する結果に影響を及ぼすような設定を検討する。
論文 参考訳(メタデータ) (2022-03-22T02:25:27Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Responsibility Management through Responsibility Networks [3.1291878216258064]
責任管理のためのインターネット・オブ・レスポンシビリティ(IoR)をデプロイする。
IoRフレームワークの構築を通じて、階層的な責任管理、あらゆるレベルでの自動責任評価、効率的な責任認識が達成されます。
論文 参考訳(メタデータ) (2021-02-14T21:06:33Z) - Degrees of individual and groupwise backward and forward responsibility
in extensive-form games with ambiguity, and their application to social
choice problems [0.0]
確率単位の責任度を評価するために,様々な量的責任度尺度を提示する。
広義のゲームツリーの適応版と公理的アプローチに基づくフレームワークを使用する。
ほとんどの特性は、そのような責任計量を望んでも、ある変種によって達成できるが、他の指標より明らかに優れている最適な計量は見つからない。
論文 参考訳(メタデータ) (2020-07-09T13:19:13Z) - On the Relationship Between Active Inference and Control as Inference [62.997667081978825]
アクティブ推論(英: Active Inference、AIF)は、生物学的エージェントがモデルエビデンスに束縛された変動を最小限に抑えることを示唆する脳科学の新たな枠組みである。
制御・アズ・推論(英: Control-as-Inference, CAI)は、意思決定を変分推論問題とみなす強化学習の枠組みである。
論文 参考訳(メタデータ) (2020-06-23T13:03:58Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。