論文の概要: Causal Perception
- arxiv url: http://arxiv.org/abs/2401.13408v1
- Date: Wed, 24 Jan 2024 12:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 14:57:21.830366
- Title: Causal Perception
- Title(参考訳): 因果知覚
- Authors: Jose M. Alvarez and Salvatore Ruggieri
- Abstract要約: 知覚は、2人の個人が同じ情報を異なる方法で解釈する際に起こる。
我々は、因果推論の下で知覚を形式化し、個人による解釈の行為を捉える。
我々は、信頼と一貫性の因果特性に基づいて、不誠実かつ矛盾した因果知覚を2種類定義する。
- 参考スコア(独自算出の注目度): 26.695316585522527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception occurs when two individuals interpret the same information
differently. Despite being a known phenomenon with implications for bias in
decision-making, as individuals' experience determines interpretation,
perception remains largely overlooked in automated decision-making (ADM)
systems. In particular, it can have considerable effects on the fairness or
fair usage of an ADM system, as fairness itself is context-specific and its
interpretation dependent on who is judging. In this work, we formalize
perception under causal reasoning to capture the act of interpretation by an
individual. We also formalize individual experience as additional causal
knowledge that comes with and is used by an individual. Further, we define and
discuss loaded attributes, which are attributes prone to evoke perception.
Sensitive attributes, such as gender and race, are clear examples of loaded
attributes. We define two kinds of causal perception, unfaithful and
inconsistent, based on the causal properties of faithfulness and consistency.
We illustrate our framework through a series of decision-making examples and
discuss relevant fairness applications. The goal of this work is to position
perception as a parameter of interest, useful for extending the standard,
single interpretation ADM problem formulation.
- Abstract(参考訳): 知覚は、2人が同じ情報を異なる方法で解釈する際に起こる。
個人の経験が解釈を決定するにつれ、意思決定のバイアスが生じる既知の現象であるにもかかわらず、自動意思決定(ADM)システムでは認識はほとんど見過ごされ続けている。
特に、フェアネス自体が文脈に特有であり、その解釈は誰が判断しているかに依存するため、admシステムのフェアネスまたはフェアユースにかなりの影響を与える可能性がある。
本研究では,因果推論に基づく認識を定式化し,個人による解釈行為を捉える。
また、個々の経験を、個人がもたらし、使用する追加の因果知識として定式化します。
さらに,認識を誘発する属性であるロード属性を定義し,議論する。
性別や人種などの敏感な属性は、ロードされた属性の明確な例である。
我々は、信頼と一貫性の因果特性に基づいて、不誠実かつ矛盾した因果知覚を2種類定義する。
我々は、一連の意思決定例を通してフレームワークを説明し、関連する公平性の適用について論じる。
この研究の目的は、認識を関心のパラメータとして位置づけ、標準の単一解釈 ADM 問題定式化の拡張に役立てることである。
関連論文リスト
- Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - PHAnToM: Persona-based Prompting Has An Effect on Theory-of-Mind Reasoning in Large Language Models [25.657579792829743]
我々は,ロールプレイングの促進が理論・オブ・ミンド(ToM)推論能力にどのように影響するかを実証的に評価した。
本稿では、推論タスクの複雑さの固有のばらつきを超えて、社会的に動機づけられた相違が原因で、パフォーマンスの違いが発生するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-03-04T17:34:34Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。