論文の概要: Causal Perception
- arxiv url: http://arxiv.org/abs/2401.13408v2
- Date: Wed, 22 May 2024 14:04:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-05-25 11:26:41.739108
- Title: Causal Perception
- Title(参考訳): 因果知覚
- Authors: Jose M. Alvarez, Salvatore Ruggieri,
- Abstract要約: 知覚は、2人の個人が同じ情報を異なる方法で解釈する際に起こる。
意思決定においてバイアスを伴う既知の現象であるにもかかわらず、認識は機械学習(ML)研究においてほとんど見過ごされ続けている。
- 参考スコア(独自算出の注目度): 22.596961524387233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception occurs when two individuals interpret the same information differently. Despite being a known phenomenon with implications for bias in decision-making, as individual experience determines interpretation, perception remains largely overlooked in machine learning (ML) research. Modern decision flows, whether partially or fully automated, involve human experts interacting with ML applications. How might we then, e.g., account for two experts that interpret differently a deferred instance or an explanation from a ML model? To account for perception, we first need to formulate it. In this work, we define perception under causal reasoning using structural causal models (SCM). Our framework formalizes individual experience as additional causal knowledge that comes with and is used by a human expert (read, decision maker). We present two kinds of causal perception, unfaithful and inconsistent, based on the SCM properties of faithfulness and consistency. Further, we motivate the importance of perception within fairness problems. We illustrate our framework through a series of decision flow examples involving ML applications and human experts.
- Abstract(参考訳): 知覚は、2人の個人が同じ情報を異なる方法で解釈する際に起こる。
個々の経験が解釈を決定するにつれ、意思決定にバイアスが伴う既知の現象であるにもかかわらず、認識は機械学習(ML)研究においてほとんど見過ごされ続けている。
部分的に、あるいは完全に自動化された、現代の意思決定フローには、MLアプリケーションと対話する人間の専門家が関与する。
例えば、遅延インスタンスやMLモデルからの説明が異なる解釈をする2人の専門家について、どのように説明すればいいでしょうか?
知覚を説明するには、まずそれを定式化する必要があります。
本研究では,構造因果モデル(SCM)を用いて因果推論に基づく知覚を定義する。
我々のフレームワークは、個人の経験を人間の専門家(リーダー、意思決定者)によってもたらされる因果的知識として定式化します。
本研究では, 信頼度と一貫性のSCM特性に基づいて, 不信感と矛盾感の2種類の因果知覚を示す。
さらに、公平性問題における認識の重要性を動機づける。
我々は、MLアプリケーションと人間のエキスパートを含む一連の意思決定フローの例を通して、私たちのフレームワークを説明します。
関連論文リスト
- Do Large Language Models Show Biases in Causal Learning? [3.0264418764647605]
因果学習は、利用可能な情報に基づいて因果推論を行う能力を開発するための認知過程である。
本研究では,大言語モデル(LLM)が因果錯覚を発生させるかどうかを考察する。
論文 参考訳(メタデータ) (2024-12-13T19:03:48Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - PHAnToM: Persona-based Prompting Has An Effect on Theory-of-Mind Reasoning in Large Language Models [25.657579792829743]
我々は,ロールプレイングの促進が理論・オブ・ミンド(ToM)推論能力にどのように影響するかを実証的に評価した。
本稿では、推論タスクの複雑さの固有のばらつきを超えて、社会的に動機づけられた相違が原因で、パフォーマンスの違いが発生するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-03-04T17:34:34Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - On Interpretability and Similarity in Concept-Based Machine Learning [2.3986080077861787]
本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
論文 参考訳(メタデータ) (2021-02-25T07:57:28Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Causal Interpretability for Machine Learning -- Problems, Methods and
Evaluation [30.664546254344593]
ほとんどの機械学習モデルはブラックボックスであり、それらがどのように決定されるかは明確ではない。
これらのモデルの意思決定プロセスに関する洞察を提供するため、様々な従来の解釈可能なモデルが提案されている。
この研究では、因果的疑問に答えようとするモデルを因果的解釈可能なモデルと呼ぶ。
論文 参考訳(メタデータ) (2020-03-09T06:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。