論文の概要: Toward A Causal Framework for Modeling Perception
- arxiv url: http://arxiv.org/abs/2401.13408v3
- Date: Tue, 22 Jul 2025 15:40:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.713456
- Title: Toward A Causal Framework for Modeling Perception
- Title(参考訳): 知覚のモデル化のための因果的枠組みを目指して
- Authors: Jose M. Alvarez, Salvatore Ruggieri,
- Abstract要約: 機械学習(ML)における認識
本稿では,知覚を因果的にモデル化するための最初のアプローチを提案する。
我々は2種類の確率因果知覚(構造知覚とパラメトリック知覚)を定義した。
- 参考スコア(独自算出の注目度): 22.596961524387233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception occurs when individuals interpret the same information differently. It is a known cognitive phenomenon with implications for bias in human decision-making. Perception, however, remains understudied in machine learning (ML). This is problematic as modern decision flows, whether partially or fully automated by ML applications, always involve human experts. How might we account for cases in which two experts, e.g., interpret differently the same deferred instance or explanation from a ML model? Addressing this and similar questions requires a formulation of perception, particularly, in a manner that integrates with ML-enabled decision flows. In this work, we present a first approach to modeling perception causally. We define perception under causal reasoning using structural causal models (SCM). Our approach formalizes individual experience as additional causal knowledge that comes with and is used by the expert decision-maker in the form of a SCM. We define two kinds of probabilistic causal perception: structural perception and parametrical perception. We showcase our framework through a series of examples of modern decision flows. We also emphasize the importance of addressing perception in fair ML, discussing relevant fairness implications and possible applications.
- Abstract(参考訳): 知覚は、個人が同じ情報を異なる方法で解釈する際に起こる。
これは認知現象として知られており、人間の意思決定における偏見を示唆している。
しかし、認識は依然として機械学習(ML)で研究されている。
MLアプリケーションによって部分的に自動化されるか、完全に自動化されるかは、常に人間の専門家が関与する。
2人の専門家(例えば、MLモデルと同一の遅延インスタンスや説明を別々に解釈するケースをどう説明すればいいでしょうか?
これと同じような質問に対処するには、特にML対応の意思決定フローと統合された方法で、知覚の定式化が必要である。
本研究では,知覚を因果的にモデル化するための最初のアプローチを提案する。
構造因果モデル(SCM)を用いて因果推論に基づく知覚を定義する。
我々のアプローチは、個々の経験を、専門家の意思決定者がSCMの形で用いた、追加の因果的知識として形式化します。
我々は2種類の確率因果知覚(構造知覚とパラメトリック知覚)を定義した。
現代の意思決定フローの一連の例を通して、私たちのフレームワークを紹介します。
また、公正なMLにおける認識に対処することの重要性を強調し、関連する公平さと応用の可能性について議論する。
関連論文リスト
- Do Large Language Models Show Biases in Causal Learning? [3.0264418764647605]
因果学習は、利用可能な情報に基づいて因果推論を行う能力を開発するための認知過程である。
本研究では,大言語モデル(LLM)が因果錯覚を発生させるかどうかを考察する。
論文 参考訳(メタデータ) (2024-12-13T19:03:48Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - PHAnToM: Persona-based Prompting Has An Effect on Theory-of-Mind Reasoning in Large Language Models [25.657579792829743]
我々は,ロールプレイングの促進が理論・オブ・ミンド(ToM)推論能力にどのように影響するかを実証的に評価した。
本稿では、推論タスクの複雑さの固有のばらつきを超えて、社会的に動機づけられた相違が原因で、パフォーマンスの違いが発生するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-03-04T17:34:34Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - On Interpretability and Similarity in Concept-Based Machine Learning [2.3986080077861787]
本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
論文 参考訳(メタデータ) (2021-02-25T07:57:28Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Causal Interpretability for Machine Learning -- Problems, Methods and
Evaluation [30.664546254344593]
ほとんどの機械学習モデルはブラックボックスであり、それらがどのように決定されるかは明確ではない。
これらのモデルの意思決定プロセスに関する洞察を提供するため、様々な従来の解釈可能なモデルが提案されている。
この研究では、因果的疑問に答えようとするモデルを因果的解釈可能なモデルと呼ぶ。
論文 参考訳(メタデータ) (2020-03-09T06:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。