論文の概要: Explaining with Attribute-based and Relational Near Misses: An
Interpretable Approach to Distinguishing Facial Expressions of Pain and
Disgust
- arxiv url: http://arxiv.org/abs/2308.14163v1
- Date: Sun, 27 Aug 2023 17:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:22:54.770535
- Title: Explaining with Attribute-based and Relational Near Misses: An
Interpretable Approach to Distinguishing Facial Expressions of Pain and
Disgust
- Title(参考訳): 属性と関係性に基づくミス近くの説明--痛みと嫌悪感の表情を区別する解釈可能なアプローチ
- Authors: Bettina Finzel and Simon P. Kuhn and David E. Tafler and Ute Schmid
- Abstract要約: 本稿では, 痛みや嫌悪感の表情をビデオシーケンスで説明するために, 対照的な説明を生成するアプローチを提案する。
コントラストのインスタンスとして、近いミスと遠いミスを決定するために、2つの異なる類似度メトリクスを使用します。
評価の結果, 痛みと嫌悪感は時間的関係の助けを借りて区別できることが示唆された。
- 参考スコア(独自算出の注目度): 1.9897061813159418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining concepts by contrasting examples is an efficient and convenient
way of giving insights into the reasons behind a classification decision. This
is of particular interest in decision-critical domains, such as medical
diagnostics. One particular challenging use case is to distinguish facial
expressions of pain and other states, such as disgust, due to high similarity
of manifestation. In this paper, we present an approach for generating
contrastive explanations to explain facial expressions of pain and disgust
shown in video sequences. We implement and compare two approaches for
contrastive explanation generation. The first approach explains a specific pain
instance in contrast to the most similar disgust instance(s) based on the
occurrence of facial expressions (attributes). The second approach takes into
account which temporal relations hold between intervals of facial expressions
within a sequence (relations). The input to our explanation generation approach
is the output of an interpretable rule-based classifier for pain and disgust.We
utilize two different similarity metrics to determine near misses and far
misses as contrasting instances. Our results show that near miss explanations
are shorter than far miss explanations, independent from the applied similarity
metric. The outcome of our evaluation indicates that pain and disgust can be
distinguished with the help of temporal relations. We currently plan
experiments to evaluate how the explanations help in teaching concepts and how
they could be enhanced by further modalities and interaction.
- Abstract(参考訳): 例を対比して概念を説明することは、分類決定の背景にある理由を理解するための効率的で便利な方法である。
これは特に医学診断のような決定クリティカルな領域に関心がある。
特に難しいユースケースは、症状の類似度が高いため、痛みやその他の状態(例えば嫌悪感)の表情を区別することである。
本稿では, 痛みと嫌悪感の表情をビデオシーケンスで説明するために, 対照的な説明を生成するアプローチを提案する。
対照的説明生成のための2つのアプローチを実装し,比較する。
第1のアプローチは、表情(属性)の発生に基づいて、最も類似した嫌悪例とは対照的に、特定の痛みの例を説明する。
第2のアプローチは、シーケンス(関係)内の表情の間隔の間の時間的関係を考慮に入れる。
説明生成手法の入力は、痛みと嫌悪に対する解釈可能なルールベースの分類器の出力であり、2つの異なる類似度指標を用いて、近距離ミスと遠距離ミスをコントラストインスタンスとして決定する。
以上の結果から,適用された類似度指標とは無関係に,近ミス説明は遠ミス説明よりも短いことが明らかとなった。
評価の結果,痛みと嫌悪感は時間的関係の助けを借りて区別できることが示唆された。
我々は現在,その説明が概念を教える上でどのように役立つか,さらに様相や相互作用によってどのように強化されるかを評価する実験を計画している。
関連論文リスト
- Conjuring Semantic Similarity [59.18714889874088]
2つのテキスト表現間の意味的類似性は、潜伏者の「意味」の間の距離を測定する
テキスト表現間の意味的類似性は、他の表現を言い換えるのではなく、それらが引き起こすイメージに基づいている、という新しいアプローチを提案する。
提案手法は,人間の注釈付きスコアに適合するだけでなく,テキスト条件付き生成モデル評価のための新たな道を開く意味的類似性に関する新たな視点を提供する。
論文 参考訳(メタデータ) (2024-10-21T18:51:34Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Towards Non-Adversarial Algorithmic Recourse [20.819764720587646]
反実的な説明とは対照的に、敵対的な例は、それらが根底的な真実よりも誤分類につながるという独特の特徴を持っていると論じられている。
本稿では,非対人的アルゴリズムの議論を紹介するとともに,高い状況下では,対人的特徴を示さない対実的説明を得ることが不可欠である理由を概説する。
論文 参考訳(メタデータ) (2024-03-15T14:18:21Z) - This changes to that : Combining causal and non-causal explanations to
generate disease progression in capsule endoscopy [5.287156503763459]
本稿では,モデル依存型と非依存型の両方を組み合わせて説明セットを生成する統一的説明手法を提案する。
生成された説明はサンプルの近傍で一貫性があり、画像の内容と結果の因果関係を明らかにすることができる。
論文 参考訳(メタデータ) (2022-12-05T12:46:19Z) - Understanding the Unforeseen via the Intentional Stance [0.0]
本稿では,観察対象者の新しい行動を理解するためのアーキテクチャとシステムについて述べる。
このアプローチの2つの主な特徴は、デネットの意図的な姿勢と類推的推論の採用である。
論文 参考訳(メタデータ) (2022-11-01T14:14:14Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。