論文の概要: Regularizing Reasons for Outfit Evaluation with Gradient Penalty
- arxiv url: http://arxiv.org/abs/2002.00460v1
- Date: Sun, 2 Feb 2020 18:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 20:15:32.248211
- Title: Regularizing Reasons for Outfit Evaluation with Gradient Penalty
- Title(参考訳): 勾配ペナルティによる服装評価の定式化
- Authors: Xingxing Zou, Zhizhong Li, Ke Bai, Dahua Lin, Waikeung Wong
- Abstract要約: 我々は,判断と説得力のある説明からなるフィードバックを提供する服装評価システムを構築した。
システムは、ドメインの知識を体系的に忠実に追従する教師ありの方法で訓練される。
- 参考スコア(独自算出の注目度): 73.40920780576887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we build an outfit evaluation system which provides feedbacks
consisting of a judgment with a convincing explanation. The system is trained
in a supervised manner which faithfully follows the domain knowledge in
fashion. We create the EVALUATION3 dataset which is annotated with judgment,
the decisive reason for the judgment, and all corresponding attributes (e.g.
print, silhouette, and material \etc.). In the training process, features of
all attributes in an outfit are first extracted and then concatenated as the
input for the intra-factor compatibility net. Then, the inter-factor
compatibility net is used to compute the loss for judgment. We penalize the
gradient of judgment loss of so that our Grad-CAM-like reason is regularized to
be consistent with the labeled reason. In inference, according to the obtained
information of judgment, reason, and attributes, a user-friendly explanation
sentence is generated by the pre-defined templates. The experimental results
show that the obtained network combines the advantages of high precision and
good interpretation.
- Abstract(参考訳): 本稿では,判断と説得力のある説明からなるフィードバックを提供する衣装評価システムを構築する。
システムは、ドメインの知識を忠実に追従する監督された方法で訓練される。
我々は、判断、判断の決定的理由、および対応する属性(例:print, silhouette, material \etc)を付加したアセスメント3データセットを作成する。
).
トレーニングプロセスでは、衣装内のすべての属性の特徴を最初に抽出し、その後、要素内互換性ネットの入力として結合する。
そして、要素間互換性ネットを用いて判定の損失を算出する。
我々は、グレード・CAMライクな理由がラベル付き理由と整合するように、判定損失の勾配を罰する。
推論では、得られた判断、理由、属性の情報に基づいて、予め定義されたテンプレートによってユーザフレンドリーな説明文を生成する。
実験の結果, 得られたネットワークは, 高精度かつ良好な解釈の利点を併せ持つことがわかった。
関連論文リスト
- Explainable Image Recognition via Enhanced Slot-attention Based Classifier [28.259040737540797]
本稿では,修正スロットアテンション機構に基づく視覚的に説明可能な分類器であるESCOUTERを紹介する。
ESCOUTERは、高い分類精度を提供するだけでなく、意思決定の背後にある理由についてより透明な洞察を提供することによって、自分自身を区別している。
ESCOUTER専用の新しい損失関数は、モデルの振舞いを微調整し、肯定的な説明と否定的な説明の切り替えを可能にするように設計されている。
論文 参考訳(メタデータ) (2024-07-08T05:05:43Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Human Feedback is not Gold Standard [28.63384327791185]
我々は、トレーニングと評価の両方において、人間のフィードバックの使用を批判的に分析する。
選好スコアはかなり良いカバレッジを持っているが、事実性のような重要な側面は低く表現されている。
論文 参考訳(メタデータ) (2023-09-28T11:18:20Z) - Sound Explanation for Trustworthy Machine Learning [11.779125616468194]
我々は、入力成分にスコアを割り当てることでブラックボックスモデルを解釈する実践に反対する。
次に,先行研究で非公式に採用された音声説明の概念を定式化する。
本稿では,がん予測モデルにおける特徴選択を音響的説明として応用し,臨床医間の信頼を育む。
論文 参考訳(メタデータ) (2023-06-08T19:58:30Z) - Zero-shot Faithful Factual Error Correction [53.121642212060536]
事実の誤りを忠実に訂正することは、テキストの知識基盤の整合性を維持し、シーケンス・ツー・シーケンス・モデルにおける幻覚を防ぐために重要である。
提案するゼロショットフレームワークは,入力クレームに関する質問を定式化し,与えられたエビデンスにおける正しい回答を求め,そのエビデンスとの整合性に基づいて各補正の忠実さを評価する。
論文 参考訳(メタデータ) (2023-05-13T18:55:20Z) - Reckoning with the Disagreement Problem: Explanation Consensus as a
Training Objective [5.949779668853556]
ポストホック特徴属性(Post hoc feature attribution)は、入力中の各特徴にモデル出力への影響に対応するスコアを与える一連の方法である。
この種類の説明者の大きな制限は、どの特徴が他のものよりも重要であるかについて意見が一致しないことである。
本稿では,2つの説明者間の特徴属性の差を計測する,精度に対応する標準的な用語とともに,損失項を導入する。
3つのデータセットから、この損失項を用いてモデルをトレーニングし、未知のデータに関する説明コンセンサスを改善するとともに、損失項で使用されるもの以外の説明コンセンサスの改善したコンセンサスを確認する。
論文 参考訳(メタデータ) (2023-03-23T14:35:37Z) - SIFN: A Sentiment-aware Interactive Fusion Network for Review-based Item
Recommendation [48.1799451277808]
本稿では、レビューに基づく項目推薦のための感性認識型インタラクティブフュージョンネットワーク(SIFN)を提案する。
まず、BERTを介してユーザ/イテムレビューをエンコードし、各レビューのセマンティックな特徴を抽出する軽量な感情学習者を提案する。
そこで我々は,感情学習者が明示的な感情ラベルを用いて感情認識特徴を抽出するための感情予測タスクを提案する。
論文 参考訳(メタデータ) (2021-08-18T08:04:38Z) - Contrastive Reasoning in Neural Networks [26.65337569468343]
因果クラス依存性を識別する機能に基づいて構築された推論は、フィードフォワード推論と呼ばれる。
本稿では,コントラスト推論の構造を形式化し,ニューラルネットワークのコントラスト概念を抽出する手法を提案する。
平均精度の3.47%、2.56%、5.48%の改善を報告することにより、歪み下での対比認識の価値を実証する。
論文 参考訳(メタデータ) (2021-03-23T05:54:36Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。