論文の概要: Textual Explanations and Critiques in Recommendation Systems
- arxiv url: http://arxiv.org/abs/2205.07268v1
- Date: Sun, 15 May 2022 11:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 15:09:10.004944
- Title: Textual Explanations and Critiques in Recommendation Systems
- Title(参考訳): 推薦システムにおけるテキスト説明と批判
- Authors: Diego Antognini
- Abstract要約: 論文は、このニーズに対処する2つの根本的な課題に焦点を当てています。
1つ目は、スケーラブルでデータ駆動的な説明生成である。
第2の課題は、説明を実行可能なものにすることだ。
- 参考スコア(独自算出の注目度): 8.406549970145846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence and machine learning algorithms have become
ubiquitous. Although they offer a wide range of benefits, their adoption in
decision-critical fields is limited by their lack of interpretability,
particularly with textual data. Moreover, with more data available than ever
before, it has become increasingly important to explain automated predictions.
Generally, users find it difficult to understand the underlying computational
processes and interact with the models, especially when the models fail to
generate the outcomes or explanations, or both, correctly. This problem
highlights the growing need for users to better understand the models' inner
workings and gain control over their actions. This dissertation focuses on two
fundamental challenges of addressing this need. The first involves explanation
generation: inferring high-quality explanations from text documents in a
scalable and data-driven manner. The second challenge consists in making
explanations actionable, and we refer to it as critiquing. This dissertation
examines two important applications in natural language processing and
recommendation tasks.
Overall, we demonstrate that interpretability does not come at the cost of
reduced performance in two consequential applications. Our framework is
applicable to other fields as well. This dissertation presents an effective
means of closing the gap between promise and practice in artificial
intelligence.
- Abstract(参考訳): 人工知能と機械学習アルゴリズムはユビキタスになりつつある。
それらは幅広い利点を提供しているが、決定クリティカルな分野への採用は、解釈可能性の欠如、特にテキストデータによって制限されている。
さらに、これまで以上に多くのデータが利用可能になっているため、自動予測を説明することがますます重要になっている。
一般的に、ユーザは基礎となる計算プロセスを理解し、特にモデルが結果や説明を正しく生成できなかった場合、あるいはその両方を正しく処理することが難しいと感じる。
この問題は、ユーザがモデルの内部動作をよりよく理解し、アクションをコントロールする必要性が高まっていることを強調します。
この論文は、このニーズに対処する2つの基本的な課題に焦点を当てている。
テキスト文書から高品質な説明をスケーラブルでデータ駆動の方法で推論する。
第2の課題は、説明を実行可能なものにすることだ。
この論文は自然言語処理とレコメンデーションタスクにおける2つの重要な応用を考察している。
全体としては、2つの逐次的アプリケーションの性能低下のコストで解釈可能性が得られないことが示される。
当社のフレームワークは他の分野にも適用可能です。
この論文は、人工知能における約束と実践のギャップを埋める効果的な手段である。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Data Science Principles for Interpretable and Explainable AI [0.7581664835990121]
解釈可能でインタラクティブな機械学習は、複雑なモデルをより透明で制御しやすいものにすることを目的としている。
本論は, この分野における文献の発達から重要な原則を合成するものである。
論文 参考訳(メタデータ) (2024-05-17T05:32:27Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - REX: Reasoning-aware and Grounded Explanation [30.392986232906107]
我々は,画像中の推論プロセスとグラウンド化キーワードをトラバースすることで,意思決定を説明する,新しいタイプのマルチモーダルな説明を開発する。
第2に、意思決定を説明するために、視覚的およびテキスト的モダリティに重要なコンポーネントを密に結合する必要があることを特定する。
第3に、単語と興味のある領域のペアワイズ対応を明示的にモデル化する、新しい説明生成手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T17:28:42Z) - Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in
Dialogue Generation [33.806361531386685]
1)マスキングされた単語を解釈し,その文脈からマスキングされたエンティティの意味を推測する,2)コンテキストに基づいてエンティティのハイパーネムを予測する,ハイパーネム生成という2つの補助的訓練目標を導入する。
2つの対話コーパスの実験結果から,本手法の有効性を,利用可能な知識と利用できない設定の両方で検証した。
論文 参考訳(メタデータ) (2021-09-12T11:13:19Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。