論文の概要: ir_explain: a Python Library of Explainable IR Methods
- arxiv url: http://arxiv.org/abs/2404.18546v1
- Date: Mon, 29 Apr 2024 09:37:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 01:28:17.031197
- Title: ir_explain: a Python Library of Explainable IR Methods
- Title(参考訳): ir_explain: 説明可能なIRメソッドのPythonライブラリ
- Authors: Sourav Saha, Harsh Agarwal, Swastik Mohanty, Mandar Mitra, Debapriyo Majumdar,
- Abstract要約: irexplainは、共通のフレームワーク内でExplainable IR(ExIR)の様々なテクニックを実装するPythonライブラリである。
irexplainは、ポストホックな説明の標準的な3つのカテゴリ、すなわちポイントワイド、ペアワイド、リストワイドの説明をサポートします。
このライブラリは、標準的なテストコレクションで最先端のExIRベースラインを簡単に再現できるように設計されている。
- 参考スコア(独自算出の注目度): 2.6746131626710725
- License:
- Abstract: While recent advancements in Neural Ranking Models have resulted in significant improvements over traditional statistical retrieval models, it is generally acknowledged that the use of large neural architectures and the application of complex language models in Information Retrieval (IR) have reduced the transparency of retrieval methods. Consequently, Explainability and Interpretability have emerged as important research topics in IR. Several axiomatic and post-hoc explanation methods, as well as approaches that attempt to be interpretable-by-design, have been proposed. This article presents \irexplain, an open-source Python library that implements a variety of well-known techniques for Explainable IR (ExIR) within a common, extensible framework. \irexplain supports the three standard categories of post-hoc explanations, namely pointwise, pairwise, and listwise explanations. The library is designed to make it easy to reproduce state-of-the-art ExIR baselines on standard test collections, as well as to explore new approaches to explaining IR models and methods. To facilitate adoption, \irexplain is well-integrated with widely-used toolkits such as Pyserini and \irdatasets.
- Abstract(参考訳): 近年のニューラルランク付けモデルの進歩は、従来の統計検索モデルよりも大幅に改善されているが、大規模なニューラルアーキテクチャの使用と、情報検索(IR)における複雑な言語モデルの適用により、検索方法の透明性が低下していることが一般に認識されている。
その結果、IRにおける重要な研究トピックとして説明可能性と解釈可能性が現れている。
いくつかの公理的・ポストホック的説明法や、解釈可能な設計法が提案されている。
この記事では、オープンソースのPythonライブラリであるShairExplainを紹介します。これは、共通の拡張可能なフレームワーク内で、Explainable IR(ExIR)の様々なよく知られたテクニックを実装します。
\irexplainは、ポストホックな説明の標準的な3つのカテゴリ、すなわちポイントワイド、ペアワイド、リストワイドの説明をサポートします。
このライブラリは、標準的なテストコレクションにおける最先端のExIRベースラインの再現を容易にするとともに、IRモデルとメソッドを説明するための新しいアプローチを探求するように設計されている。
採用を容易にするため、 \irexplain は Pyserini や \irdatasets といった広く使われているツールキットとよく統合されている。
関連論文リスト
- Lightning IR: Straightforward Fine-tuning and Inference of Transformer-based Language Models for Information Retrieval [43.40675637622642]
本稿では、情報検索のためのトランスフォーマーベース言語モデルの微調整と推論を行うPyTorchベースのフレームワークであるLightning IRを紹介する。
Lightning IRは、微調整やインデックス付けから検索と再ランク付けまで、情報検索パイプラインのすべてのステージをサポートする。
論文 参考訳(メタデータ) (2024-11-07T13:03:21Z) - Robust Neural Information Retrieval: An Adversarial and Out-of-distribution Perspective [111.58315434849047]
ニューラルネットワーク検索モデル(IR)モデルの堅牢性は、大きな注目を集めている。
我々は、IRの堅牢性を多面的概念とみなし、敵攻撃、アウト・オブ・ディストリビューション(OOD)シナリオ、パフォーマンスのばらつきに対してその必要性を強調している。
我々は,既存の手法,データセット,評価指標について詳細な議論を行い,大規模言語モデルの時代における課題や今後の方向性に光を当てる。
論文 参考訳(メタデータ) (2024-07-09T16:07:01Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - UniArk: Improving Generalisation and Consistency for Factual Knowledge Extraction through Debiasing [19.2764682793582]
本研究は,言語モデルにおける事前学習目標と下流学習目標との相違点を示す。
汎用的で一貫した事実知識抽出のためのアダプタベースのフレームワークUniArkを提案する。
論文 参考訳(メタデータ) (2024-04-01T17:22:07Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - CARLA: A Python Library to Benchmark Algorithmic Recourse and
Counterfactual Explanation Algorithms [6.133522864509327]
CARLA (Counterfactual And Recourse LibrAry) は、対物的説明法をベンチマークするピソンライブラリである。
提案手法は,11種類の反事実的説明手法の広範なベンチマークを提供する。
また,将来的対実的説明法の研究のためのベンチマークフレームワークも提供する。
論文 参考訳(メタデータ) (2021-08-02T11:00:43Z) - Coreference Reasoning in Machine Reading Comprehension [100.75624364257429]
機械読解におけるコレファレンス推論は,従来考えられていたよりも大きな課題である。
本稿では,コア参照推論の課題を反映した理解データセットの読解手法を提案する。
これにより、さまざまなMRCデータセットにまたがる最先端のモデルの推論能力が向上します。
論文 参考訳(メタデータ) (2020-12-31T12:18:41Z) - Analyzing Knowledge Graph Embedding Methods from a Multi-Embedding
Interaction Perspective [3.718476964451589]
実世界の知識グラフは通常不完全であるため、この問題に対処するために知識グラフ埋め込み法が提案されている。
これらの方法は、実体と関係を意味空間に埋め込まれたベクトルとして表現し、それらの間のリンクを予測する。
四元数代数に基づく新しいマルチエンベディングモデルを提案し、人気のあるベンチマークを用いて有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2019-03-27T13:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。