論文の概要: Finspector: A Human-Centered Visual Inspection Tool for Exploring and
Comparing Biases among Foundation Models
- arxiv url: http://arxiv.org/abs/2305.16937v1
- Date: Fri, 26 May 2023 13:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:35:18.289774
- Title: Finspector: A Human-Centered Visual Inspection Tool for Exploring and
Comparing Biases among Foundation Models
- Title(参考訳): finspector:基礎モデル間のバイアスを探索し比較する、人間中心の視覚検査ツール
- Authors: Bum Chul Kwon, Nandana Mihindukulasooriya
- Abstract要約: Finspectorは、言語モデルによって生成されたログライクなスコアを通じて、さまざまなカテゴリのバイアスを検出するように設計された、人間中心の視覚検査ツールである。
このツールの目標は、視覚分析を使って潜在的なバイアスを容易に特定できるようにすることで、最終的には学術的、産業的にも、これらのモデルのより公平で単純な展開に寄与する。
- 参考スコア(独自算出の注目度): 6.546787201767104
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pre-trained transformer-based language models are becoming increasingly
popular due to their exceptional performance on various benchmarks. However,
concerns persist regarding the presence of hidden biases within these models,
which can lead to discriminatory outcomes and reinforce harmful stereotypes. To
address this issue, we propose Finspector, a human-centered visual inspection
tool designed to detect biases in different categories through log-likelihood
scores generated by language models. The goal of the tool is to enable
researchers to easily identify potential biases using visual analytics,
ultimately contributing to a fairer and more just deployment of these models in
both academic and industrial settings. Finspector is available at
https://github.com/IBM/finspector.
- Abstract(参考訳): 事前訓練されたトランスフォーマーベースの言語モデルは、様々なベンチマークでの例外的な性能のため、人気が高まっている。
しかし、これらのモデルの中に隠れバイアスが存在することへの懸念が続き、差別的な結果をもたらし、有害なステレオタイプを補強する可能性がある。
この問題に対処するために,言語モデルによって生成されたログライクなスコアを用いて,異なるカテゴリのバイアスを検出する人中心視覚検査ツールであるFinspectorを提案する。
このツールの目標は、研究者がビジュアルアナリティクスを使って潜在的なバイアスを容易に特定できるようにすることであり、最終的には、学術的および工業的な環境でこれらのモデルの公平で単純なデプロイに寄与する。
Finspectorはhttps://github.com/IBM/finspector.comで入手できる。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - A Reliable Framework for Human-in-the-Loop Anomaly Detection in Time Series [17.08674819906415]
HILADは、人間とAIの動的かつ双方向なコラボレーションを促進するために設計された、新しいフレームワークである。
ビジュアルインターフェースを通じて、HILADはドメインの専門家に、大規模な予期せぬモデルの振る舞いを検出し、解釈し、修正する権限を与えます。
論文 参考訳(メタデータ) (2024-05-06T07:44:07Z) - Towards Personalized Evaluation of Large Language Models with An
Anonymous Crowd-Sourcing Platform [64.76104135495576]
大規模言語モデルのための匿名クラウドソーシング評価プラットフォームであるBingJianを提案する。
このプラットフォームを通じて、ユーザーは質問を提出し、パーソナライズされ、潜在的に幅広い機能でモデルをテストできる。
論文 参考訳(メタデータ) (2024-03-13T07:31:20Z) - IndiVec: An Exploration of Leveraging Large Language Models for Media
Bias Detection with Fine-Grained Bias Indicators [16.222566896022247]
大規模言語モデル上に構築された一般的なバイアス検出フレームワークであるIndiVecを導入する。
IndiVecは、きめ細かいメディアバイアスデータベースを構築することから始まる。
ベクタデータベースから最も関連性の高い指標を自動的に選択し、多数決を採用して入力のバイアスラベルを決定する。
論文 参考訳(メタデータ) (2024-02-01T05:20:07Z) - FairPy: A Toolkit for Evaluation of Social Biases and their Mitigation
in Large Language Models [7.250074804839615]
大規模な事前訓練された言語モデルは、人種、性別等に基づく社会集団に対する偏見を示すことが研究で示されている。
様々な研究者がこれらのバイアスを定量化し識別するための数学的ツールを提案している。
本稿では,人種,性別,民族,年齢など,さまざまなバイアスの包括的定量的評価を行う。
論文 参考訳(メタデータ) (2023-02-10T20:54:10Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。