論文の概要: Bias in ontologies -- a preliminary assessment
- arxiv url: http://arxiv.org/abs/2101.08035v1
- Date: Wed, 20 Jan 2021 09:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:27:13.993104
- Title: Bias in ontologies -- a preliminary assessment
- Title(参考訳): オントロジーにおけるバイアス-予備評価
- Authors: C. Maria Keet
- Abstract要約: アルゴリズムバイアスはよく知られた概念だが、その文脈におけるバイアスとは、アルゴリズムの入力のメカニズムに何を意味するのか?
この特徴付けは、情報と知識の表現の倫理的側面の感性化に寄与する。
- 参考スコア(独自算出の注目度): 2.360534864805446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logical theories in the form of ontologies and similar artefacts in computing
and IT are used for structuring, annotating, and querying data, among others,
and therewith influence data analytics regarding what is fed into the
algorithms. Algorithmic bias is a well-known notion, but what does bias mean in
the context of ontologies that provide a structuring mechanism for an
algorithm's input? What are the sources of bias there and how would they
manifest themselves in ontologies? We examine and enumerate types of bias
relevant for ontologies, and whether they are explicit or implicit. These eight
types are illustrated with examples from extant production-level ontologies and
samples from the literature. We then assessed three concurrently developed
COVID-19 ontologies on bias and detected different subsets of types of bias in
each one, to a greater or lesser extent. This first characterisation aims
contribute to a sensitisation of ethical aspects of ontologies primarily
regarding representation of information and knowledge.
- Abstract(参考訳): コンピューティングやITにおけるオントロジーや類似のアーティファクトの形での論理理論は、データの構造化、注釈付け、クエリに使われ、アルゴリズムに入力されるものに関するデータ分析に影響を与えている。
アルゴリズムバイアスはよく知られた概念だが、バイアスはアルゴリズムの入力を構造化するメカニズムを提供するオントロジーの文脈において何を意味するのか?
バイアスの源は何で、どうやってオントロジーに現れますか?
我々はオントロジーに関連するバイアスの種類と、それらが明示的か暗黙的かを調査し、列挙する。
これらの8つのタイプは、現存する生産レベルのオントロジーと文献からのサンプルの例で示される。
次に、バイアスに関する3つの同時に開発されたcovid-19オントロジーを評価し、それぞれのバイアスの異なるサブセットを多かれ少なかれ検出した。
この最初の特徴付けは、情報と知識の表現を主眼とするオントロジーの倫理的側面の感性化に寄与する。
関連論文リスト
- Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Distinguishing rule- and exemplar-based generalization in learning
systems [10.396761067379195]
特徴レベルバイアスと例え-vs-ルールバイアスの2つの異なる帰納バイアスについて検討した。
ほとんどの標準ニューラルネットワークモデルは、模範に基づく外挿に対する正当性を持っている。
データ拡張、公平性、体系的一般化に関する研究において、これらの発見がもたらす意味について論じる。
論文 参考訳(メタデータ) (2021-10-08T18:37:59Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - A Typology of Data Anomalies [0.0]
異常は何らかの特異なケースであり、データセットに存在する一般的なパターンに適合しないように見える。
本稿では,データセット内の異なる種類の異常を明確かつ具体的に定義する,異常の一般的な型について紹介する。
論文 参考訳(メタデータ) (2021-07-04T13:12:24Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - The Authors Matter: Understanding and Mitigating Implicit Bias in Deep
Text Classification [36.361778457307636]
ディープテキスト分類モデルは、特定の人口統計グループの著者によって書かれたテキストのバイアス結果を生成することができます。
本論文では,異なる人口集団の異なるテキスト分類タスクに暗黙のバイアスが存在することを示す。
そして、暗黙のバイアスの知識を深めるために、学習に基づく解釈方法を構築します。
論文 参考訳(メタデータ) (2021-05-06T16:17:38Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - Evaluating Fairness of Machine Learning Models Under Uncertain and
Incomplete Information [25.739240011015923]
属性分類器のテスト精度は下流モデルにおけるバイアス推定の有効性と常に相関しているとは限らない。
我々の分析は,属性分類器の誤りを可能な限り不均一に分配したいという状況において,意外かつ直感的な意味を持っている。
論文 参考訳(メタデータ) (2021-02-16T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。