論文の概要: Aligning Eyes between Humans and Deep Neural Network through Interactive
Attention Alignment
- arxiv url: http://arxiv.org/abs/2202.02838v1
- Date: Sun, 6 Feb 2022 19:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 17:10:43.631344
- Title: Aligning Eyes between Humans and Deep Neural Network through Interactive
Attention Alignment
- Title(参考訳): 対話型注意アライメントによる人間の目とディープニューラルネットワークの協調
- Authors: Yuyang Gao, Tong Sun, Liang Zhao, Sungsoo Hong
- Abstract要約: 本稿では,対話型アテンションアライメント(IAA:Interactive Attention Alignment)の新たなフレームワークを提案する。
IAAは、DNNモデル説明法を、人間が偏りのあるモデル注意の事例を明らかにし、注意を直接調整できるインタラクティブな媒体として活用する。
人為的に調整された注意力を用いてDNNを改善するために,目視品質と予測精度を両立させる新しい計算パイプラインであるGRADIAを導入する。
- 参考スコア(独自算出の注目度): 17.653966477405024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Deep Neural Networks (DNNs) are deriving the major innovations in
nearly every field through their powerful automation, we are also witnessing
the peril behind automation as a form of bias, such as automated racism, gender
bias, and adversarial bias. As the societal impact of DNNs grows, finding an
effective way to steer DNNs to align their behavior with the human mental model
has become indispensable in realizing fair and accountable models. We propose a
novel framework of Interactive Attention Alignment (IAA) that aims at realizing
human-steerable Deep Neural Networks (DNNs). IAA leverages DNN model
explanation method as an interactive medium that humans can use to unveil the
cases of biased model attention and directly adjust the attention. In improving
the DNN using human-generated adjusted attention, we introduce GRADIA, a novel
computational pipeline that jointly maximizes attention quality and prediction
accuracy. We evaluated IAA framework in Study 1 and GRADIA in Study 2 in a
gender classification problem. Study 1 found applying IAA can significantly
improve the perceived quality of model attention from human eyes. In Study 2,
we found using GRADIA can (1) significantly improve the perceived quality of
model attention and (2) significantly improve model performance in scenarios
where the training samples are limited. We present implications for future
interactive user interfaces design towards human-alignable AI.
- Abstract(参考訳): Deep Neural Networks(DNN)は、その強力な自動化を通じて、ほぼすべての分野において、主要なイノベーションを導出していますが、自動化された人種差別、ジェンダーバイアス、敵対的バイアスといった、自動化の背後にある障害も見られます。
DNNの社会的影響が増大するにつれて、DNNの行動と人間の精神モデルとを整合させる効果的な方法を見つけることは、公平で説明可能なモデルを実現する上で欠かせないものとなっている。
本稿では,対話型アテンションアライメント(IAA,Interactive Attention Alignment)の新たなフレームワークを提案する。
IAAは、DNNモデル説明法を、人間が偏りのあるモデル注意の事例を明らかにし、注意を直接調整できるインタラクティブな媒体として活用する。
人為的に調整された注意力を用いてDNNを改善するために,注目品質と予測精度を両立させる新しい計算パイプラインであるGRADIAを導入する。
性別分類問題における学習1と学習2におけるIAAフレームワークの評価を行った。
IAAを適用した研究1は、人間の目からモデル注意の知覚的品質を著しく向上させる。
研究2では,(1)モデルアテンションの知覚的品質を著しく改善し,(2)トレーニングサンプルが限定された場合のモデルパフォーマンスを著しく改善できることがわかった。
本稿では,人間に適応可能なAIに向けた対話型ユーザインタフェースの設計について述べる。
関連論文リスト
- RTify: Aligning Deep Neural Networks with Human Behavioral Decisions [10.510746720313303]
霊長類視覚の現在のニューラルネットワークモデルは、行動精度の全体的なレベルを複製することに焦点を当てている。
我々は、リカレントニューラルネットワークの時間的ダイナミクスを人間の反応時間(RT)に合わせることを学ぶことによって、人間の行動選択のダイナミクスをモデル化する新しい計算フレームワークを導入する。
本稿では,この近似を用いて「理想オブザーバ」RNNモデルを最適化し,人間データなしで速度と精度の最適なトレードオフを実現できることを示す。
論文 参考訳(メタデータ) (2024-11-06T03:04:05Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Are Deep Neural Networks Adequate Behavioural Models of Human Visual
Perception? [8.370048099732573]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョンに革命をもたらした機械学習アルゴリズムである。
統計ツールと計算モデルとを区別することが重要であると論じる。
我々は視覚科学においてDNNを取り巻く多くの神話を排除した。
論文 参考訳(メタデータ) (2023-05-26T15:31:06Z) - Harmonizing the object recognition strategies of deep neural networks
with humans [10.495114898741205]
最先端のディープニューラルネットワーク(DNN)は、精度が向上するにつれて、人間との整合性が低下していることを示す。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
論文 参考訳(メタデータ) (2022-11-08T20:03:49Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Cost-effective Interactive Attention Learning with Neural Attention
Processes [79.8115563067513]
対話型注意学習(Interactive Attention Learning, IAL)と呼ばれる対話型学習フレームワークを提案する。
IALは、人間のアノテーションが不足しているため、過度に適合する傾向がある。
我々は,サンプル効率のよい注意機構と,コスト効率のよいインスタンスと機能の再ランクアルゴリズムを提案することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2020-06-09T17:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。