論文の概要: AMR Quality Rating with a Lightweight CNN
- arxiv url: http://arxiv.org/abs/2005.12187v2
- Date: Wed, 16 Dec 2020 17:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:21:35.401280
- Title: AMR Quality Rating with a Lightweight CNN
- Title(参考訳): 軽量CNNによるAMR品質評価
- Authors: Juri Opitz
- Abstract要約: 我々は、レーティンググラフの品質を課題とする人間の判断を模倣する畳み込みニューラルネットワーク(CNN)を作成する。
実験により,本手法は強いベースラインよりも精度の高い評価が可能であることが確認された。
- 参考スコア(独自算出の注目度): 4.987581730476023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured semantic sentence representations such as Abstract Meaning
Representations (AMRs) are potentially useful in various NLP tasks. However,
the quality of automatic parses can vary greatly and jeopardizes their
usefulness. This can be mitigated by models that can accurately rate AMR
quality in the absence of costly gold data, allowing us to inform downstream
systems about an incorporated parse's trustworthiness or select among different
candidate parses.
In this work, we propose to transfer the AMR graph to the domain of images.
This allows us to create a simple convolutional neural network (CNN) that
imitates a human judge tasked with rating graph quality. Our experiments show
that the method can rate quality more accurately than strong baselines, in
several quality dimensions. Moreover, the method proves to be efficient and
reduces the incurred energy consumption.
- Abstract(参考訳): 抽象的意味表現(AMR)のような構造的意味表現は、様々なNLPタスクにおいて潜在的に有用である。
しかし、自動パースの品質は大きく異なり、有用性を損なうことがある。
これは、コストのかかるゴールドデータがない場合にamr品質を正確に評価できるモデルによって緩和され、組み込みパースの信頼性について下流システムに通知したり、異なる候補パースの中から選択することができる。
本研究では,AMRグラフを画像領域に転送することを提案する。
これにより、評価グラフの品質を課題とする人間の判断を模倣する単純な畳み込みニューラルネットワーク(CNN)を作成できる。
提案手法は,複数の品質次元において,強力なベースラインよりも精度良く品質を評価できることを示す。
また、効率性が証明され、発生したエネルギー消費量を低減できる。
関連論文リスト
- A Lightweight Parallel Framework for Blind Image Quality Assessment [7.9562077122537875]
ブラインド画像品質評価(BIQA)のための軽量並列フレームワーク(LPF)を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出し,視覚特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築した。
本稿では,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む,新たな2つのサブタスクを提案する。
論文 参考訳(メタデータ) (2024-02-19T10:56:58Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Visualising and Explaining Deep Learning Models for Speech Quality
Prediction [0.0]
本稿では,非侵入的音声品質予測モデルであるNISQAについて分析する。
畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)から構成される。
論文 参考訳(メタデータ) (2021-12-12T12:50:03Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。