論文の概要: Grounded and Well-rounded: A Methodological Approach to the Study of
Cross-modal and Cross-lingual Grounding
- arxiv url: http://arxiv.org/abs/2310.11938v1
- Date: Wed, 18 Oct 2023 13:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 16:35:52.023567
- Title: Grounded and Well-rounded: A Methodological Approach to the Study of
Cross-modal and Cross-lingual Grounding
- Title(参考訳): グラウンドドとウェルラウンドド:クロスモーダルおよびクロスランガルグラウンドの研究への方法論的アプローチ
- Authors: Timothee Mickus and Elaine Zosa and Denis Paperno
- Abstract要約: グラウンディングは、より完全で真にセマンティックに有能な人工知能システムの開発において重要な要素であると主張している。
テキストのみよりもリッチな入力ソースを持つモデルを提供することの効果について検討する。
このフレームワークを用いた実験では、クロスモーダル・グラウンドド、クロスランガル・グラウンドド、アングラウンドド・モデル間のモデル挙動の質的な差異が明らかになった。
- 参考スコア(独自算出の注目度): 3.435010087800495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grounding has been argued to be a crucial component towards the development
of more complete and truly semantically competent artificial intelligence
systems. Literature has divided into two camps: While some argue that grounding
allows for qualitatively different generalizations, others believe it can be
compensated by mono-modal data quantity. Limited empirical evidence has emerged
for or against either position, which we argue is due to the methodological
challenges that come with studying grounding and its effects on NLP systems.
In this paper, we establish a methodological framework for studying what the
effects are - if any - of providing models with richer input sources than
text-only. The crux of it lies in the construction of comparable samples of
populations of models trained on different input modalities, so that we can
tease apart the qualitative effects of different input sources from
quantifiable model performances. Experiments using this framework reveal
qualitative differences in model behavior between cross-modally grounded,
cross-lingually grounded, and ungrounded models, which we measure both at a
global dataset level as well as for specific word representations, depending on
how concrete their semantics is.
- Abstract(参考訳): グラウンディングは、より完全で真にセマンティックに有能な人工知能システムの開発において重要な要素であると主張している。
文学は2つのキャンプに分かれている: 基礎化は定性的に異なる一般化を可能にすると主張する者もいるが、ある者はそれがモノモーダルデータ量によって補うことができると信じている。
本研究は, 基礎研究の方法論的課題とNLPシステムへの影響から, いずれの立場に対しても, 限定的な実証的証拠が出現している。
本稿では,テキストのみよりもリッチな入力源を持つモデルを提供する方法として,その効果を研究するための方法論的枠組みを確立する。
その要点は、異なる入力モダリティに基づいて訓練されたモデルの集団の同等のサンプルを構築し、異なる入力源の質的効果を定量的なモデル性能から区別することができることである。
このフレームワークを用いた実験では, 意味論の具体性に応じて, グローバルなデータセットレベルだけでなく, 特定の単語表現に対しても, クロスモーダルグラウンド, クロスランガルグラウンド, アングラウンドモデル間のモデル挙動の質的差異を明らかにする。
関連論文リスト
- A Study on Bias Detection and Classification in Natural Language Processing [2.908482270923597]
我々の研究の目的は、ヘイトスピーチの検出と分類のタスクにおいて、公開データセットをもっとうまく組み合わせてモデルを訓練する方法を決定することである。
我々は,これらの課題を実験の展開と合わせて議論し,異なるデータセットの組み合わせがモデルの性能に大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-08-14T11:49:24Z) - Analyzing Persuasive Strategies in Meme Texts: A Fusion of Language Models with Paraphrase Enrichment [0.23020018305241333]
本稿では,ミームテキストにおける説得手法の階層的マルチラベル検出へのアプローチについて述べる。
本研究の範囲は、革新的なトレーニング技術とデータ強化戦略を通じて、モデルパフォーマンスの向上を含む。
論文 参考訳(メタデータ) (2024-07-01T20:25:20Z) - Enhancing Robustness of Foundation Model Representations under
Provenance-related Distribution Shifts [8.298173603769063]
分布シフト下における基礎モデルに基づくモデルの安定性について検討する。
我々は,多施設データセットの文脈に現れる分布シフトの形式である,証明によるコンバウンディングに焦点をあてる。
その結果, 基礎モデルでは, コンバウンド・バイ・プロビデンス関係の分布シフトに対して, ある程度の頑健性を示すが, 調整により改善できることがわかった。
論文 参考訳(メタデータ) (2023-12-09T02:02:45Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Testing Pre-trained Language Models' Understanding of Distributivity via
Causal Mediation Analysis [13.07356367140208]
自然言語推論のための新しい診断データセットであるDistNLIを紹介する。
モデルの理解の範囲は、モデルのサイズと語彙のサイズと関連していることがわかった。
論文 参考訳(メタデータ) (2022-09-11T00:33:28Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - An Empirical Study on Measuring the Similarity of Sentential Arguments
with Language Model Domain Adaptation [0.0]
データセットはさまざまなトピックの専門知識を使ってアノテートされなければならず、ラベル付きデータによる教師付き学習が高価になる。
最初に,事前学習した言語モデルを,自己教師あり学習を用いて関心領域に適用した。
我々は、異なるドメインから取られた文間の類似度を測定するタスクにモデルを微調整した。
論文 参考訳(メタデータ) (2021-02-19T08:05:46Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。