論文の概要: Do as I can, not as I get
- arxiv url: http://arxiv.org/abs/2306.10345v2
- Date: Sun, 14 Jan 2024 08:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:35:30.685171
- Title: Do as I can, not as I get
- Title(参考訳): できるようにする、得る限りではない
- Authors: Shangfei Zheng, Hongzhi Yin, Tong Chen, Quoc Viet Hung Nguyen, Wei
Chen, and Lei Zhao
- Abstract要約: 本稿では、シミュレーションデータ環境から貴重な情報をマイニングするためのTMRモデルを提案する。
私たちはこの論文の提出を完了するつもりです。
- 参考スコア(独自算出の注目度): 46.21061496634747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a model called TMR to mine valuable information from
simulated data environments. We intend to complete the submission of this
paper.
- Abstract(参考訳): 本稿では、シミュレーションデータ環境から貴重な情報をマイニングするためのTMRモデルを提案する。
私たちはこの論文の提出を終えるつもりです。
関連論文リスト
- The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Generating Query Focused Summaries without Fine-tuning the
Transformer-based Pre-trained Models [0.6124773188525718]
新しいデータセットごとに自然言語処理(NLP)モデルを微調整するには、炭素フットプリントの増加とコストの増大に伴う高い計算時間が必要である。
本稿では,MMR(Marginal Maximum Relevance)に基づくアプローチが,事前学習に使用しなかった新しいデータセットから直接,クエリ中心の要約を得る上で有効かどうかを検討する。
実験結果から示すように,MMRに基づく手法では,最も関連性の高い文を要約としてランク付けし,個々の事前学習モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-10T22:40:15Z) - How "Multi" is Multi-Document Summarization? [15.574673241564932]
MDSデータセットの参照要約とシステム要約の両方が、実際に分散情報に基づいていることが期待されている。
「要約が分散する度合いを評価するための自動測度を提案する。」
以上の結果から,MSSデータセットは複数の文書からの情報の組み合わせをほとんど必要とせず,単一の文書が要約内容全体をカバーしていることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T10:20:09Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - Multi-Document Summarization with Centroid-Based Pretraining [35.8335939654861]
Multi-Document Summarization (MDS)では、入力は文書の集合としてモデル化することができ、出力はその要約である。
本稿では,各ドキュメントクラスタのROUGEベースのセントロイドを,その要約のプロキシとして選択する,新たな事前学習目標を提案する。
したがって、本研究の目的は、人による要約を必要とせず、文書集合のみからなるデータセットの事前学習に利用することができる。
論文 参考訳(メタデータ) (2022-08-01T17:28:02Z) - Coreference Reasoning in Machine Reading Comprehension [100.75624364257429]
機械読解におけるコレファレンス推論は,従来考えられていたよりも大きな課題である。
本稿では,コア参照推論の課題を反映した理解データセットの読解手法を提案する。
これにより、さまざまなMRCデータセットにまたがる最先端のモデルの推論能力が向上します。
論文 参考訳(メタデータ) (2020-12-31T12:18:41Z) - Learning from missing data with the Latent Block Model [0.5735035463793007]
本研究では、ランダムなデータに欠かせないデータを活用することを目的としたLatent Block Modelに基づくクラスタリングモデルを提案する。
予測最大化アルゴリズムを導出して推論を行い、モデル選択基準を示す。
論文 参考訳(メタデータ) (2020-10-23T08:11:43Z) - Partially Conditioned Generative Adversarial Networks [75.08725392017698]
Generative Adversarial Networks (GAN)は、実世界のトレーニングデータセットの基盤となる確率分布を暗黙的にモデル化することで、人工データセットを合成する。
条件付きGANとその変種の導入により、これらの手法はデータセット内の各サンプルで利用可能な補助情報に基づいて条件付きサンプルを生成するように拡張された。
本研究では,標準条件付きGANがそのようなタスクに適さないことを論じ,新たなAdversarial Networkアーキテクチャとトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-07-06T15:59:28Z) - MT-Adapted Datasheets for Datasets: Template and Repository [0.0]
我々は、EuroParlやNews-Commentaryの一般的な機械翻訳データセットを文書化するために、Gebruらによって提案された標準化されたモデルを採用しています。
このドキュメンテーションプロセスの中では、原本をマシン翻訳領域内のデータコンシューマーの特定のケースに適合させました。
論文 参考訳(メタデータ) (2020-05-27T04:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。