論文の概要: OmniThink: Expanding Knowledge Boundaries in Machine Writing through Thinking
- arxiv url: http://arxiv.org/abs/2501.09751v2
- Date: Thu, 20 Feb 2025 15:05:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:26:15.426412
- Title: OmniThink: Expanding Knowledge Boundaries in Machine Writing through Thinking
- Title(参考訳): OmniThink: 思考による機械記述における知識境界の拡張
- Authors: Zekun Xi, Wenbiao Yin, Jizhan Fang, Jialong Wu, Runnan Fang, Ningyu Zhang, Jiang Yong, Pengjun Xie, Fei Huang, Huajun Chen,
- Abstract要約: 提案するOmniThinkは,人間のような反復的展開とリフレクションの過程をエミュレートする,ゆっくり考えるマシンライティングフレームワークである。
実験結果から,OmniThinkはコヒーレンスや深度といった指標を伴わずに,生成した記事の知識密度を向上することが示された。
人間の評価と専門家のフィードバックは、OmniThinkが長文記事の生成における現実的な課題に対処する可能性を強調している。
- 参考スコア(独自算出の注目度): 57.06347681695629
- License:
- Abstract: Machine writing with large language models often relies on retrieval-augmented generation. However, these approaches remain confined within the boundaries of the model's predefined scope, limiting the generation of content with rich information. Specifically, vanilla-retrieved information tends to lack depth, novelty, and suffers from redundancy, which negatively impacts the quality of generated articles, leading to shallow, unoriginal, and repetitive outputs. To address these issues, we propose OmniThink, a slow-thinking machine writing framework that emulates the human-like process of iterative expansion and reflection. The core idea behind OmniThink is to simulate the cognitive behavior of learners as they slowly deepen their knowledge of the topics. Experimental results demonstrate that OmniThink improves the knowledge density of generated articles without compromising metrics such as coherence and depth. Human evaluations and expert feedback further highlight the potential of OmniThink to address real-world challenges in the generation of long-form articles.
- Abstract(参考訳): 大規模な言語モデルによる機械記述は、しばしば検索強化世代に依存している。
しかしながら、これらのアプローチはモデルが定義した範囲の境界内に留まり、リッチな情報によるコンテンツの生成を制限する。
特に、バニラが取得した情報は、深さ、斬新さ、冗長性に欠ける傾向にあり、生成した記事の品質に悪影響を及ぼし、浅い、非オリジナル、反復的なアウトプットをもたらす。
これらの問題に対処するため、我々は人間のような反復的拡張とリフレクションのプロセスをエミュレートする、ゆっくり考えるマシン記述フレームワークであるOmniThinkを提案する。
OmniThinkの背景にある基本的な考え方は、学習者の認知行動のシミュレートである。
実験結果から,OmniThinkはコヒーレンスや深度といった指標を伴わずに,生成した記事の知識密度を向上することが示された。
人間の評価と専門家のフィードバックは、OmniThinkが長文記事の生成における現実的な課題に対処する可能性をさらに強調している。
関連論文リスト
- Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - Bridging the Intent Gap: Knowledge-Enhanced Visual Generation [27.568260631117365]
視覚的コンテンツ生成では、ユーザの意図と生成されたコンテンツとの相違が長年にわたって問題となっている。
視覚コンテンツ生成のための知識強化型反復改善フレームワークを提案する。
提案手法の有効性を予備実験により実証した。
論文 参考訳(メタデータ) (2024-05-21T07:07:44Z) - Collapse of Self-trained Language Models [0.0]
私たちは、人間が以前の思考や行動に基づいて学習し、構築する方法に似た、自己学習モデルの自分たちのアウトプットでの可能性を探る。
GPT-2モデルの拡張自己学習により,性能が著しく低下し,繰り返しおよび崩壊したトークンが出力されることがわかった。
論文 参考訳(メタデータ) (2024-04-02T21:03:37Z) - Awakening Augmented Generation: Learning to Awaken Internal Knowledge of Large Language Models for Question Answering [30.409828862670764]
新しい知識強化フレームワークである$textbfAwakening-Augmented-Generation$(AAG)が提案されている。
コンテキストジェネレータを微調整して、シンボリックコンテキストとして機能する合成圧縮ドキュメントを作成する。
暗黙の覚醒はハイパーネットワークを用いて質問と合成文書に基づいてアダプタを生成し、それを大規模言語モデルに挿入する。
論文 参考訳(メタデータ) (2024-03-22T15:06:45Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - The Creative Frontier of Generative AI: Managing the Novelty-Usefulness
Tradeoff [0.4873362301533825]
生成人工知能(AI)システムにおける新規性と有用性の最適バランスについて検討する。
どちらの側面も過度に強調すると、幻覚や暗記のような限界に繋がる。
論文 参考訳(メタデータ) (2023-06-06T11:44:57Z) - Generating Diversified Comments via Reader-Aware Topic Modeling and
Saliency Detection [25.16392119801612]
生成したコメントの質を高めるために,読者が認識するトピックモデリングとサリエンシー情報検出フレームワークを提案する。
読者対応トピックモデリングのために,読者コメントからの潜在意味学習と話題マイニングのための変分生成クラスタリングアルゴリズムを設計した。
サリエンシー情報検出のために、ニュースコンテンツを推定してサリエンシー情報を選択するBernoulli分布について紹介します。
論文 参考訳(メタデータ) (2021-02-13T03:50:31Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Language Generation with Multi-Hop Reasoning on Commonsense Knowledge
Graph [124.45799297285083]
知識グラフの構造的情報と意味的情報の両方を活用することで、コモンセンスを意識したテキスト生成が促進されると主張している。
本稿では,外部コモンセンス知識グラフから抽出したマルチリレーショナルパスに基づいて,動的マルチホップ推論を用いた事前学習モデルを実現するマルチホップ推論フロー(GRF)の生成を提案する。
論文 参考訳(メタデータ) (2020-09-24T13:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。