論文の概要: Why Are Parsing Actions for Understanding Message Hierarchies Not Random?
- arxiv url: http://arxiv.org/abs/2506.22366v1
- Date: Fri, 27 Jun 2025 16:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.285822
- Title: Why Are Parsing Actions for Understanding Message Hierarchies Not Random?
- Title(参考訳): メッセージ階層を理解するための解析行動はなぜランダムではないのか?
- Authors: Daichi Kato, Ryo Ueda, Yusuke Miyao,
- Abstract要約: ランダム解析手法を用いたエージェントが高い通信精度を維持しているかどうかを考察する。
階層構造を持つ複雑な入力を解析できる、単純で複雑な修正を行う。
これらの変更により、ランダム解析手法を用いたエージェントが高い通信精度を維持しているかどうかを評価する。
- 参考スコア(独自算出の注目度): 10.720962469763755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: If humans understood language by randomly selecting parsing actions, it might have been necessary to construct a robust symbolic system capable of being interpreted under any hierarchical structure. However, human parsing strategies do not seem to follow such a random pattern. Why is that the case? In fact, a previous study on emergent communication using models with hierarchical biases have reported that agents adopting random parsing strategies$\unicode{x2013}$ones that deviate significantly from human language comprehension$\unicode{x2013}$can achieve high communication accuracy. In this study, we investigate this issue by making two simple and natural modifications to the experimental setup: (I) we use more complex inputs that have hierarchical structures, such that random parsing makes semantic interpretation more difficult, and (II) we incorporate a surprisal-related term, which is known to influence the order of words and characters in natural language, into the objective function. With these changes, we evaluate whether agents employing random parsing strategies still maintain high communication accuracy.
- Abstract(参考訳): もし人間がランダムに解析行動を選択して言語を理解すれば、どんな階層構造でも解釈できる堅牢な記号体系を構築する必要があったかもしれない。
しかし、人間の解析戦略はそのようなランダムなパターンに従わないようである。
なぜそうなるのか?
実際、階層的バイアスを持つモデルを用いた創発的コミュニケーションに関する以前の研究では、ランダム解析戦略を採用しているエージェント$\unicode{x2013}$canが、人間の言語理解から大きく逸脱していることを報告している。
本研究では,この課題を,実験装置に2つの単純かつ自然な修正を加えて検討する: (I) ランダム解析により意味論的解釈がより困難になるような階層構造を持つより複雑な入力を用い, (II) 自然言語における単語の順序や文字の順序に影響を与えることが知られている命題関連用語を目的関数に組み込む。
これらの変更により、ランダム解析手法を用いたエージェントが高い通信精度を維持しているかどうかを評価する。
関連論文リスト
- Structural Ambiguity and its Disambiguation in Language Model Based
Parsers: the Case of Dutch Clause Relativization [2.9950872478176627]
先行文の存在が相対的節の曖昧さをいかに解決するかを考察する。
その結果、証明ネットに基づくニューロシンボリックは、普遍的な依存関係に基づくアプローチよりも、データ偏差補正に対してよりオープンであることが示された。
論文 参考訳(メタデータ) (2023-05-24T09:04:18Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Laziness Is a Virtue When It Comes to Compositionality in Neural
Semantic Parsing [20.856601758389544]
本稿では,論理形式の葉から始まる論理形式をボトムアップから構築するニューラルセマンティック解析生成手法を提案する。
我々の新しいボトムアップ・パーシング・セマンティック・テクニックは、汎用的なセマンティクスよりも優れており、同等のニューラル・セマンティクスと競合していることを示す。
論文 参考訳(メタデータ) (2023-05-07T17:53:08Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - More Than Words: Towards Better Quality Interpretations of Text
Classifiers [16.66535643383862]
MLモデルの入力インタフェースを考えると、トークンベースの解釈性は便利な第1選択であるが、あらゆる状況において最も効果的ではないことを示す。
1)ランダム化テストにより測定されるほど頑健であり,2)SHAPのような近似に基づく手法を用いた場合の変動性が低く,3)言語的コヒーレンスがより高い水準にある場合の人間には理解できない。
論文 参考訳(メタデータ) (2021-12-23T10:18:50Z) - Syntactic Perturbations Reveal Representational Correlates of
Hierarchical Phrase Structure in Pretrained Language Models [22.43510769150502]
文レベルの構文のどの側面がベクターベースの言語表現によってキャプチャされるのかは、完全には分かっていない。
このプロセスでは,トランスフォーマーが文のより大きな部分の層に感性を持たせることが示され,階層的な句構造が重要な役割を果たしている。
論文 参考訳(メタデータ) (2021-04-15T16:30:31Z) - Hierarchical Poset Decoding for Compositional Generalization in Language [52.13611501363484]
出力が部分的に順序付けられた集合(命題)である構造化予測タスクとして人間の言語理解を形式化する。
現在のエンコーダ・デコーダアーキテクチャは意味論のポーズ構造を適切に考慮していない。
本稿では,言語における合成一般化のための新しい階層型ポーズデコーディングパラダイムを提案する。
論文 参考訳(メタデータ) (2020-10-15T14:34:26Z) - A Tale of a Probe and a Parser [74.14046092181947]
言語のニューラルモデルにエンコードされている言語情報の計測は、NLPで人気が高まっている。
研究者は、他のモデルの出力から言語構造を抽出するために設計された教師付きモデル"プローブ"をトレーニングすることで、この企業にアプローチする。
そのようなプローブの1つは、構文情報が文脈化された単語表現でエンコードされる範囲を定量化するために設計された構造プローブである。
論文 参考訳(メタデータ) (2020-05-04T16:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。