ダウンロード
SlimeLearning SlimeTreeアーキテクチャによる 大規模言語モデルの可換的学習フレームワーク
現在のLLM学習は、同一の意味を持つトークン列の置換をすべて別サンプルとして扱っている。本論文はSlimeLearningを提案する。これはSlime構造理論(SS Theory)とSlimeTreeアーキテクチャ(日本特許出願済み)に基づく4層の可換的学習フレームワークである。(1) コーパス正規化:助詞ベース属性タグ付けで意味的等価サンプルを重複排除(10-30%削減)。(2) 属性ベース埋め込み:役割分離ベクトル空間で順序不変表現を学習。(3) 可換Attention:役割内相互作用に限定し O(n²) → O(n×k) に削減。(4) SlimeTree学習:トークン列ではなく依存構造を直接学習。統合すると理論的学習コスト削減は1/3000倍(極端ケース)。可換性原理「役割が標識されていれば順序は冗長」を推論から学習へ拡張し、LLMシステムのフルスタック最適化を完成させる。
SlimeLearning_JP.pdf
PDFファイル 271.7 KB

ダウンロード
自然言語の可換正規化
60年間、自然言語処理は「文は順序付き列である」と仮定してきた。本論文はこの仮定が計算上の破滅であることを証明する。日本語は助詞システムにより100%可換正規化を達成する——語順は文字通り意味と無関係である。この観察を定式化し、英語に助詞ベース属性タグを付与することで、意味比較の計算量が O(n!) から O(n log n) に削減されることを示す。数値は衝撃的である:n=10で11万倍、n=15で220億倍、n=20で10¹⁶倍の高速化。文脈依存ケース(ゼロ助詞、多義的助詞、量化子スコープ)はこのアプローチを無効化しない——解決不能な構造問題を解決可能な精度問題に変換する。核心的洞察は恥ずかしいほど単純である:役割が標識されていれば、順序は冗長。日本語話者は常にこれを知っていた。我々はそれを数学的に精密化し、計算
Commutative_Normalization_JP_v2.pdf
PDFファイル 324.4 KB