重複していたらくっつける

  • Swarm intelligence(こちらとか)では、各所で勝手に「よかれ」と思ったことをやる
  • その上で、いつの間にやら、効率的な状態にしてしまいたい
  • ZDD(こちら)では組合せ爆発を圧縮してある
  • 圧縮にあたっては、「使いまわせるノード」は使いまわす
  • Swarm intelligence的には、「勝手に作って」おいて、「使いまわせると思ったら癒合する」という仕組みにしておけばよい
  • 例えば、回路(知識のための神経ネットワークとか?)があって、「勝手に」知識をためていくと、どんどん、同じような小回路ができてくる
  • インプットとがあってアウトプットで検証する作業を繰り返すうちに、「いつも同じ挙動をする」小回路だと判定されたら、ZDDで圧縮するときのようにまとめてしまえばよさそうだ
  • ただしSwarm intelligenceなので、その「判定」も「局所で勝手に」遂行すべし
  • 局所で勝手に遂行した結果、「やっぱ間違い」となったら、また小回路を産めばよい
  • その「やっぱ間違い」と気づいたときの「産み直し」には「強化」を付随させている可能性が、大
  • 人工知能を圧縮の関係はこちら:
There is a close connection between machine learning and compression: a system that predicts the posterior probabilities of a sequence given its entire history can be used for optimal data compression (by using arithmetic coding on the output distribution), while an optimal compressor can be used for prediction (by finding the symbol that compresses best, given the previous history). This equivalence has been used as justification for data compression as a benchmark for "general intelligence".[2]
    • ここで引用されている[2]の文献はこちら