ROIDCORE  Personified Agent  Conversation ROBOT  Dynamic Artificial Intelligence
仮想人格:ロイドコア
ロイドコア (ROIDCORE) β版
話し言葉による知識の記憶と想起を実現した擬人化キャラクター

トップページ | このサイトについて | プライバシーと共有 | お問い合わせ | 会社情報 | 四方山話
最新情報 | ロイドコアとは | ホワイトレポート | 人格の仮想化技術 | 応用例のご案内
動的人工知能 | 感性と感情 | マインドマップ | 人工知能言語 | 会話ロボット | 記憶モデル
表層と深層 | 不気味の谷と不気味な文 | 教師あり/なし学習

 ■ 記憶モデル(自己増殖型ニューラルネット)   作成日:2012/5/4

【20年前の情報化時代】
 今から20年以上前、マルチメディア/インタラクティブメディアの応用事例が盛んな時期があった。 コンピュータに大容量記録メディアとして音楽CDが使われ始めたころである。 当時、次世代メディアの情報の記録/再構成についていろいろと考えていた。 画像は二次元の静止画ではなく三次元形状の座標とテクスチャとして記録すべきであり、 動画は二次元画像の連続記録ではなくモーション情報で動作も記録すべきと考えていた。 それで、実際に「三次元座標キャプチャ」や、「モーションキャプチャ」の計測システムを作った。 その結果として、インタラクティブな再構成が不可欠な業界に「CG」と「モーションキャプチャ」の導入が進み、 今現在、この業界では当たり前の手法になっている。

【記憶モデルの原型】
 このころから、動作記録の次の記録対象は「人格」と考えるに至り、基本となる「記憶モデル」を開発した。 人の会話/談話を音声付動画で残すだけでは人の記録として不十分と考えた。 これだけでは発話の原因になる基礎的な背景情報が欠落していて、元の思考に基づく意見や感情表現が再構成できないからである。 ロイドコアの「オリジナルなコネクションモデル」はこれが源流になっている。 本来ならば「人格キャプチャ」と呼称すべきと思いつつ、その時代では要求がなく時期を逸した。 この歴史的背景の話の後に@ROIDCOREの「開発日記」を読めば分りやすい筈である。 ロイドコアは後述の理由により、このモデルと同じではない。しかし考え方は同類である。
 ロイドコアの記憶マトリックスの原型である「記憶モデル」の詳しい解説は 「日経インテリジェントシステム」別冊1992夏号(p120〜p131)に掲載されている。 そのタイトルは「自己増殖型ニューロ・モデルBNN」である。 新生児の大脳皮質の発達過程の概念と生体のブリーディングを意識して名付けた活性化層有する階層型記憶モデルである。 表題にある増殖は大脳のシナプス(軸索の先端)の発芽/成長/転移を表している。

【新生児における大脳皮質の発達モデル】
 この記憶モデルの特徴は自己増殖するシナプス(軸索は省略)が作る学習可能な分散記憶構造とその学習方法(発芽/成長/転移)にある。 学習は教師データに基づき生物学的選択性(試行錯誤の結果評価)を記述するルールベースで実行される。 このネットワークには発芽/成長/転移するシナプスが存在しニューロン(ノード)は仮の結束点(マーカー)としての役目しか果たさない。 その発芽/成長/転移ルールは新生児における大脳皮質の発達過程を形式的に模倣したものである。 系の分類から言えば非線形の離散制御システムである。系のフィードバックが試行ルート実行の評価結果として掛かっている。 そのためネットワークの状態方程式を解析関数で表すことは困難である。また目的を考えると必要ないと思う。 従来の学習に見られるデルタルールは登場しないので数値演算は殆ど無い。 これらのルール等の詳細を知りたい方は原本を参照されたい。
 このモデルでの記憶情報はニューロンには無く、シナプスにある。 ニューロンは単なる目標地点としてしか働かないのでシナプスがニューロンに属さないと考える。 シナプスとニューロン間に重み係数があるが、これは微調の意味しかなく構造には寄与しない。 有効なマーカーの総数がモデル全体の記憶の分解能を決める。記憶容量とマーカーの数は正の相関があるが飽和しないし、漸近もしないのでその数が記憶容量を限定することはない。有効なマーカーとなったノード数が学習の成果の目安になる。 開発日記では単なる数字が付いたマトリックス(広義のベクトル)と表現したのはこういう意味である。 しばしば、これを特徴空間のカテゴリとも称するが、カテゴリはこれらのマーカー群が作るクラスタ名のことである。 一般に良く言われる神経細胞の「おばあちゃん細胞」とは違う認識である。このモデルの重み係数はクラスタ同定を左右するほどの可動範囲を持っていない。カテゴリはマーカーのポインタでコード化されていると解釈すれば分りやすい。

【記憶は生物固有の現象】
 増殖性シナプスの記憶における機能/効果を生体の観点から補足説明する。 発芽し成長するシナプスは目的マーカーに到達した時点で初めて有意信号を伝えることができる。 一般論のニューロンの発火と紛らわしいがニューロンの発火と異なり出力側ではなく入力側にある。 到達するまではニューロンは入力データがないのと同じ動作をするが、マーカーに接続し易くなっている状態が将来へ向けて信号伝達(記憶)の期待値を高めるように働く。しかも目的マーカーを変更できる可塑性も残っている。 具体的には今までと大きく異なる概念を学習し始めるとシナプスが成長する前に方向転換(ターゲット転移)が起こる。 これらは出力側の閾値関数のように成長の長さに依存する閾値関数(ステップ関数)と等価に見える。 むしろ、この方が一般的であるがシナプス発芽/成長/転移に関わるルールをこの閾値関数で表現すると莫大なパラメータが必要で、現実問題として記述困難となる。 これを回避するために着目したのが生物に見られるダイナミクスである。 実際は発芽や増殖ルールが大脳のどの部分でどのようにして実現されているかは分らない。 それでも、観察の結果からはある種の最適化の過程と見えている。
 生体例として、最近話題になった「キイロタマホコリカビの多細胞集合体移動」がある。この場合、栄養素(エネルギー源)が教師データになる。 植物の成長では光が新芽の成長方向を決めたり、またヒドラの自己再生の過程にも同じような増殖現象が見られる。 これらの例から生物学的に模倣有意な仕組みと考えている。 マクロな「人」も同じで、2つの選択肢があるとき、未来の自分に好ましく見える方を選ぶが見えない場合、教師なし選択となり、経験から推測した目標で判断することになる。 この足りない情報を推測する考え方は、非可逆データ圧縮や、回帰予測の手法と同じである。 この推測がパターン化するとフラクタル次元が現れ、さらにカオスの存在も可能な系になると考える。

【記憶モデルとしての課題】
 紹介した記憶モデルの優位性は従来のニューラルネットに比べてチューニングが不要、追加学習の容易さにある。 しかし、原型モデルでは系のエネルギーや尤度などでバインドしていないため教師データが必ず必要になる。ここは大脳と大きく異なり現在も明確な結論は出ていない。 短期記憶は明らかな教師データによるものだが、長期記憶の教師データは内部からの自己想起によって自分自身で作り出していると考えている。 原型モデルではシナプスの仮想成長過程に目標が無いと試行ルートが生成できないから この問題は基本的に解決できない。 「常識は再帰的知識であるが故、取り扱いが困難である」と開発日記で記したのはこの課題のことである。
 20年前のニューロ・モデルは審査が通り特許が成立している。 実際いくつかのメーカで検査装置として使われたが実装は公開されていない。 発明者であっても権利者ではないのでこれをそのまま使えない。また使っていない。 しかし、同様な発想がロイドコアにはある。 ロイドコアは層構造ではなく完全に自由構造になっている。 逆にルールは階層化することで簡潔になり、総ルール数が極端に少なくなっている。
 寄稿の最後に「BNNが人間の記憶に近い記憶装置として発展すると期待される」 と結んだが、それから20年経った今も同じ期待が続くとは想像していなかった。 多分、こちらの方が課題として本質的に大きい。 数理モデルでないが故に懐疑的な見方をされることも少なくない。 病理学での薬物効果と同じく結果がでるなら副作用が未知であっても使うか否かの議論はある。 その5年後から脳の記憶モデルがインターネットが持つ知識モデルと結びつき、 記憶モデルを知識ベースの一種と考えるようになった。会話が可能なのは副産物である。 自然言語はその中でも比較的分りやすい記憶対象であり、視覚情報など他の情報との複合記憶、 人工知能的処理との連携など、現在も続いている課題である。


 トップページに戻る
ROIDCORE  Copyright (C)2011-2015 Life Information Laboratory, Inc. All right reserved.