« 大規模シミュレーション | メイン | Nature AOP »

2006年02月27日

Nature Neurosci 3月号

The tempotron: a neuron that learns spike timing-based decisions
Robert Gutig & Haim Sompolinsky

Sompolinsky は、以前は Hopfield model などをやっていた理論家です。今回は「Tempotran」という新たな Machine learning を開発した、という話です。

Temporoton では、N 個のニューロンの発火パターンを識別するみたいです。つまり、パーセプトロンに時間情報が入ったみたいなものかな。

識別は、出力ニューロンが時間内に1回以上発火するかどうかで判定します。Fig 1a でいうならば、黒のラスタープロットの入力では出力ニューロンは発火を生じ、灰色のラスターでは発火を生じません。

--

Temporoton では、ある1つのニューロン(出力ニューロン)が、N 個のシナプスの入力を受けているとします。出力ニューロンは、Integrate-and-Fire ニューロンで、

 V(t) = Σi ωi Σti K(t - ti) + Vrest   (論文中式1)

ωi は i 番目のシナプスの結合強度、K(t) は Postsynaptic potential を表すカーネル関数(Fig1C参照)。

それで、時間 0 から T まで、N 個のシナプスから spike train を入力したとき、出力ニューロンが発火するかどうかでその入力パターンを識別します。


では、学習はどうするか。(Fig 2)。

ある覚えさせたい入力パターンを入力したときに、出力ニューロンの膜電位 V(t) が高かった時間点を tmax を調べます。もし V(tmax) が閾値 Vthr を越えていたら、そのままにします。もし、越えていなかったら、越えるようになるように、シナプス強度 ωi を変更します。

 Δωi = λ Σ K(tmax - ti)     (論文中式2)

つまり、tmax から時間的に近くに入力があったシナプスのシナプス強度が強くなるよう学習させます。

記憶できるパターンの数は、シナプス数 N の2倍ぐらいだそうです。

---

論文では出力ニューロンの数は1個でしたが、もし出力を M 個にすると、N 入力 M 出力の simple perceptron に似てきます。

では、この Tempotronがパーセプトロンに比べてなにが新しいかというと、
・時間情報を含めたパターンの分離ができる
・演算に Integrate-and-Fire neuron を使っているので、より生理状態に近い。
というところでしょうか。

ただ、問題点としては、
・学習方法ががなんとなく不自然な感じをうける。
・パーセプトロンにくらべて一般性に乏しい。
などが挙げられると思います。

この Tempotron が今後はやるかどうかは、微妙なところかな。。

投稿者 sfujisawa : 2006年02月27日 21:09

コメント

コメントしてください

サイン・インを確認しました、 . さん。コメントしてください。 (サイン・アウト)

(いままで、ここでコメントしたとがないときは、コメントを表示する前にこのウェブログのオーナーの承認が必要になることがあります。承認されるまではコメントは表示されません。そのときはしばらく待ってください。)


情報を登録する?