において、各々適当な点に関して球対称となる実数値函数からなる基底を考えるとき、各基底函数は放射基底関数(、RBF、動径基底関数)と呼ばれる。一般に、函数 が動径函数あるいは球対称 (radial) であるとは、, すなわちその値が偏角成分に依存せず動径成分(つまり原点からの距離)のみに依存して決まることを言う。従って動径基底函数は適当な点 を中心として、 からの距離のみに依存して決まる ()。ここで、ノルムはふつうユークリッド距離で考えるが、べつの距離函数を取ることもできる。動径基底函数の和としての近似の過程は、単純な種類のニューラルネットワークとしても解釈することができる。これはもともとは David Broomhead と David Lowe による1988年の結果(これは1977年に始まるMichael J. D. Powell の独創的な研究に由来する)によって表面化した文脈に属する。動径基底函数はサポートベクターマシンにおけるとしても用いられる。以下では中心 からの距離を と書くことにすれば、よく使われる放射基底関数として次を挙げることができる。放射基底関数は次の形式のの構築に使われることが多い。ここで、この近似関数 "y"(x) は "N" 個の放射基底関数の総和で表され、個々の放射基底関数はそれぞれ異なる中心点 c を持ち、それぞれ固有の係数 "w" で重み付けされている。この種の近似手法は、十分に単純なカオス的振る舞いを示す時系列の予測や非線形系の制御に使われる。これはまた、と呼ばれる単純な単層ニューラルネットワークにも利用されている。この場合、放射基底関数群がネットワークの活性化関数の役割を果たす。コンパクトな区間の任意の連続関数は、放射基底関数の個数が十分大きければ、基本的にそれらの総和の形式で任意の正確度で表すことができる。各放射基底関数の重み付けは、ニューラルネットワークの標準的な反復学習によって学習可能である。しかし、それら関数の総和は線形であるため、線形最小二乗法を使えば学習前に重み付けを見積もることが可能である。
出典:wikipedia
LINEスタンプ制作に興味がある場合は、
下記よりスタンプファクトリーのホームページをご覧ください。