...

ニューラルネットワークを用いた手書き文字認識

by user

on
Category: Documents
12

views

Report

Comments

Transcript

ニューラルネットワークを用いた手書き文字認識
北海道立工業試験場報告 No.291(1992)
ニューラルネ ットワ ークを用いた手書き文字認識
高橋 裕之,橋場 参生,
波 通隆,長尾 信一
Hand-written Character Recognition using Artificial Neural Networks
Hiroyuki TAKAHASHI ,Mitsuo HASHIBA ,
Michitaka NAMI ,Shinichi NAGAO
抄 録
生体の優れた情報処理能力に注目し,その機構や構造をモデル化したニューロコンピュータ
システムを構築して手書き文字認識応用技術への検討を行 った。処理系は,前処理,特徴抽出
と認識部から成る階層構造を有する。特徴抽出では,文字の大局的特徴として,文字パタ ーン
の垂直・水平射影演算処理結果と注目点における線分の方向パタ ーンを抽出し,認識部ではそ
の特徴情報から認識処理を行 った。線分の方向パタ ーンと認識処理にニ ュ ーラルネ ットワ ーク
を応用し,そのネ ットワ ークに 3 層構造のバ ックプロパゲ ーシ ョンモデルを用いた。ソフトウ
ェアによるシミ ュレ ータを作成し,手書き数字文字と英大文字に対する認識試験を行 った。数
字 と 英 大 文 字 で は, ユ ニ ッ ト 数 が 異 な る 認 識 処 理 ネ ッ ト ワ ー ク を 用 い た が, 数 字 で 約 97 %,
英大文字で約 92%以上の認識率が得られた。
もたらすと考えられている。そこで,ニューロコンピュー
1 . はじめに
タ技術を手書きパターン認識に応用することにより,こ
近年の社会の情報化は,文字を介してコンピュータシ
ステムへ直接アクセスする用例や,データベースを構築
れまでとは異なった特徴を有する処理系が望め,各々の
特徴を活かしたシステム開発が可能と思われる。
す る た め に, 膨 大 な 量 の 文 字 デ ー タ を OCR で 読 み 取 る
本研究では,手書きパターン認識システムの開発を目
必要性を生み出した。さらに,ワークステーションやパ
的として,ニューラルネットワークを用いた手書き文字
ソコンの普及は既に存在する文書を読み取り,再利用を
認識の検討を行い,手書き数字と手書き英大文字に対し
図るためのフレキシブルな入力装置を求めており,手書
て認識試験を行った。
きパターン認識技術は不可欠な技術となってきている。
また,生体の優れた情報処理能力に注目して,その機
2 . ニューロコンピュータ
構 や 構 造 を モ デ ル 化 し た ニ ュ ー ロ コ ン ピ ュ ー タ 技 術 は,
学習により自ら問題解決の手段の構築を行い,従来のコ
現在のコンピュータにおける情報処理は,主に対象と
ンピュータ技術とは異なった新たなコンピュータ技術を
なる問題を手続きに従った操作に分解し,各操作を順に
̶ 115 ̶
北海道立工業試験場報告 No.291(1992)
実行して問題を解いていく。このコンピュータは様々な
の中で,同時かつ並列に情報をやりとりすることで情報
作業を行うことができ,非常に有効なツールである。し
処理を進め,重みを変えることにより学習を行う。これ
かし,曖昧なデータや手続きが明確でない場合の処理等
らは,神経回路網モデル,ニューラルネットワークモデ
に対する課題はある。
ル,コネクショニストモデルなどと呼ばれている。こう
近年,これらのコンピュータ理論とは別の並列情報処
したモデルを利用したコンピュータをニューロコンピ
理の原理に基づく数理モデルが注目を浴びている。これ
ュータと呼び,脳の持つ優れた情報処理能力を模範とし
は,生体の情報処理,とくに脳の情報処理に学んだもの
て工学的応用を行うものである。
であり,現在のコンピュータに対する課題を補おうとす
現在,ニューラルネットワークモデルとして,バック
る も の で あ る。 具 体 的 に は,図 1 の よ う な 脳 の 基 本 素 子
プロパゲーションモデル,ポップフィールドモデル,ボ
で あ る ニ ュ ー ロ ン( ユ ニ ッ ト ) を 多 入 力 1 出 力 の 工 学 的
ル ツ マ ン マ シ ン な ど が 提 案 さ れ て い る。 バ ッ ク プ ロ パ
モデルに表現し,それをシナプス荷重(重み)により多
ゲーションモデルはニューラルネットワークの代表的な
数個結合してネットワークを構成し,このネットワーク
モデルであり,学習に大きな特徴がある。
2.1 バ ックプロパゲーション(BP)モデル
入力層,出力層とその間の任意の中間層(隠れ層)か
ら成る階層型ネットワーク構造(図 2)の代表的学習則
が バ ッ ク プ ロ パ ゲ ー シ ョ ン 学 習 則(BP 法 ) で あ り, こ
の BP 法 に よ る モ デ ル を バ ッ ク プ ロ パ ゲ ー シ ョ ン(BP)
モデルと呼ぶ。このモデルは入力層以外の各層は前層の
全ユニットと結合しており,入力層に任意の入力パター
̶ 116 ̶
北海道立工業試験場報告 No.291(1992)
ンを与えると,情報はネットワークの結合の重みに基づ
らすようにすべての結合の強さを変えればいい。ここで
き,中間層,出力層と伝播して出力を出す。この出力に
はパターン p を与えたときの ω の変化量を次式のよう
対して,本来出力されるべき正しい値を与えることによ
に定義する。
り,結合の重みを自発的に変える。この繰り返しにより,
ネットワークは,正しい答えを出力するようになる。こ
のように結合の重みを変えることを学習という。
式 (5) の右辺を次式とする。
2.2 BP 学習則
ユニットは複数の他のユニットからの出力結果とその
重みによる入力値により内部状態を変え出力を出す。ネ
式 (1) よ り net p j =Σω j k o p k で あ る の で 式 (6) の 右 辺 の
右項は次式のようになる。
ットワークの学習はこの重みを変えていくことである。
あ る ユ ニ ッ ト j の 入 力 値 は, 複 数 の ユ ニ ッ ト か ら の 入
力の総和であり,次式で表される。
net p j =Σω j i o p i
i
また,δ p i を次式のように定義する。
(1)
ただし ω j i はユニット i からユニット j への重み係数,
式 (7) ,(8) から,式 (6) は次式のようになる。
o i はユニット i の出力結果である。
ユニットは入力値により内部状態を変える。その内部
関数は各ユニット毎に違っていても構わないが,一般に
したがって,式 (5) は次式のように書き直せる。
は し き い 値 処 理 や sigmoid 関 数 を 使 う こ と が 多 く, 本
Δ p ω j i = ηδ p j o p i (10)
研 究 で は sigmoid 関 数 を 用 い た。sigmoid 関 数 は 微 分 可
能な,疑似線形関数で
ここで,η は定数である。
式 (8) の δ p i は, そ の ユ ニ ッ ト が 出 力 層 か 中 間 層 か で
異 な る。 o p i = f ( net p j ) で あ る か ら, 出 力 層 の 場 合 は 次
で表せる。さらに,しきい値を加えて
式のようになる。
とする場合もある。
ネットワークは階層構造を採り,入力層,中間層,出
力層の方向へ結合し,逆方向の結合や層内での結合は基
本的には存在しない。
また,中間層の場合は
入力層の各ユニットに与えられた入力データはユニッ
トで変換され中間層を経て出力層から出力される。その
出力値と,正しい出力値を比べ,その差を減らすように
とすると,式 (1) より次式のようになる。
結合の強さを変える。
BP 法 で は, あ る パ タ ー ン p を 与 え た と き, 出 力 ユ ニ
ット j の実際の出力値( o p j )と正しい出力値( t p j )の誤
差を次のように定義する。
これは出力ユニット j のエラーを表す。 t p j は人間が与
える教示データである。学習させるにはこのエラーを減
̶ 117 ̶
北海道立工業試験場報告 No.291(1992)
式 (13) はδの 再 帰 関 数 と な る。 Δ ω の 計 算 は,出 力 層
に関する空間的な処理が行われて,ものの認識・識別や
のユニットから中間層ユニットに向かって進める。中間
運動の指令が行われる。人間はこれらの高度な処理をリ
層ユニットでは,Δ ω はその出力側の Δ ω が決まらない
ア ル タ イ ム で 行 っ て い る。 こ れ は, 視 覚 系 で 特 徴 抽 出,
と計算できない。したがって,出力層の誤差を初期値と
情報圧縮を行い,高度な特徴情報のみを脳に伝達し処理
して,再帰的に行われることになる。このように,学習
を行っているからであると言われている。
は入力データと逆の後向きに進む。これがバックプロパ
ゲーション(誤差逆伝播)法の名前の由来である。
そ こ で, 図 3 に 示 す フ ロ ー の よ う な,前 処 理 や 特 徴 抽
出を行い,その特徴情報から,認識処理を行う階層構造
し た が っ て,BP 法 に よ る 学 習 は, 学 習 デ ー タ を 入 力
し,結果を出力する。結果のエラーを減らすように,結
モ デ ル を 構 成 し, 手 書 き 文 字 認 識 へ の 応 用 を 検 討 し た。
図 4 に英大文字でのブロック図を示す。
合の強さを変える。これを収束するまで繰り返す。
実際に行う場合には,重みの振動を防ぐために慣性項
3.1 前処理部
を加える方法が有効であり,
文字認識技術では,人間のように自由に書かれた様々
Δ ω j i ( n + 1 ) = ηδ p j o p i + αω j i ( n ) (15)
な大きさやバランスの文字を認識可能なことが最終的な
課題であろうが,現時点での到達は困難である。そこ で,
のようにする。 n は学習の回数を表す。右辺の第 1 項は
文字の大きさやバランスを整え,認識が容易となること
い ま 求 め た Δ ω で あ り, 第 2 項 を 加 え る こ と に よ り,
を目的に前処理を行った。
重みの変化に一種の慣性が生じ,エラーの曲面の細かな
手 書 き 文 字 の パ タ ー ン 情 報 は,72×72 か ら な る 領 域
凹凸を無視する効果が得られる。これにより,エラーの
に‘0’,
‘ 1’の情報として直接入力される。この入力パ
振動を防ぎつつ,実効的な重みの変化量を大きくとるこ
ターンに対し,非線形正規化処理を施し,大きさを揃え
とができ,学習速度を高速にする効果がある。
32×32 の 情 報 に 変 換 す る。 さ ら に, 細 線 化 処 理 を 行 っ
た。この結果を特徴抽出処理の入力情報とした。
3 . 手書き文字認識ネットワークモデル
3.1.1 非線形正規化処理
人間の視覚機能は,網膜に投影されたパターン情報を
正規化処理は,文字の大きさ,位置を整える操作であ
脳に伝達し,その情報から特徴抽出を行い,見たものの
り,線形正規化であるアフィン変換が多く用いられてい
形状・色に関する処理が行われ,一方では距離や奥行き
る。アフィン変換は,印刷文字のように形が整った文字
に適しているが,変形箇所が多い手書き文字では変形部
分がそのまま残るので十分ではない。
本研究では,線密度イコライゼーションによる非線形
正規化処理を用いた。これは,線の密なところを引伸 し,
粗なところは縮めるという非線形な正規化であり,空間
内の線密度が均質化され,空間の有効利用が図れる。具
体的には,旧座標の各標本点に特性値として局所的な線
密度を定義し,その特性値と各点で可変となる標本化間
隔との積が一定になるように変換する方式であり,以下
に示す。
一定の標本化間隔 δ で標本化された 2 値図形を
f ( x i ,y j ) ,i = 1,2・・・,I,j = 1,2,・・・,J
(16)
と す る。( x i ,y j ) は, x 軸, y 軸 の 各 々 i 番 目, j 番 目 の
標本点の座標である。この時,標本化される対象となっ
た元の標本点以外の点,すなわち連続座標系上での値は
̶ 118 ̶
北海道立工業試験場報告 No.291(1992)
f ( x ,y ) = f ( x i ,y j )
( x = x i なる垂直線と 2 値図形 f との交差数)
J
−
( x i - 1 = ) x i − δ < x ≦ x i ,x 0 = O
h X ( x i ) = Σ f ( x i ,y j )・ f ( x i ,y j - 1 )+α
( y i - 1 = ) y i − δ < y ≦ y i ,y 0 = O (17)
f ( x i ,y O ) = O
j=1
I
−
h Y ( y j ) = Σ f ( x i ,y j )・ f ( x i - 1 ,y j )+α
であると考える。
i=1
こ こ で, 各 x i に お け る X 軸 へ の 線 の 本 数 の 射 影
̶ 119 ̶
f ( x O ,y i ) = O (18)
北海道立工業試験場報告 No.291(1992)
−
を 求 め る。 た だ し, f は, f の 0-1 の 反 転 図 形 で あ る。
関数である。
,
の外側では α = 0 ,内部では> 0 とする。これにより,
,
こ の よ う に す れ ば, 新 し い 標 本 化 図 形 g ( x i ,y j ) の 標
また,α は,外接長方形(文字図形を含む最小の長方形)
本点は,
外部の白地は無視されて,正方形に正規化されるが,内
側 の 白地 は, 線の本数 が 1 本の部分の α/( 1 + α)だけ
の 重 み で 非 線 形 変 換 さ れ る。 な お,α は 大 き く す れ ば す
るほど非線形性が弱まり,内部の α を無限大にすると,
従来の外接長方形による線形変換に等しくなる。
と計算される。
さ ら に, こ の 射 影 さ れ た 関 数,式 (18) も,式 (17) と 同 様
に,連続座標系上では,
図形からの再標本化という立場で定式化されている。離
散系により,しかも再標本化ではなく 2 値図形 f から求
hX(x) = hX(xi) ,xi − δ < x ≦ xi
hY(y) = hY(yj) ,yj − δ < y ≦ yj
なお,式 (24),(25) による正規化は,連続座標系上の元の
(19)
める場合には,
と考える。
次に,それぞれの線の総和を求める。
I
Nx = ΣhX(xi)
i=1
J
NY= ΣhY(yj)
j=1
(20)
なわち,かっこ内の条件を満足する最小の l ,m をそれ
ぞ れ i’,j’ と す る と き, 正 規 化 図 形 の X 軸 の i 番 目, Y
以上の準備のもとで,正規化図形
, ,
g( x i ,y j ) ,i = 1,2,・・・,I,j = 1,2,・・・,J (21)
,
,y’
と し て 変 換 す る。 す
な る i’,j’ に 対 し,x’
i= xi ’
j= yj’
軸 の j 番 目 の 標 本 値 g ( x’
y’
元の図形のそれぞれ
i,
j) は,
i,j 番目の標本値 f ( x’
y’
i,
j) として計算される。
,
の 標 本 点 ( x i ,y j ) は, 次 の 条 件 を 満 足 す る よ う 定 め ら
非線形正規化処理結果を図 5 − (a) ,(b) の (2) に示 す。
れる。
3.1.2 細線化処理
正規化した文字パターンから期待される方向パターン
を容易に抽出可能なように細線化処理を施した。
細 線 化 と は,与 え ら れ た 図 形 か ら 線 幅 を 細 め て 幅 1 の
ここで,ε X ,ε Y は,可変な標本化間隔であり
x’i− ε X ( i )= x’i-1
y’j − ε Y ( j )= y’j- 1 (23)
である。すなわち,標本化間隔と線密度の積が一定にな
る よ う に 再 標 本 化 さ れ る。 な お, 定 数 を δ・ Nx/I お よ
び δ・ Ny/J に す る の は, 正 規 化 図 形 の メ ッ シ ュ 数 も
( I×J )にするためである。
以上が本正規化の意図であるが,これを実行するため
に, h の累積関数を定義する。
こ こ で, h は, 式 (19) で 定 義 さ れ た 連 続 座 標 系 上 で の
̶ 120 ̶
北海道立工業試験場報告 No.291(1992)
中心線を抽出する操作である。細線化の結果からは図形
化しない
の結合関係の特徴が求められるので,字や図面などの線
細線化処理結果を図 5 − (a) ,(b) の (3) に示す。
状図形から線の構造を解析するのに不可欠な処理となっ
ている。
3.2 特徴抽出部
細 線 化 で は 多 く の ア ル ゴ リ ズ ム が 提 案 さ れ て い る が,
文字の特徴量として,ある注目点における線分の方向
基本的には「画像中の境界点中から,消去可能要素であ
パターン情報と文字の大局的な特徴を表すものとして射
り,かつ,線の端点ではない画素をすべて消去する」と
影演算処理結果を用いた。
い う も の で あ る。 本 モ デ ル で は,Hilditch の 逐 次 型 ア ル
ゴリズムによる 2 値図形の細線化処理を行った。
方 向 パ タ ー ン 抽 出 処 理 で は, 注 目 点 の 5×5 の 近 傍 を
入力データとし,縦線“|”,横線“−”斜線“/”,
“\”
Hilditch の ア ル ゴ リ ズ ム は, 入 力 2 値 画 像 を TV ラ ス
タ に よ っ て 繰 り 返 し 走 査 し な が ら, 次 の 1)∼ 5)の 条 件
に反応するニューラルネットワークを構築し,その方向
情報の検出を行った。
を す べ て 満 足 す る‘1’ 画 素 を 除 去 し,1 回 の 画 面 走 査
ネ ッ ト ワ ー ク は 3 層 構 造 か ら な り,ユ ニ ッ ト 数 は 入 力
において除去される画素がなくなったとき,処理を終了
層 25 ,中間層 8 ,出力層は前述の方向パターンに対す
するというものである。
る 4 に 加 え て そ れ 以 外 を 示 す ユ ニ ッ ト を 含 め て 5 と し,
[ 各 回 の 画 面 走 査 を 開 始 し た と き の 画 像 の 状 態( 並 列 状
BP 法 に よ り 学 習 を 行 っ た。 学 習 パ タ ー ン の 一 部 を 図 6
態)における条件]
に 示 す。 方 向 パ タ ー ン 抽 出 は,前 処 理 結 果 の 32×32 の
1)4 近傍に‘0’画素が存在する
領 域 を TV ラ ス タ 走 査 に よ り, 注 目 点 に‘1’ 画 素 が 存
2)8 近傍に 2 つ以上の‘1’画素が存在する
在 す る か, 注 目 点 の 8 近 傍 に‘1’ 画 素 が 2 以 上 存 在 す
3)8 連結数が 1 である
る点のみについて処理を行った。結果は,5 種類の方向
[ 注 目 画 素 を 走 査 し た と き の 画 像 の 状 態( 逐 次 状 態 ) に
パ タ ー ン 各 々 に 36×36 の 情 報 と し て 得 ら れ る が,特 徴
対する条件]
データ圧縮と多少の文字ずれや変形の吸収を目的とし
4)8 近傍に‘1’画素が存在する
て,3×3 の エ リ ア へ の 頻 度 情 報 と し て 0.0 ∼ 1.0 の 値
5) 既 走 査 の 4 近 傍 画 素 の 除 去 に よ り,8 連 結 数 が 変
に変換した。
̶ 121 ̶
北海道立工業試験場報告 No.291(1992)
また,これまでの研究から方向パターンのみの特徴量
では,認識率に限界が生じると考え,認識率向上を目的
として,他の特徴量を付加することを検討した。
本研究では,文字の大局的情報として,射影演算処理
情報を特徴量として付加した。射影演算処理では,垂直
方 向, 水 平 方 向 そ れ ぞ れ の 処 理 結 果 を 5 領 域 に 分 割 し,
それぞれの総和が 1 になるように正規化処理を施した。
以 上, 本 研 究 で は, 射 影 演 算 処 理 10 , 方 向 パ タ ー ン
情報 45 の合計 55 の特徴情報を得て認識処理を行っ た。
3.3 認識部
認 識 部 も 3 層 の ニ ュ ー ラ ル ネ ッ ト ワ ー ク で 構 成 し た。
ユニット数は,入力層には方向パターンと射影演算から
の 出 力 結 果 55 , 中 間 層, 出 力 層 は 数 字 認 識 と 英 大 文 字
認 識 で は 異 な り, 数 字 認 識 で は 中 間 層 12 , 出 力 層 は 0
か ら 9 の 文 字 に 対 応 し た 10 ユ ニ ッ ト, 英 大 文 字 認 識 で
は 中 間 層 15 , 出 力 層 A ら Z に 対 応 す る 26 ユ ニ ッ ト を
用いた。
数字,英大文字共にユニット数が異なるだけで,基本
2) 学 習 用 文 字 デ ー タ か ら, 前 処 理 を 行 い, 方 向 パ タ ー
的には同じ構造からなる。
ンおよび射影演算処理による特徴データ出力
3)特徴データにより,認識ネットワークの学習
4)手書き文字データにより,文字認識処理
4 . ネットワークシミュレータ
また,これらの処理を一括して行うプログラムを EWS
上 述したモデルのシミュレータをパソコン(PC-9801RA
21) を 用 い て ソ フ ト ウ ェ ア(C 言 語 ) に よ り 作 成 し た。
(NWS-1460:SONY 製 ) で 作 成 し, 処 理 を 行 っ た。
図 7 はシステム図である。
プ ロ グ ラ ム は BP 部 を ラ イ ブ ラ リ と し て 作 成 し, こ れ を
基に以下のように機能別に構成した。
4.1 手書き数字認識処理
1) 方 向 パ タ ー ン デ ー タ に よ り, 方 向 パ タ ー ン 抽 出 ネ ッ
トワークの学習
サンプルの手書き数字データは,常用手書きと自由手
書きにわけた。常用手書きは,文字の形状に制約を設け
̶ 122 ̶
北海道立工業試験場報告 No.291(1992)
たものである。サンプル数は ,常用手書き文字 25×10 ,
率の悪いデータを学習データとして増やして,改めて学
自由手書き文字 50×10 である。サンプルの一部を図 8
習を行うということを数度繰り返した。最終的には,学
に示す。自由手書き文字では,ある程度パターンの揃っ
習 デ ー タ 数 と し て,300 個 用 い, 残 り の 未 学 習 デ ー タ に
た も の と,そ う で な い も の に 分 け,サ ン プ ル を 3 カ テ ゴ
より認識率を求めた。類似文字を効率良く認識できるよ
リに分類した。
うに,学習回数は完全に収束させず 100 回とした。
学習は,始めに少しの学習データで認識させて,認識
学習は複数回学習データを変えて行った。認識結果を
表 1 に 示 す。 こ の よ う に 認 識 率 は 約 97 % 以 上 が 得 ら れ
た。 処 理 の 表 示 の 様 子 を 図 9 に 示 す。 結 果 の な か で,常
用手書きとパターンの揃った自由手書き文字では,学習
データに,より多くの文字パターンを含ませるような最
適 な 選 択 を 行うことにより約 100 % の 認 識 率 を 得 る こ と
が可能であった。換言すると,このことは,ターゲット
を限定することにより,かなり確度の高い認識システム
を構築することが可能である。
本 モ デ ル に 入 力 装 置 と し て CCD カ メ ラ を 用 い, 手 書
き数字認識システムを構成した。処理にはパソコンに挿
入したトランスピュータボードを使用した。カメラによ
り手書き数字が記入されたシートをイメージデータとし
て取り込み,文字は水平方向に並んでいるという前提条
件により文字の切り出しを行い,認識処理を行った。処
理 画 面 を 図 10 に 示 す。 切 り 出 し た 文 字 が 72×72 の 入
̶ 123 ̶
北海道立工業試験場報告 No.291(1992)
力領域に対して小さかったが,良好な認識結果が得られ
た。
4.2 手書き英大字認識処理
手書き英大文字データとして,常用手書き文字を用い
た。サンプル数は 1560(26×60)文字用い,そのうち,
520(26×20)文字を学習データとして,1040(26×40)
文 字 に 対 し て 認 識 試 験 を 行 っ た。 そ の 一 部 を 図 11 に 示
す。学習回数は数字と同様に 100 回に限定して行った。
結 果 例 を 表 2 に, 表 示 画 面 を 図 12 に 示 す。 こ の う ち
net 1 は 学 習 デ ー タ を 適 当 に 選 定 し た も の で, こ の 学 習
データから,比較的形が類似したものを除き,認識結果
の 悪 い も の を 加 え て 学 習 デ ー タ を 構 成 し た も の が net 2
で あ り, 未 学 習 デ ー タ の 認 識 率 は 92.6 % が 得 ら れ た。
このように学習データを最適化していくとさらに認識率
の向上は望めると思われる。また,学習データ中の誤認
があるが,これは,形が規則に反したもの,大きく傾斜
したもの等によるためである。
5 . まとめ
複数のネットワークを階層的に構成し,手書き文字認
識を行うネットワークシミュレータを作成し,手書き数
行っており,数字・英大文字では異なるが,特徴データ
字約 97%,手書き英大文字 92.6%の認識結果が得られ
へ の 出 力,認 識 ネ ッ ト ワ ー ク の 学 習 共 に 約 1 ∼ 2 時 間 を
た。また,文字種や形状を限定する等,ある程度の制約
要 し た。EWS で は 単 一 の プ ロ グ ラ ム 構 成 で あ り パ ソ コ
を設けることにより,100%近い認識結果が得られるこ
ンとの単純な比較はできないが,数時間∼数十時間を要
とがわかった。
した。学習の高速化は今後の課題ではあるが,手書き数
処理時間に関しては,パソコンで機能別に分割処理を
字と手書き英大文字がほぼ同じシステムで動作するよう
̶ 124 ̶
北海道立工業試験場報告 No.291(1992)
に,学習データを替えることにより,種々のパターン認
識システムに対応できる可能性を有していると言える。
今後は,学習方法や処理系の最適化により,学習や認
識処理の高速化や認識率の向上の検討,また,数字,英
文字さらに手書きシンボル等を統括した処理系への展開
と入力機構を含めたシステム構築を検討していきたい。
引用文献
1) 朱 小 燕, 山 内 康 一 郎, 神 保 孝 志, 梅 野 正 義:「 階
層的ニューラルネットワークを用いた手書き文字認
識 」, 電 子 情 報 通 信 学 会 論 文 誌 D-II Vol.J73-D-II
No.1 pp.54-61 1990.1
2) 波 通 隆, 高 橋 裕 之, 長 尾 信 一, 斉 藤 整:「 手 書
き文字認識に関する研究−伝票自動読み取りシステ
ム へ の 応 用 − 」, 北 海 道 立 工 業 試 験 場 報 告,No.289
pp 111-124(1990)
3) 山 田 博 三, 斉 藤 泰 一, 山 本 和 彦:「 線 密 度 イ コ ラ イ
ゼ ー シ ョ ン − 相 関 法 の た め の 非 線 形 正 規 化 法 − 」,
信 学 論(D),Vol.J67-D ,No.11 ,pp.1379-1383
( 1984)
4) 鈴 木 智:「 細 線 化 ア ル ゴ リ ズ ム の 高 速 化 に 関 す る
考察」
,情 報 処 理 学 会 論 文 誌,
Vo1.29 No.10,
pp.925
-932(1988)
5)D.E. ラ メ ル ハ ー ト,J.L. マ ク レ ラ ン ド,PDP リ
サ ー チ グ ル ー プ 甘 利 俊 一 監 訳:「 PDP モ デ ル
認知科学とニューロン回路網の探索」,産業図書
6)「 ニ ュ ー ラ ル・ ネ ッ ト を パ タ ー ン 認 識, 信 号 処 理,
知 識 処 理 に 使 う 」, 日 経 エ レ ク ト ロ ニ ク ス pp.115
-124 1987,8,10(no.427)
7)SPIDER マニュアル
8) 菊 池 豊 彦:「 入 門 ニ ュ ー ロ コ ン ピ ュ ー タ 」, オ ー ム
社
̶ 125 ̶
Fly UP