Comments
Description
Transcript
ニューラルネットワークを用いた手書き文字認識
北海道立工業試験場報告 No.291(1992) ニューラルネ ットワ ークを用いた手書き文字認識 高橋 裕之,橋場 参生, 波 通隆,長尾 信一 Hand-written Character Recognition using Artificial Neural Networks Hiroyuki TAKAHASHI ,Mitsuo HASHIBA , Michitaka NAMI ,Shinichi NAGAO 抄 録 生体の優れた情報処理能力に注目し,その機構や構造をモデル化したニューロコンピュータ システムを構築して手書き文字認識応用技術への検討を行 った。処理系は,前処理,特徴抽出 と認識部から成る階層構造を有する。特徴抽出では,文字の大局的特徴として,文字パタ ーン の垂直・水平射影演算処理結果と注目点における線分の方向パタ ーンを抽出し,認識部ではそ の特徴情報から認識処理を行 った。線分の方向パタ ーンと認識処理にニ ュ ーラルネ ットワ ーク を応用し,そのネ ットワ ークに 3 層構造のバ ックプロパゲ ーシ ョンモデルを用いた。ソフトウ ェアによるシミ ュレ ータを作成し,手書き数字文字と英大文字に対する認識試験を行 った。数 字 と 英 大 文 字 で は, ユ ニ ッ ト 数 が 異 な る 認 識 処 理 ネ ッ ト ワ ー ク を 用 い た が, 数 字 で 約 97 %, 英大文字で約 92%以上の認識率が得られた。 もたらすと考えられている。そこで,ニューロコンピュー 1 . はじめに タ技術を手書きパターン認識に応用することにより,こ 近年の社会の情報化は,文字を介してコンピュータシ ステムへ直接アクセスする用例や,データベースを構築 れまでとは異なった特徴を有する処理系が望め,各々の 特徴を活かしたシステム開発が可能と思われる。 す る た め に, 膨 大 な 量 の 文 字 デ ー タ を OCR で 読 み 取 る 本研究では,手書きパターン認識システムの開発を目 必要性を生み出した。さらに,ワークステーションやパ 的として,ニューラルネットワークを用いた手書き文字 ソコンの普及は既に存在する文書を読み取り,再利用を 認識の検討を行い,手書き数字と手書き英大文字に対し 図るためのフレキシブルな入力装置を求めており,手書 て認識試験を行った。 きパターン認識技術は不可欠な技術となってきている。 また,生体の優れた情報処理能力に注目して,その機 2 . ニューロコンピュータ 構 や 構 造 を モ デ ル 化 し た ニ ュ ー ロ コ ン ピ ュ ー タ 技 術 は, 学習により自ら問題解決の手段の構築を行い,従来のコ 現在のコンピュータにおける情報処理は,主に対象と ンピュータ技術とは異なった新たなコンピュータ技術を なる問題を手続きに従った操作に分解し,各操作を順に ̶ 115 ̶ 北海道立工業試験場報告 No.291(1992) 実行して問題を解いていく。このコンピュータは様々な の中で,同時かつ並列に情報をやりとりすることで情報 作業を行うことができ,非常に有効なツールである。し 処理を進め,重みを変えることにより学習を行う。これ かし,曖昧なデータや手続きが明確でない場合の処理等 らは,神経回路網モデル,ニューラルネットワークモデ に対する課題はある。 ル,コネクショニストモデルなどと呼ばれている。こう 近年,これらのコンピュータ理論とは別の並列情報処 したモデルを利用したコンピュータをニューロコンピ 理の原理に基づく数理モデルが注目を浴びている。これ ュータと呼び,脳の持つ優れた情報処理能力を模範とし は,生体の情報処理,とくに脳の情報処理に学んだもの て工学的応用を行うものである。 であり,現在のコンピュータに対する課題を補おうとす 現在,ニューラルネットワークモデルとして,バック る も の で あ る。 具 体 的 に は,図 1 の よ う な 脳 の 基 本 素 子 プロパゲーションモデル,ポップフィールドモデル,ボ で あ る ニ ュ ー ロ ン( ユ ニ ッ ト ) を 多 入 力 1 出 力 の 工 学 的 ル ツ マ ン マ シ ン な ど が 提 案 さ れ て い る。 バ ッ ク プ ロ パ モデルに表現し,それをシナプス荷重(重み)により多 ゲーションモデルはニューラルネットワークの代表的な 数個結合してネットワークを構成し,このネットワーク モデルであり,学習に大きな特徴がある。 2.1 バ ックプロパゲーション(BP)モデル 入力層,出力層とその間の任意の中間層(隠れ層)か ら成る階層型ネットワーク構造(図 2)の代表的学習則 が バ ッ ク プ ロ パ ゲ ー シ ョ ン 学 習 則(BP 法 ) で あ り, こ の BP 法 に よ る モ デ ル を バ ッ ク プ ロ パ ゲ ー シ ョ ン(BP) モデルと呼ぶ。このモデルは入力層以外の各層は前層の 全ユニットと結合しており,入力層に任意の入力パター ̶ 116 ̶ 北海道立工業試験場報告 No.291(1992) ンを与えると,情報はネットワークの結合の重みに基づ らすようにすべての結合の強さを変えればいい。ここで き,中間層,出力層と伝播して出力を出す。この出力に はパターン p を与えたときの ω の変化量を次式のよう 対して,本来出力されるべき正しい値を与えることによ に定義する。 り,結合の重みを自発的に変える。この繰り返しにより, ネットワークは,正しい答えを出力するようになる。こ のように結合の重みを変えることを学習という。 式 (5) の右辺を次式とする。 2.2 BP 学習則 ユニットは複数の他のユニットからの出力結果とその 重みによる入力値により内部状態を変え出力を出す。ネ 式 (1) よ り net p j =Σω j k o p k で あ る の で 式 (6) の 右 辺 の 右項は次式のようになる。 ットワークの学習はこの重みを変えていくことである。 あ る ユ ニ ッ ト j の 入 力 値 は, 複 数 の ユ ニ ッ ト か ら の 入 力の総和であり,次式で表される。 net p j =Σω j i o p i i また,δ p i を次式のように定義する。 (1) ただし ω j i はユニット i からユニット j への重み係数, 式 (7) ,(8) から,式 (6) は次式のようになる。 o i はユニット i の出力結果である。 ユニットは入力値により内部状態を変える。その内部 関数は各ユニット毎に違っていても構わないが,一般に したがって,式 (5) は次式のように書き直せる。 は し き い 値 処 理 や sigmoid 関 数 を 使 う こ と が 多 く, 本 Δ p ω j i = ηδ p j o p i (10) 研 究 で は sigmoid 関 数 を 用 い た。sigmoid 関 数 は 微 分 可 能な,疑似線形関数で ここで,η は定数である。 式 (8) の δ p i は, そ の ユ ニ ッ ト が 出 力 層 か 中 間 層 か で 異 な る。 o p i = f ( net p j ) で あ る か ら, 出 力 層 の 場 合 は 次 で表せる。さらに,しきい値を加えて 式のようになる。 とする場合もある。 ネットワークは階層構造を採り,入力層,中間層,出 力層の方向へ結合し,逆方向の結合や層内での結合は基 本的には存在しない。 また,中間層の場合は 入力層の各ユニットに与えられた入力データはユニッ トで変換され中間層を経て出力層から出力される。その 出力値と,正しい出力値を比べ,その差を減らすように とすると,式 (1) より次式のようになる。 結合の強さを変える。 BP 法 で は, あ る パ タ ー ン p を 与 え た と き, 出 力 ユ ニ ット j の実際の出力値( o p j )と正しい出力値( t p j )の誤 差を次のように定義する。 これは出力ユニット j のエラーを表す。 t p j は人間が与 える教示データである。学習させるにはこのエラーを減 ̶ 117 ̶ 北海道立工業試験場報告 No.291(1992) 式 (13) はδの 再 帰 関 数 と な る。 Δ ω の 計 算 は,出 力 層 に関する空間的な処理が行われて,ものの認識・識別や のユニットから中間層ユニットに向かって進める。中間 運動の指令が行われる。人間はこれらの高度な処理をリ 層ユニットでは,Δ ω はその出力側の Δ ω が決まらない ア ル タ イ ム で 行 っ て い る。 こ れ は, 視 覚 系 で 特 徴 抽 出, と計算できない。したがって,出力層の誤差を初期値と 情報圧縮を行い,高度な特徴情報のみを脳に伝達し処理 して,再帰的に行われることになる。このように,学習 を行っているからであると言われている。 は入力データと逆の後向きに進む。これがバックプロパ ゲーション(誤差逆伝播)法の名前の由来である。 そ こ で, 図 3 に 示 す フ ロ ー の よ う な,前 処 理 や 特 徴 抽 出を行い,その特徴情報から,認識処理を行う階層構造 し た が っ て,BP 法 に よ る 学 習 は, 学 習 デ ー タ を 入 力 し,結果を出力する。結果のエラーを減らすように,結 モ デ ル を 構 成 し, 手 書 き 文 字 認 識 へ の 応 用 を 検 討 し た。 図 4 に英大文字でのブロック図を示す。 合の強さを変える。これを収束するまで繰り返す。 実際に行う場合には,重みの振動を防ぐために慣性項 3.1 前処理部 を加える方法が有効であり, 文字認識技術では,人間のように自由に書かれた様々 Δ ω j i ( n + 1 ) = ηδ p j o p i + αω j i ( n ) (15) な大きさやバランスの文字を認識可能なことが最終的な 課題であろうが,現時点での到達は困難である。そこ で, のようにする。 n は学習の回数を表す。右辺の第 1 項は 文字の大きさやバランスを整え,認識が容易となること い ま 求 め た Δ ω で あ り, 第 2 項 を 加 え る こ と に よ り, を目的に前処理を行った。 重みの変化に一種の慣性が生じ,エラーの曲面の細かな 手 書 き 文 字 の パ タ ー ン 情 報 は,72×72 か ら な る 領 域 凹凸を無視する効果が得られる。これにより,エラーの に‘0’, ‘ 1’の情報として直接入力される。この入力パ 振動を防ぎつつ,実効的な重みの変化量を大きくとるこ ターンに対し,非線形正規化処理を施し,大きさを揃え とができ,学習速度を高速にする効果がある。 32×32 の 情 報 に 変 換 す る。 さ ら に, 細 線 化 処 理 を 行 っ た。この結果を特徴抽出処理の入力情報とした。 3 . 手書き文字認識ネットワークモデル 3.1.1 非線形正規化処理 人間の視覚機能は,網膜に投影されたパターン情報を 正規化処理は,文字の大きさ,位置を整える操作であ 脳に伝達し,その情報から特徴抽出を行い,見たものの り,線形正規化であるアフィン変換が多く用いられてい 形状・色に関する処理が行われ,一方では距離や奥行き る。アフィン変換は,印刷文字のように形が整った文字 に適しているが,変形箇所が多い手書き文字では変形部 分がそのまま残るので十分ではない。 本研究では,線密度イコライゼーションによる非線形 正規化処理を用いた。これは,線の密なところを引伸 し, 粗なところは縮めるという非線形な正規化であり,空間 内の線密度が均質化され,空間の有効利用が図れる。具 体的には,旧座標の各標本点に特性値として局所的な線 密度を定義し,その特性値と各点で可変となる標本化間 隔との積が一定になるように変換する方式であり,以下 に示す。 一定の標本化間隔 δ で標本化された 2 値図形を f ( x i ,y j ) ,i = 1,2・・・,I,j = 1,2,・・・,J (16) と す る。( x i ,y j ) は, x 軸, y 軸 の 各 々 i 番 目, j 番 目 の 標本点の座標である。この時,標本化される対象となっ た元の標本点以外の点,すなわち連続座標系上での値は ̶ 118 ̶ 北海道立工業試験場報告 No.291(1992) f ( x ,y ) = f ( x i ,y j ) ( x = x i なる垂直線と 2 値図形 f との交差数) J − ( x i - 1 = ) x i − δ < x ≦ x i ,x 0 = O h X ( x i ) = Σ f ( x i ,y j )・ f ( x i ,y j - 1 )+α ( y i - 1 = ) y i − δ < y ≦ y i ,y 0 = O (17) f ( x i ,y O ) = O j=1 I − h Y ( y j ) = Σ f ( x i ,y j )・ f ( x i - 1 ,y j )+α であると考える。 i=1 こ こ で, 各 x i に お け る X 軸 へ の 線 の 本 数 の 射 影 ̶ 119 ̶ f ( x O ,y i ) = O (18) 北海道立工業試験場報告 No.291(1992) − を 求 め る。 た だ し, f は, f の 0-1 の 反 転 図 形 で あ る。 関数である。 , の外側では α = 0 ,内部では> 0 とする。これにより, , こ の よ う に す れ ば, 新 し い 標 本 化 図 形 g ( x i ,y j ) の 標 また,α は,外接長方形(文字図形を含む最小の長方形) 本点は, 外部の白地は無視されて,正方形に正規化されるが,内 側 の 白地 は, 線の本数 が 1 本の部分の α/( 1 + α)だけ の 重 み で 非 線 形 変 換 さ れ る。 な お,α は 大 き く す れ ば す るほど非線形性が弱まり,内部の α を無限大にすると, 従来の外接長方形による線形変換に等しくなる。 と計算される。 さ ら に, こ の 射 影 さ れ た 関 数,式 (18) も,式 (17) と 同 様 に,連続座標系上では, 図形からの再標本化という立場で定式化されている。離 散系により,しかも再標本化ではなく 2 値図形 f から求 hX(x) = hX(xi) ,xi − δ < x ≦ xi hY(y) = hY(yj) ,yj − δ < y ≦ yj なお,式 (24),(25) による正規化は,連続座標系上の元の (19) める場合には, と考える。 次に,それぞれの線の総和を求める。 I Nx = ΣhX(xi) i=1 J NY= ΣhY(yj) j=1 (20) なわち,かっこ内の条件を満足する最小の l ,m をそれ ぞ れ i’,j’ と す る と き, 正 規 化 図 形 の X 軸 の i 番 目, Y 以上の準備のもとで,正規化図形 , , g( x i ,y j ) ,i = 1,2,・・・,I,j = 1,2,・・・,J (21) , ,y’ と し て 変 換 す る。 す な る i’,j’ に 対 し,x’ i= xi ’ j= yj’ 軸 の j 番 目 の 標 本 値 g ( x’ y’ 元の図形のそれぞれ i, j) は, i,j 番目の標本値 f ( x’ y’ i, j) として計算される。 , の 標 本 点 ( x i ,y j ) は, 次 の 条 件 を 満 足 す る よ う 定 め ら 非線形正規化処理結果を図 5 − (a) ,(b) の (2) に示 す。 れる。 3.1.2 細線化処理 正規化した文字パターンから期待される方向パターン を容易に抽出可能なように細線化処理を施した。 細 線 化 と は,与 え ら れ た 図 形 か ら 線 幅 を 細 め て 幅 1 の ここで,ε X ,ε Y は,可変な標本化間隔であり x’i− ε X ( i )= x’i-1 y’j − ε Y ( j )= y’j- 1 (23) である。すなわち,標本化間隔と線密度の積が一定にな る よ う に 再 標 本 化 さ れ る。 な お, 定 数 を δ・ Nx/I お よ び δ・ Ny/J に す る の は, 正 規 化 図 形 の メ ッ シ ュ 数 も ( I×J )にするためである。 以上が本正規化の意図であるが,これを実行するため に, h の累積関数を定義する。 こ こ で, h は, 式 (19) で 定 義 さ れ た 連 続 座 標 系 上 で の ̶ 120 ̶ 北海道立工業試験場報告 No.291(1992) 中心線を抽出する操作である。細線化の結果からは図形 化しない の結合関係の特徴が求められるので,字や図面などの線 細線化処理結果を図 5 − (a) ,(b) の (3) に示す。 状図形から線の構造を解析するのに不可欠な処理となっ ている。 3.2 特徴抽出部 細 線 化 で は 多 く の ア ル ゴ リ ズ ム が 提 案 さ れ て い る が, 文字の特徴量として,ある注目点における線分の方向 基本的には「画像中の境界点中から,消去可能要素であ パターン情報と文字の大局的な特徴を表すものとして射 り,かつ,線の端点ではない画素をすべて消去する」と 影演算処理結果を用いた。 い う も の で あ る。 本 モ デ ル で は,Hilditch の 逐 次 型 ア ル ゴリズムによる 2 値図形の細線化処理を行った。 方 向 パ タ ー ン 抽 出 処 理 で は, 注 目 点 の 5×5 の 近 傍 を 入力データとし,縦線“|”,横線“−”斜線“/”, “\” Hilditch の ア ル ゴ リ ズ ム は, 入 力 2 値 画 像 を TV ラ ス タ に よ っ て 繰 り 返 し 走 査 し な が ら, 次 の 1)∼ 5)の 条 件 に反応するニューラルネットワークを構築し,その方向 情報の検出を行った。 を す べ て 満 足 す る‘1’ 画 素 を 除 去 し,1 回 の 画 面 走 査 ネ ッ ト ワ ー ク は 3 層 構 造 か ら な り,ユ ニ ッ ト 数 は 入 力 において除去される画素がなくなったとき,処理を終了 層 25 ,中間層 8 ,出力層は前述の方向パターンに対す するというものである。 る 4 に 加 え て そ れ 以 外 を 示 す ユ ニ ッ ト を 含 め て 5 と し, [ 各 回 の 画 面 走 査 を 開 始 し た と き の 画 像 の 状 態( 並 列 状 BP 法 に よ り 学 習 を 行 っ た。 学 習 パ タ ー ン の 一 部 を 図 6 態)における条件] に 示 す。 方 向 パ タ ー ン 抽 出 は,前 処 理 結 果 の 32×32 の 1)4 近傍に‘0’画素が存在する 領 域 を TV ラ ス タ 走 査 に よ り, 注 目 点 に‘1’ 画 素 が 存 2)8 近傍に 2 つ以上の‘1’画素が存在する 在 す る か, 注 目 点 の 8 近 傍 に‘1’ 画 素 が 2 以 上 存 在 す 3)8 連結数が 1 である る点のみについて処理を行った。結果は,5 種類の方向 [ 注 目 画 素 を 走 査 し た と き の 画 像 の 状 態( 逐 次 状 態 ) に パ タ ー ン 各 々 に 36×36 の 情 報 と し て 得 ら れ る が,特 徴 対する条件] データ圧縮と多少の文字ずれや変形の吸収を目的とし 4)8 近傍に‘1’画素が存在する て,3×3 の エ リ ア へ の 頻 度 情 報 と し て 0.0 ∼ 1.0 の 値 5) 既 走 査 の 4 近 傍 画 素 の 除 去 に よ り,8 連 結 数 が 変 に変換した。 ̶ 121 ̶ 北海道立工業試験場報告 No.291(1992) また,これまでの研究から方向パターンのみの特徴量 では,認識率に限界が生じると考え,認識率向上を目的 として,他の特徴量を付加することを検討した。 本研究では,文字の大局的情報として,射影演算処理 情報を特徴量として付加した。射影演算処理では,垂直 方 向, 水 平 方 向 そ れ ぞ れ の 処 理 結 果 を 5 領 域 に 分 割 し, それぞれの総和が 1 になるように正規化処理を施した。 以 上, 本 研 究 で は, 射 影 演 算 処 理 10 , 方 向 パ タ ー ン 情報 45 の合計 55 の特徴情報を得て認識処理を行っ た。 3.3 認識部 認 識 部 も 3 層 の ニ ュ ー ラ ル ネ ッ ト ワ ー ク で 構 成 し た。 ユニット数は,入力層には方向パターンと射影演算から の 出 力 結 果 55 , 中 間 層, 出 力 層 は 数 字 認 識 と 英 大 文 字 認 識 で は 異 な り, 数 字 認 識 で は 中 間 層 12 , 出 力 層 は 0 か ら 9 の 文 字 に 対 応 し た 10 ユ ニ ッ ト, 英 大 文 字 認 識 で は 中 間 層 15 , 出 力 層 A ら Z に 対 応 す る 26 ユ ニ ッ ト を 用いた。 数字,英大文字共にユニット数が異なるだけで,基本 2) 学 習 用 文 字 デ ー タ か ら, 前 処 理 を 行 い, 方 向 パ タ ー 的には同じ構造からなる。 ンおよび射影演算処理による特徴データ出力 3)特徴データにより,認識ネットワークの学習 4)手書き文字データにより,文字認識処理 4 . ネットワークシミュレータ また,これらの処理を一括して行うプログラムを EWS 上 述したモデルのシミュレータをパソコン(PC-9801RA 21) を 用 い て ソ フ ト ウ ェ ア(C 言 語 ) に よ り 作 成 し た。 (NWS-1460:SONY 製 ) で 作 成 し, 処 理 を 行 っ た。 図 7 はシステム図である。 プ ロ グ ラ ム は BP 部 を ラ イ ブ ラ リ と し て 作 成 し, こ れ を 基に以下のように機能別に構成した。 4.1 手書き数字認識処理 1) 方 向 パ タ ー ン デ ー タ に よ り, 方 向 パ タ ー ン 抽 出 ネ ッ トワークの学習 サンプルの手書き数字データは,常用手書きと自由手 書きにわけた。常用手書きは,文字の形状に制約を設け ̶ 122 ̶ 北海道立工業試験場報告 No.291(1992) たものである。サンプル数は ,常用手書き文字 25×10 , 率の悪いデータを学習データとして増やして,改めて学 自由手書き文字 50×10 である。サンプルの一部を図 8 習を行うということを数度繰り返した。最終的には,学 に示す。自由手書き文字では,ある程度パターンの揃っ 習 デ ー タ 数 と し て,300 個 用 い, 残 り の 未 学 習 デ ー タ に た も の と,そ う で な い も の に 分 け,サ ン プ ル を 3 カ テ ゴ より認識率を求めた。類似文字を効率良く認識できるよ リに分類した。 うに,学習回数は完全に収束させず 100 回とした。 学習は,始めに少しの学習データで認識させて,認識 学習は複数回学習データを変えて行った。認識結果を 表 1 に 示 す。 こ の よ う に 認 識 率 は 約 97 % 以 上 が 得 ら れ た。 処 理 の 表 示 の 様 子 を 図 9 に 示 す。 結 果 の な か で,常 用手書きとパターンの揃った自由手書き文字では,学習 データに,より多くの文字パターンを含ませるような最 適 な 選 択 を 行うことにより約 100 % の 認 識 率 を 得 る こ と が可能であった。換言すると,このことは,ターゲット を限定することにより,かなり確度の高い認識システム を構築することが可能である。 本 モ デ ル に 入 力 装 置 と し て CCD カ メ ラ を 用 い, 手 書 き数字認識システムを構成した。処理にはパソコンに挿 入したトランスピュータボードを使用した。カメラによ り手書き数字が記入されたシートをイメージデータとし て取り込み,文字は水平方向に並んでいるという前提条 件により文字の切り出しを行い,認識処理を行った。処 理 画 面 を 図 10 に 示 す。 切 り 出 し た 文 字 が 72×72 の 入 ̶ 123 ̶ 北海道立工業試験場報告 No.291(1992) 力領域に対して小さかったが,良好な認識結果が得られ た。 4.2 手書き英大字認識処理 手書き英大文字データとして,常用手書き文字を用い た。サンプル数は 1560(26×60)文字用い,そのうち, 520(26×20)文字を学習データとして,1040(26×40) 文 字 に 対 し て 認 識 試 験 を 行 っ た。 そ の 一 部 を 図 11 に 示 す。学習回数は数字と同様に 100 回に限定して行った。 結 果 例 を 表 2 に, 表 示 画 面 を 図 12 に 示 す。 こ の う ち net 1 は 学 習 デ ー タ を 適 当 に 選 定 し た も の で, こ の 学 習 データから,比較的形が類似したものを除き,認識結果 の 悪 い も の を 加 え て 学 習 デ ー タ を 構 成 し た も の が net 2 で あ り, 未 学 習 デ ー タ の 認 識 率 は 92.6 % が 得 ら れ た。 このように学習データを最適化していくとさらに認識率 の向上は望めると思われる。また,学習データ中の誤認 があるが,これは,形が規則に反したもの,大きく傾斜 したもの等によるためである。 5 . まとめ 複数のネットワークを階層的に構成し,手書き文字認 識を行うネットワークシミュレータを作成し,手書き数 行っており,数字・英大文字では異なるが,特徴データ 字約 97%,手書き英大文字 92.6%の認識結果が得られ へ の 出 力,認 識 ネ ッ ト ワ ー ク の 学 習 共 に 約 1 ∼ 2 時 間 を た。また,文字種や形状を限定する等,ある程度の制約 要 し た。EWS で は 単 一 の プ ロ グ ラ ム 構 成 で あ り パ ソ コ を設けることにより,100%近い認識結果が得られるこ ンとの単純な比較はできないが,数時間∼数十時間を要 とがわかった。 した。学習の高速化は今後の課題ではあるが,手書き数 処理時間に関しては,パソコンで機能別に分割処理を 字と手書き英大文字がほぼ同じシステムで動作するよう ̶ 124 ̶ 北海道立工業試験場報告 No.291(1992) に,学習データを替えることにより,種々のパターン認 識システムに対応できる可能性を有していると言える。 今後は,学習方法や処理系の最適化により,学習や認 識処理の高速化や認識率の向上の検討,また,数字,英 文字さらに手書きシンボル等を統括した処理系への展開 と入力機構を含めたシステム構築を検討していきたい。 引用文献 1) 朱 小 燕, 山 内 康 一 郎, 神 保 孝 志, 梅 野 正 義:「 階 層的ニューラルネットワークを用いた手書き文字認 識 」, 電 子 情 報 通 信 学 会 論 文 誌 D-II Vol.J73-D-II No.1 pp.54-61 1990.1 2) 波 通 隆, 高 橋 裕 之, 長 尾 信 一, 斉 藤 整:「 手 書 き文字認識に関する研究−伝票自動読み取りシステ ム へ の 応 用 − 」, 北 海 道 立 工 業 試 験 場 報 告,No.289 pp 111-124(1990) 3) 山 田 博 三, 斉 藤 泰 一, 山 本 和 彦:「 線 密 度 イ コ ラ イ ゼ ー シ ョ ン − 相 関 法 の た め の 非 線 形 正 規 化 法 − 」, 信 学 論(D),Vol.J67-D ,No.11 ,pp.1379-1383 ( 1984) 4) 鈴 木 智:「 細 線 化 ア ル ゴ リ ズ ム の 高 速 化 に 関 す る 考察」 ,情 報 処 理 学 会 論 文 誌, Vo1.29 No.10, pp.925 -932(1988) 5)D.E. ラ メ ル ハ ー ト,J.L. マ ク レ ラ ン ド,PDP リ サ ー チ グ ル ー プ 甘 利 俊 一 監 訳:「 PDP モ デ ル 認知科学とニューロン回路網の探索」,産業図書 6)「 ニ ュ ー ラ ル・ ネ ッ ト を パ タ ー ン 認 識, 信 号 処 理, 知 識 処 理 に 使 う 」, 日 経 エ レ ク ト ロ ニ ク ス pp.115 -124 1987,8,10(no.427) 7)SPIDER マニュアル 8) 菊 池 豊 彦:「 入 門 ニ ュ ー ロ コ ン ピ ュ ー タ 」, オ ー ム 社 ̶ 125 ̶